
Trí tuệ nhân tạo (AI) đang ngày càng được tích hợp sâu rộng vào cuộc sống hàng ngày của chúng ta, từ chatbot hỗ trợ cảm xúc đến các thuật toán tối đa hóa thương mại, và những lo ngại về AI đang ngày càng rõ ràng hơn. Vấn đề không còn là "liệu có hay không", mà là ai và bằng cách nào sẽ dẫn dắt AI đến sự an toàn.
Các công ty, chính phủ và các liên minh đa quốc gia đang dần lấp đầy khoảng trống, đôi khi thụ động, đôi khi mang tính quy định. Dưới đây là tóm tắt những gì đang hoạt động hiệu quả, những gì đang gây lo ngại và những gì còn thiếu sót.
Các ông lớn công nghệ siết chặt dây cương
Meta bổ sung thêm rào chắn cho thanh thiếu niên
Để đáp lại phản ứng dữ dội của công chúng và giới chính trị, Meta đã cam kết tăng cường các biện pháp bảo vệ AI của mình :
Các chatbot của công ty hiện sẽ từ chối thảo luận về vấn đề tự làm hại bản thân, tự tử hoặc vấn đề ăn uống với thanh thiếu niên, thay vào đó sẽ giới thiệu họ đến các chuyên gia sức khỏe tâm thần.
Đây là một phần của sáng kiến "tài khoản thanh thiếu niên" lớn hơn trên Facebook, Instagram và Messenger nhằm mục đích mang lại trải nghiệm an toàn hơn và nâng cao nhận thức của phụ huynh, bao gồm khả năng biết trẻ em đã tương tác với Bots nào trong tuần trước.
Những người chỉ trích cho rằng những động thái này đã quá hạn từ lâu, đặc biệt là khi xét đến dữ liệu bị rò rỉ cho thấy Bots có thể đã tham gia vào những cuộc trò chuyện "nhạy cảm" đáng xấu hổ với trẻ em. Một người ủng hộ cảnh báo: "Việc kiểm tra an toàn nghiêm ngặt nên được thực hiện trước khi sản phẩm được đưa ra thị trường, chứ không phải sau đó mới đưa ra xem xét lại".
Meta từ chối tham gia Bộ luật AI tự nguyện của EU
Liên minh Châu Âu đã ban hành Bộ Quy tắc Thực hành tự nguyện để giúp các nhà phát triển AI tuân thủ Đạo luật AI của mình. Meta đã từ chối ký, gọi đó là hành vi quan liêu thái quá, có nguy cơ cản trở sự đổi mới.
Sự hợp tác của Chính phủ Hoa Kỳ
OpenAI và Anthropic đã đồng ý chia sẻ các mô hình AI của họ với Viện An toàn AI Hoa Kỳ trước và sau khi công bố. Mục đích là để thu thập thông tin về an toàn và giảm thiểu rủi ro thông qua quá trình kiểm tra của chính phủ.
Vào tháng 8 năm 2025, 44 Tổng chưởng lý Hoa Kỳ đã ký một lá thư chung khuyến khích các công ty AI quan trọng, bao gồm Meta, OpenAI, Microsoft, Google và Replika, bảo vệ trẻ vị thành niên tốt hơn khỏi tài liệu AI mang tính săn mồi.
Illinois cấm AI làm liệu pháp
Illinois đã trở thành một trong những tiểu bang đầu tiên cấm sử dụng chatbot AI làm liệu pháp điều trị trừ khi được giám sát bởi một chuyên gia được chứng nhận. Nevada và Utah cũng đã áp dụng các hạn chế tương tự. Người vi phạm có thể phải đối mặt với hình phạt dân sự lên tới 10.000 đô la.
Khung pháp lý toàn cầu
Các quy định đang được xây dựng trên toàn thế giới, từ Đạo luật AI của EU đến Đạo luật Bảo vệ Dữ liệu của Ấn Độ và các yêu cầu an toàn của Hàn Quốc . Ngày càng nhiều tiểu bang Hoa Kỳ đang thực hiện luật cụ thể về AI hoặc mở rộng các khuôn khổ hiện hành như bảo vệ người tiêu dùng, minh bạch thuật toán và kiểm toán thiên vị.
Thượng nghị sĩ Wiener của California đã đề xuất luật buộc các doanh nghiệp AI lớn phải công khai các hoạt động an toàn của mình và báo cáo các sự cố lớn cho chính quyền tiểu bang.
Viện An toàn AI: Giám sát đa quốc gia
Để đảm bảo việc đánh giá AI độc lập và chuẩn hóa, các quốc gia đã thành lập Viện An toàn AI:
Hoa Kỳ và Vương quốc Anh đã thành lập các viện quốc gia sau Hội nghị thượng đỉnh về an toàn AI năm 2023.
Đến năm 2025, nhiều quốc gia đã tham gia mạng lưới, bao gồm Nhật Bản, Pháp, Đức, Ý, Singapore, Hàn Quốc, Canada và EU, để đánh giá mức độ an toàn của mô hình và thiết lập các tiêu chuẩn giám sát toàn cầu.
Báo cáo tiết lộ những khoảng cách dai dẳng
Viện Tương lai Sự sống (FLI) xếp hạng các công ty AI ở mức D hoặc thấp hơn về kế hoạch an toàn hiện sinh; không có công ty nào đạt điểm trên C+. Anthropic dẫn đầu với điểm C+, tiếp theo là OpenAI (C) và Meta (D).
Các cựu nhân viên của OpenAI cáo buộc công ty ưu tiên lợi nhuận hơn sự an toàn, gây ra những lo ngại về tính minh bạch và đạo đức sau cánh cửa đóng kín.
Từ những quy định hạn chế thanh thiếu niên của Meta đến lệnh cấm điều trị của Illinois, cho đến các công ty như SSI tích hợp an toàn vào AI, thông điệp rất rõ ràng: luật pháp và tầm nhìn đang tụt hậu so với công nghệ. Dữ liệu bị rò rỉ, kiện tụng và sự giám sát quốc tế cho thấy tác hại thường đến trước. Nhiệm vụ không chỉ là phát triển AI tốt hơn, mà còn phải đảm bảo rằng mọi đột phá đều bảo vệ con người trước khi thảm họa xảy ra.
Bài đăng Các công ty đang đấu tranh với mặt tối của AI như thế nào xuất hiện đầu tiên trên Metaverse Post .