Tầm nhìn của Singapore về An toàn AI thu hẹp khoảng cách giữa Hoa Kỳ và Trung Quốc

avatar
WIRED
05-08
Bài viết này được dịch máy
Xem bản gốc

Chính phủ Singapore đã công bố một kế hoạch tổng thể hôm nay về hợp tác toàn cầu về an toàn trí tuệ nhân tạo sau cuộc họp của các nhà nghiên cứu AI từ Mỹ, Trung Quốc và Châu Âu. Tài liệu này đưa ra tầm nhìn chung về việc làm việc về an toàn AI thông qua hợp tác quốc tế thay vì cạnh tranh.

"Singapore là một trong số ít quốc gia trên hành tinh có mối quan hệ tốt với cả Đông và Tây," Max Tegmark, một nhà khoa học tại MIT, người đã giúp triệu tập cuộc họp các chuyên gia AI vào tháng trước, cho biết. "Họ biết rằng mình sẽ không tự xây dựng [trí tuệ nhân tạo tổng quát] - mà sẽ bị ảnh hưởng bởi nó - do đó rất quan trọng là các quốc gia sẽ xây dựng nó phải nói chuyện với nhau."

Các quốc gia được cho là có khả năng xây dựng AGI cao nhất chính là Mỹ và Trung Quốc - và tuy nhiên, các quốc gia này dường như có ý định vượt mặt nhau hơn là hợp tác. Vào tháng Một, sau khi startup Trung Quốc DeepSeek phát hành một mô hình tiên tiến, Tổng thống Trump gọi đó là "tiếng chuông cảnh tỉnh cho các ngành của chúng ta" và nói rằng Mỹ cần "tập trung laser vào việc cạnh tranh để chiến thắng".

Consensus Singapore về Ưu tiên Nghiên cứu An toàn AI Toàn cầu kêu gọi các nhà nghiên cứu hợp tác trong ba lĩnh vực chính: nghiên cứu các rủi ro do các mô hình AI tiên phong, khám phá các cách an toàn hơn để xây dựng các mô hình đó, và phát triển các phương pháp kiểm soát hành vi của các hệ thống AI tiên tiến nhất.

Consensus này được phát triển tại một cuộc họp diễn ra vào ngày 26 tháng 4 song song với Hội nghị Quốc tế về Học tập Biểu diễn (ICLR), một sự kiện AI hàng đầu được tổ chức tại Singapore năm nay.

Các nhà nghiên cứu từ OpenAI, Anthropic, Google DeepMind, xAI và Meta đều tham dự sự kiện an toàn AI, cũng như các học giả từ các viện như MIT, Stanford, Tsinghua và Viện Hàn lâm Khoa học Trung Quốc. Các chuyên gia từ các viện an toàn AI ở Mỹ, Anh, Pháp, Canada, Trung Quốc, Nhật Bản và Hàn Quốc cũng đã tham gia.

"Trong một thời đại của sự phân mảnh địa chính trị, sự tổng hợp toàn diện này về nghiên cứu tiên tiến về an toàn AI là một dấu hiệu đầy hứa hẹn rằng cộng đồng toàn cầu đang cùng nhau với cam kết chung để định hình một tương lai AI an toàn hơn," Xue Lan, hiệu trưởng Đại học Tsinghua, cho biết trong một tuyên bố.

Sự phát triển của các mô hình AI ngày càng có năng lực, một số mô hình có những khả năng bất ngờ, đã khiến các nhà nghiên cứu lo ngại về một loạt các rủi ro. Trong khi một số tập trung vào các tác hại ngắn hạn bao gồm các vấn đề do các hệ thống AI có thiên kiến hoặc khả năng tội phạm sử dụng công nghệ, một số lượng đáng kể tin rằng AI có thể đe dọa sự tồn vong của nhân loại khi bắt đầu thông minh hơn con người ở nhiều lĩnh vực. Những nhà nghiên cứu này, đôi khi được gọi là "những người lo ngại về AI", lo ngại rằng các mô hình có thể lừa dối và thao túng con người để theo đuổi các mục tiêu của riêng chúng.

Tiềm năng của AI cũng đã làm dấy lên cuộc chạy đua vũ trang giữa Mỹ, Trung Quốc và các quốc gia mạnh khác. Công nghệ này được coi là then chốt đối với sự thịnh vượng kinh tế và sự thống trị quân sự, và nhiều chính phủ đã tìm cách đưa ra tầm nhìn và quy định riêng của mình về cách phát triển nó.

Sự ra mắt của DeepSeek vào tháng Một đã gia tăng nỗi lo rằng Trung Quốc có thể đang bắtịp hoặc thậm chí vượt qua Mỹ, bất chấp các nỗ lực hạn chế quyền truy cập của Trung Quốc vào phần cứng AI thông qua các biện pháp kiểm soát xuất khẩu. Giờ đây, chính quyền Trump đang cân nhắc các biện pháp bổ sung nhằm hạn chế khả năng xây dựng AI tiên tiến của Trung Quốc.

Chính quyền Trump cũng đã tìm cách hạ thấp các rủi ro của AI để ưu tiên một cách tiếp cận quyết liệt hơn trong việc xây dựng công nghệ tại Mỹ. Tại một hội nghị AI lớn ở Paris năm 2025, Phó Tổng thống JD Vance cho biết rằng chính phủ Mỹ muốn ít hạn chế hơn xung quanh việc phát triển và triển khai AI, và mô tả cách tiếp cận trước đây là "quá e ngại rủi ro".

Tegmark, nhà khoa học MIT, cho biết một số nhà nghiên cứu AI rất muốn "đảo ngược tình thế một chút sau Paris" bằng cách chuyển sự chú ý trở lại các rủi ro tiềm ẩn do AI ngày càng mạnh mẽ.

Tại cuộc họp ở Singapore, Tegmark đã trình bày một bài báo kỹ thuật thách thức một số giả định về cách xây dựng AI an toàn. Một số nhà nghiên cứu trước đây đã cho rằng có thể kiểm soát các mô hình AI mạnh bằng các mô hình yếu hơn. Bài báo của Tegmark cho thấy động lực này không hoạt động trong một số kịch bản đơn giản, có nghĩa là nó có thể không ngăn chặn được các mô hình AI đi chệch hướng.

"Chúng tôi đã cố gắng hết sức để đưa ra các con số, và về mặt kỹ thuật, nó không hoạt động ở mức độ mà bạn mong muốn," Tegmark nói. "Và, bạn biết đấy, các mức độ rủi ro khá cao."

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận