Hàng ngàn người bao gồm cả Musk đã ký một bức thư ngỏ: toàn văn "Tạm dừng các thí nghiệm trí tuệ nhân tạo khổng lồ"

Bài viết này được dịch máy
Xem bản gốc

Hàng nghìn người bao gồm cả Musk đã ký vào bức thư ngỏ "Tạm dừng các thí nghiệm trí tuệ nhân tạo khổng lồ". Xem trang web cụ thể: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Các hệ thống trí tuệ nhân tạo với trí thông minh tương đương với con người có thể gây ra rủi ro sâu sắc cho xã hội và nhân loại, điều này đã được xác nhận bởi một số lượng lớn các nghiên cứu [1] và được hỗ trợ bởi các phòng thí nghiệm AI hàng đầu [2]. Như đã nêu trong Nguyên tắc Trí tuệ nhân tạo Asilomar được chấp nhận rộng rãi, AI tiên tiến có khả năng mang lại những biến đổi sâu sắc trong lịch sử sự sống trên Trái đất và do đó cần được lên kế hoạch và quản lý với sự chú ý và nguồn lực tương xứng. Đáng buồn thay, ngay cả trong những tháng gần đây, các phòng thí nghiệm AI đã bị mắc kẹt trong một cuộc chạy đua nhằm phát triển và triển khai trí thông minh kỹ thuật số ngày càng mạnh mẽ mà ngay cả những người tạo ra chúng cũng không thể hiểu, dự đoán hoặc đáng tin cậy. Mức độ lập kế hoạch và quản lý này đã không đạt được.

Với các hệ thống AI đương đại hiện có khả năng cạnh tranh với con người trong các nhiệm vụ có mục đích chung [3], chúng ta phải tự hỏi: Liệu chúng ta có nên cho phép máy móc tràn ngập các kênh thông tin của mình, truyền bá tuyên truyền và thông tin sai lệch? Chúng ta có nên tự động hóa tất cả các công việc, bao gồm cả những công việc hoàn thành không? Chúng ta có nên phát triển trí thông minh phi nhân loại mà cuối cùng có thể vượt qua và thay thế chúng ta không? Chúng ta có nên mạo hiểm đánh mất nền văn minh của mình không? Những quyết định này không thể để lại cho các nhà lãnh đạo công nghệ không được bầu chọn. Các hệ thống AI mạnh chỉ có thể được phát triển nếu chúng ta tin tưởng rằng tác động của hệ thống AI sẽ là tích cực và các rủi ro sẽ có thể kiểm soát được. Sự tự tin này phải có cơ sở vững chắc và tăng lên cùng với tác động tiềm ẩn của hệ thống. Tuyên bố gần đây của OpenAI về trí tuệ nhân tạo nói chung nêu rõ: "Tại một thời điểm nào đó, có thể cần phải có được đánh giá độc lập trước khi bắt đầu đào tạo các hệ thống trong tương lai và mỗi nỗ lực đào tạo một hệ thống tiên tiến nhất phải được Đồng thuận." Chúng tôi đã đồng ý. Thời điểm đó là bây giờ.

Do đó, chúng tôi kêu gọi tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng ít nhất 6 tháng để ngừng đào tạo các hệ thống AI mạnh hơn GPT-4. Việc đình chỉ này phải được công khai, có thể kiểm chứng và bao gồm tất cả các nhân vật chủ chốt. Nếu lệnh cấm như vậy không thể được thực hiện nhanh chóng, chính phủ nên can thiệp và áp đặt lệnh cấm.

Các phòng thí nghiệm AI và các chuyên gia độc lập nên tận dụng khoảng thời gian tạm dừng này để cùng phát triển và triển khai một bộ giao thức an toàn nâng cao, dùng chung cho thiết kế và phát triển AI cần được các chuyên gia độc lập bên ngoài kiểm tra và giám sát chặt chẽ. Các giao thức này phải đảm bảo rằng các hệ thống tuân thủ chúng được an toàn ngoài sự nghi ngờ hợp lý [4]. Điều này không có nghĩa là tạm dừng phát triển AI, mà chỉ đơn giản là lùi một bước khỏi cuộc đua nguy hiểm để phát triển các mô hình hộp đen lớn hơn, khó đoán hơn với các khả năng mới nổi.

Nghiên cứu và phát triển AI nên tập trung lại vào cách làm cho các hệ thống mạnh mẽ, hiện đại ngày nay trở nên chính xác, an toàn, dễ giải thích, minh bạch, mạnh mẽ, nhất quán, đáng tin cậy và trung thành.

Đồng thời, các nhà phát triển AI phải làm việc với các nhà hoạch định chính sách để tăng tốc đáng kể sự phát triển của các hệ thống quản trị AI. Những điều này nên bao gồm, ở mức tối thiểu: các cơ quan quản lý mới, có khả năng dành riêng cho AI; giám sát và theo dõi các hệ thống AI công suất cao và sức mạnh tính toán khổng lồ; hệ thống đánh dấu nguồn gốc và xuất xứ để giúp phân biệt rò rỉ mô hình thật với mô hình tổng hợp và theo dõi; Kiểm tra và chứng nhận mạnh mẽ của hệ sinh thái; trách nhiệm giải trình đối với những thiệt hại do AI gây ra; tài trợ công đầy đủ cho nghiên cứu kỹ thuật an toàn AI; và các tổ chức có nguồn lực đầy đủ để đối phó với sự gián đoạn nghiêm trọng về kinh tế và chính trị (đặc biệt là đối với các nền dân chủ) do AI gây ra.

Nhân loại có thể chia sẻ một tương lai thịnh vượng với AI. Sau khi đã thành công trong việc tạo ra các hệ thống AI mạnh mẽ, giờ đây chúng ta có thể tận hưởng một "mùa hè AI", khoảng thời gian mà chúng ta có thể gặt hái thành quả từ những lợi ích rõ ràng cho tất cả mọi người và cơ hội để xã hội thích nghi. Xã hội đã nhấn nút tạm dừng đối với các công nghệ khác có thể gây ra những tác động tai hại cho xã hội [5]. Chúng ta có thể làm như vậy ở đây. Hãy tận hưởng một mùa hè AI dài thay vì nhảy vào mùa thu mà không chuẩn bị.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận