
Sáng nay, một nhóm các nhà nghiên cứu AI nổi tiếng đã đưa ra một tuyên bố chung như hình trên. “ Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.” Ngoài tuyên bố 23 từ, không có chi tiết nào khác. Tôi ước có nhiều lý do hơn được đưa ra khi một tuyên bố quan trọng như vậy được đưa ra. Điều đó có nghĩa là gì? Nếu không đối phó với nguy cơ AI, chúng ta có thể chết? chúng ta phải làm gì?
Nguy cơ đại dịch đã được biết rõ trước COVID-19 nhưng những người bình thường không thể làm gì được. Đó là một ý tưởng trừu tượng. Ngay cả bây giờ, nó vẫn là một ý tưởng trừu tượng. Nhưng ít nhất chúng ta biết mọi thứ có thể diễn ra như thế nào đối với một đại dịch. Cụ thể, mọi người bị nhiễm một số loại virus zombie kỳ lạ và nó lây lan nhanh chóng khiến mọi người tử vong. Đối với chiến tranh hạt nhân, chúng ta có thể tưởng tượng rằng một quả bom nguyên tử được thả xuống giết chết hàng trăm nghìn người ngay lập tức và gây ra thiệt hại phóng xạ cho hàng triệu người.
Nhưng một sự kiện tuyệt chủng AI đòi hỏi điều gì? Tôi chắc chắn rằng có khoa học viễn tưởng tôi có thể đọc về điều này. Nhưng những bức ảnh lớn này có thể vui lòng giải thích? Có một số khả năng tôi có thể nghĩ đến nhưng tôi không chắc liệu đó có phải là một sự kiện tuyệt chủng hay nó giống như con người trở thành nô lệ cho AI hơn. Cụ thể, con người sẽ sống dưới sự khủng bố của AI giống như các loài động vật được thuần hóa ngày nay. Tuy nhiên, vẫn chưa rõ liệu chúng ta sẽ trở thành chó/mèo hay gà/lợn/bò. Nhưng dù sao đi nữa, công chúng xứng đáng được biết thêm chi tiết và giải thích nếu có nhiều chính sách công khai hơn về sự tuyệt chủng AI sắp được ban hành.

Một số chuyên gia AI như Yann LeCun và Andrew Ng dường như bác bỏ ý tưởng về siêu trí tuệ AI. Lập luận phản bác của tôi với Tiến sĩ LeCun là nếu chúng ta có thể tìm ra cách triển khai trí thông minh ở cấp độ chó, chúng ta có thể nhanh chóng tìm ra siêu trí thông minh vì đó có thể chỉ là vấn đề mở rộng quy mô của cùng một hệ thống và chúng ta sẽ không có thời gian để phản ứng. Do đó, tôi không nghĩ nên bỏ qua rủi ro ngay cả khi xác suất rất nhỏ. Chúng ta cần xem xét nó một cách nghiêm túc trong trường hợp nguy cơ tuyệt chủng AI thành hiện thực. Ít nhất, chúng ta cần suy nghĩ về các kịch bản làm thế nào AI có thể kiểm soát nhân loại. Một lần nữa, chúng ta cần nhiều chi tiết cụ thể hơn.


