'Bố già AI' cảnh báo máy móc siêu thông minh có thể giết chết con người bằng chiến tranh sinh học

avatar
Decrypt
06-17
Bài viết này được dịch máy
Xem bản gốc

Geoffrey Hinton, được biết đến rộng rãi như là "Cha đẻ của AI", đã đưa ra cảnh báo nghiêm trọng nhất của mình trong một cuộc phỏng vấn mới, cảnh báo rằng trí tuệ nhân tạo không chỉ đe dọa việc làm, mà còn là nguy cơ tồn vong đối với nhân loại khi thế giới đua nhau hướng tới siêu trí tuệ.

Phát biểu trên podcast "Nhật ký của một CEO", Hinton đã phác thảo một viễn cảnh u ám về tương lai, cho rằng AI cuối cùng có thể quyết định rằng chính nhân loại là lỗi thời.

"Không có cách nào chúng ta ngăn được nó loại bỏ chúng ta nếu nó muốn," Hinton nói. "Chúng ta không quen nghĩ về những thứ thông minh hơn chúng ta. Nếu bạn muốn biết cuộc sống như thế nào khi bạn không phải là trí tuệ tối cao, hãy hỏi một con gà."

Hinton cho biết mối đe dọa sẽ có hai hình thức khác nhau: những mối đe dọa phát sinh từ việc con người lạm dụng, chẳng hạn như các cuộc tấn công mạng, sự lan truyền của thông tin sai lệch và việc tạo ra vũ khí tự động; và những mối đe dọa phát sinh từ các hệ thống AI trở nên hoàn toàn tự chủ và không thể kiểm soát.

"Bây giờ họ có thể tạo ra vũ khí tự động gây chết người, và tôi nghĩ tất cả các bộ phòng thủ lớn đều đang bận rộn chế tạo chúng," ông nói. "Ngay cả khi chúng không thông minh hơn con người, chúng vẫn là những thứ rất khó chịu, đáng sợ."

Vào tháng 5 năm 2023, Hinton, nhà tiên phong về mạng nơ-ron, đã rời Google và Đại học Toronto sau hơn một thập kỷ làm việc về trí tuệ nhân tạo, để ông có thể tự do nói về những mối nguy hiểm của công nghệ này.

Cảnh báo của Hinton diễn ra giữa làn sóng ứng dụng quân sự của AI. Những diễn biến gần đây đã làm nổi bật sự tích hợp nhanh chóng của công nghệ vào các hoạt động quốc phòng, với Hoa Kỳ dẫn đầu sự gia tăng về nguồn tài trợ và các mối quan hệ đối tác.

Vào tháng 11, trong nỗ lực tăng cường quân đội bằng AI và vũ khí tự động, Bộ Quốc phòng Hoa Kỳ đã yêu cầu 143 tỷ đô la cho nghiên cứu và phát triển trong đề xuất ngân sách năm 2025 của Quốc hội, với 1,8 tỷ đô la được phân bổ riêng cho AI. Đầu năm đó, nhà phát triển phần mềm Palantir đã được trao 175 triệu đô la hợp đồng với Quân đội Hoa Kỳ để phát triển các hệ thống nhắm mục tiêu được hỗ trợ bởi AI. Vào tháng 3, Lầu Năm Góc đã hợp tác với Scale AI để ra mắt mô phỏng chiến trường cho các tác nhân AI được gọi là Thunderforge.

Hinton so sánh thời điểm hiện tại với sự ra đời của vũ khí hạt nhân, ngoại trừ việc AI khó kiểm soát hơn và hữu ích trong nhiều lĩnh vực hơn.

"Quả bom nguyên tử chỉ tốt cho một thứ, và rõ ràng là nó hoạt động như thế nào," ông nói. "Với AI, nó tốt cho rất nhiều thứ."

Sự kết hợp giữa động cơ lợi nhuận của các công ty và sự cạnh tranh quốc tế là lý do tại sao việc phát triển AI sẽ không chậm lại, Hinton giải thích.

"Động cơ lợi nhuận đang nói: Cho họ thấy những gì sẽ khiến họ nhấp chuột, và những gì sẽ khiến họ nhấp chuột là những thứ ngày càng cực đoan, xác nhận những thiên kiến sẵn có của họ," ông nói. "Vì vậy, bạn liên tục được xác nhận những thiên kiến của mình."

AI sẽ tiêu diệt con người như thế nào? Hinton cho biết một AI siêu trí tuệ có thể thiết kế các mối đe dọa sinh học mới để tiêu diệt nhân loại.

"Cách rõ ràng nhất sẽ là tạo ra một loại virus khủng khiếp - rất lây lan, rất chết người và rất chậm - để mọi người đều có nó trước khi nhận ra," ông nói. "Nếu siêu trí tuệ muốn loại bỏ chúng ta, nó có lẽ sẽ chọn một thứ gì đó về mặt sinh học mà không ảnh hưởng đến nó."

Mặc dù triển vọng u ám, nhưng Hinton không hoàn toàn mất hy vọng.

"Chúng ta thực sự không biết liệu chúng ta có thể khiến chúng không muốn chiếm quyền kiểm soát và không muốn làm hại chúng ta hay không. Tôi không nghĩ là điều đó rõ ràng, vì vậy tôi nghĩ có thể là vô vọng," Hinton nói. "Nhưng tôi cũng nghĩ chúng ta có thể làm được, và sẽ là điên rồ nếu con người tuyệt chủng chỉ vì chúng ta không quan tâm để thử."

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận