Tuần này, một cuộc tranh luận gay gắt về tương lai của trí tuệ nhân tạo đã diễn ra khi bốn nhà công nghệ và nhà siêu nhân học nổi tiếng tranh luận xem việc xây dựng trí tuệ nhân tạo tổng quát ( AGI ) sẽ cứu rỗi nhân loại hay hủy diệt nó.
Buổi thảo luận do tổ chức phi lợi nhuận Humanity+ tổ chức đã quy tụ một trong những người bi quan nhất về trí tuệ nhân tạo, Eliezer Yudkowsky, người từng kêu gọi ngừng phát triển trí tuệ nhân tạo tiên tiến, cùng với nhà triết học và nhà tương lai học Max More, nhà khoa học thần kinh tính toán Anders Sandberg, và Chủ tịch danh dự của Humanity+, Natasha Vita-More.
Cuộc thảo luận của họ đã bộc lộ những bất đồng cơ bản về việc liệu trí tuệ nhân tạo tổng quát (AGI) có thể phù hợp với sự sống còn của loài người hay việc tạo ra nó sẽ khiến sự tuyệt chủng trở nên không thể tránh khỏi.
Yudkowsky cảnh báo rằng các hệ thống trí tuệ nhân tạo hiện đại về cơ bản là không an toàn vì các quy trình ra quyết định nội bộ của chúng không thể được hiểu hoặc kiểm soát hoàn toàn.
“Bất cứ thứ gì được gọi là hộp đen có lẽ sẽ gặp phải những vấn đề tương tự như công nghệ hiện tại,” Yudkowsky cảnh báo. Ông lập luận rằng nhân loại cần phải “vượt xa những mô hình hiện tại” trước khi trí tuệ nhân tạo tiên tiến có thể được phát triển một cách an toàn.
Trí tuệ nhân tạo tổng quát (AGI) đề cập đến một dạng trí tuệ nhân tạo có khả năng suy luận và học hỏi trên nhiều nhiệm vụ khác nhau, thay vì chỉ được xây dựng cho một công việc duy nhất như tạo văn bản , hình ảnh hoặc video . AGI thường được liên kết với ý tưởng về điểm kỳ dị công nghệ, bởi vì đạt được mức độ thông minh đó có thể cho phép máy móc tự cải thiện nhanh hơn khả năng thích ứng của con người.
Yudkowsky đã sử dụng phép so sánh " máy tối ưu hóa kẹp giấy " do triết gia Nick Bostrom phổ biến để minh họa rủi ro. Thí nghiệm tư duy này mô tả một trí tuệ nhân tạo giả định chuyển đổi tất cả vật chất có sẵn thành kẹp giấy, càng củng cố thêm sự ám ảnh của nó đối với một mục tiêu duy nhất, gây tổn hại đến nhân loại. Yudkowsky cho rằng việc thêm nhiều mục tiêu hơn sẽ không cải thiện đáng kể sự an toàn.
Nhắc đến tựa đề cuốn sách gần đây của ông về trí tuệ nhân tạo, " Nếu ai đó chế tạo nó, tất cả mọi người sẽ chết ", ông Yudkowsky nói: "Tựa đề của chúng tôi không phải là nó có thể giết chết bạn. Tựa đề của chúng tôi là, nếu ai đó chế tạo nó, tất cả mọi người sẽ chết."
Nhưng More đã thách thức tiền đề rằng sự thận trọng tột độ sẽ mang lại kết quả an toàn nhất. Ông lập luận rằng trí tuệ nhân tạo tổng quát (AGI) có thể mang lại cho nhân loại cơ hội tốt nhất để vượt qua lão hóa và bệnh tật.
“Điều quan trọng nhất đối với tôi là trí tuệ nhân tạo tổng quát (AGI) có thể giúp chúng ta ngăn chặn sự tuyệt chủng của tất cả mọi người đang sống do tuổi già,” More tuyên bố. “Tất cả chúng ta đều đang chết dần. Chúng ta đang tiến đến một thảm họa, từng người một.” Ông cảnh báo rằng sự kiềm chế quá mức có thể đẩy các chính phủ đến chỗ kiểm soát độc đoán như là cách duy nhất để ngăn chặn sự phát triển của AI trên toàn thế giới.
Sandberg tự định vị mình ở giữa hai phe, tự mô tả mình là người "lạc quan hơn" nhưng vẫn thận trọng hơn những người theo chủ nghĩa siêu nhân lạc quan. Ông kể lại một trải nghiệm cá nhân khi suýt nữa đã sử dụng một mô hình ngôn ngữ quy mô lớn để hỗ trợ thiết kế vũ khí sinh học , một sự việc mà ông mô tả là "kinh hoàng".
“Chúng ta đang tiến đến điểm mà việc khuếch đại các tác nhân độc hại cũng sẽ gây ra một mớ hỗn độn khổng lồ,” Sandberg nói. Tuy nhiên, ông lập luận rằng sự an toàn một phần hoặc “tương đối” vẫn có thể đạt được. Ông bác bỏ ý kiến cho rằng sự an toàn phải hoàn hảo mới có ý nghĩa, cho rằng con người ít nhất có thể thống nhất về các giá trị chung tối thiểu như sự sống còn.
“Vì vậy, nếu bạn đòi hỏi sự an toàn tuyệt đối, bạn sẽ không đạt được điều đó. Và điều đó nghe có vẻ rất tệ từ góc độ đó,” ông nói. “Mặt khác, tôi nghĩ chúng ta thực sự có thể đạt được sự an toàn tương đối. Như vậy là đủ tốt rồi.”
Vita-More chỉ trích chính cuộc tranh luận rộng hơn về sự liên kết, cho rằng khái niệm này giả định một mức độ Consensus không tồn tại ngay cả giữa những cộng tác viên lâu năm.
“Quan niệm về sự đồng thuận chỉ là ảo tưởng,” bà nói. “Sự đồng thuận sẽ không bao giờ xảy ra. Ý tôi là, ngay cả ở đây, chúng ta đều là người tốt. Chúng ta đã quen biết nhau hàng chục năm rồi, mà chúng ta vẫn không có cùng quan điểm.”
Bà mô tả tuyên bố của Yudkowsky rằng trí tuệ nhân tạo tổng quát (AGI) chắc chắn sẽ giết chết tất cả mọi người là "tư duy tuyệt đối" không chừa chỗ cho những kết quả khác.
“Tôi có vấn đề với nhận định phiến diện rằng ai cũng sẽ chết,” bà nói. “Nhìn nhận vấn đề này với tư cách là một nhà tương lai học và một người suy nghĩ thực tế, nhận định đó không để lại hậu quả nào, không có lựa chọn nào khác, không có kịch bản nào khác. Đó chỉ là một khẳng định thẳng thừng, và tôi tự hỏi liệu nó có phản ánh một kiểu tư duy tuyệt đối hay không.”
Cuộc thảo luận bao gồm một cuộc tranh luận về việc liệu sự tích hợp chặt chẽ hơn giữa con người và máy móc có thể giảm thiểu rủi ro do trí tuệ nhân tạo tổng quát (AGI) gây ra hay không — điều mà CEO Elon Musk của Tesla đã đề xuất trước đây. Yudkowsky bác bỏ ý tưởng hợp nhất với AI, so sánh nó với việc "cố gắng hợp nhất với lò nướng bánh mì của bạn".
Sandberg và Vita-More lập luận rằng, khi các hệ thống AI ngày càng trở nên có năng lực hơn, con người sẽ cần phải tích hợp hoặc hòa nhập chặt chẽ hơn với chúng để đối phó tốt hơn với thế giới hậu AGI.
Vita-More nói: "Toàn bộ cuộc thảo luận này là một sự nhắc nhở thực tế về bản chất con người của chúng ta."





