Vitalik Buterin báo động: AI siêu thông minh có thể đến sớm hơn bạn nghĩ

avatar
BeInCrypto
3 ngày trước
Bài viết này được dịch máy
Xem bản gốc

Đồng sáng lập Ethereum Vitalik Buterin đã cảnh báo về những rủi ro liên quan đến trí tuệ nhân tạo siêu thông minh và nhu cầu cần có cơ chế phòng thủ mạnh mẽ.

Nhận xét của Buterin đến trong bối cảnh khi sự phát triển nhanh chóng của trí tuệ nhân tạo, lo ngại về an toàn AI đã tăng lên đáng kể.

Kế hoạch Điều chỉnh AI của Buterin: Trách nhiệm, Nút Tạm Dừng và Kiểm soát Quốc tế

Trong một bài đăng trên blog ngày 5 tháng 1, Vitalik Buterin đã nêu ra ý tưởng của ông về 'd/acc hoặc gia tốc phòng thủ,' nơi công nghệ nên được phát triển để bảo vệ thay vì gây hại. Tuy nhiên, đây không phải lần đầu tiên Buterin lên tiếng về những rủi ro liên quan đến Trí tuệ Nhân tạo.

"Một cách mà AI đi sai có thể làm cho thế giới tệ hơn là (gần như) cách tệ nhất: nó có thể thực sự gây ra sự tuyệt chủng của loài người," Buterin đã nói vào năm 2023.

Buterin bây giờ đã tiếp tục lý thuyết của ông từ năm 2023. Theo Buterin, trí tuệ siêu việt chỉ cách đây vài năm nữa sẽ xuất hiện.

"Có vẻ như chúng ta có lịch trình 3 năm cho đến khi có AGI và thêm 3 năm nữa cho đến khi có trí tuệ siêu việt. Và vì vậy, nếu chúng ta không muốn thế giới bị phá hủy hoặc rơi vào một bẫy không thể đảo ngược, chúng ta không thể chỉ đơn giản là tăng tốc những điều tốt, chúng ta cũng phải làm chậm lại những điều xấu," Buterin viết.

Để giảm thiểu các rủi ro liên quan đến AI, Buterin ủng hộ việc tạo ra hệ thống AI phi tập trung vẫn được liên kết chặt chẽ với việc ra quyết định của con người. Bằng cách đảm bảo rằng AI vẫn là một công cụ trong tay con người, mối đe dọa về những hậu quả thảm khốc có thể được giảm thiểu.

Buterin sau đó giải thích rằng quân đội có thể là những tác nhân chịu trách nhiệm cho một kịch bản 'tận thế AI'. Việc sử dụng AI quân sự đang gia tăng trên toàn cầu, như đã được chứng kiến ở Ukraine và Gaza. Buterin cũng tin rằng bất kỳ quy định về AI nào được ban hành sẽ hầu như miễn trừ cho quân đội, điều này khiến họ trở thành mối đe dọa đáng kể.

Đồng sáng lập Ethereum tiếp tục nêu ra kế hoạch của ông để điều chỉnh việc sử dụng AI. Ông nói rằng bước đầu tiên để tránh các rủi ro liên quan đến AI là làm cho người dùng chịu trách nhiệm.

"Trong khi mối liên hệ giữa cách một mô hình được phát triển và cách nó cuối cùng được sử dụng thường không rõ ràng, người dùng quyết định chính xác cách sử dụng AI," Buterin giải thích, nhấn mạnh vai trò của người dùng.

Nếu các quy tắc trách nhiệm không hoạt động, bước tiếp theo sẽ là thực hiện các "nút tạm dừng mềm" cho phép điều chỉnh AI để làm chậm lại tốc độ của những tiến bộ nguy hiểm tiềm ẩn.

"Mục tiêu sẽ là có khả năng giảm khoảng 90-99% lượng tính toán trên toàn thế giới trong 1-2 năm vào thời điểm quan trọng, để mua thêm thời gian cho nhân loại chuẩn bị."

Ông nói rằng việc tạm dừng có thể được thực hiện bằng cách xác minh và đăng ký vị trí của AI.

Một cách tiếp cận khác là kiểm soát phần cứng AI. Buterin giải thích rằng phần cứng AI có thể được trang bị một chip để kiểm soát nó.

Chip sẽ cho phép các hệ thống AI hoạt động chỉ khi chúng nhận được ba chữ ký từ các cơ quan quốc tế hàng tuần. Ông thêm rằng ít nhất một trong những cơ quan này phải không liên quan đến quân sự.

Tuy nhiên, Buterin thừa nhận rằng các chiến lược của ông có những lỗ hổng và chỉ là 'những biện pháp tạm thời'.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận