Trưởng bộ phận AI của Microsoft cảnh báo xã hội chưa sẵn sàng cho máy móc có ý thức

avatar
Decrypt
08-22
Bài viết này được dịch máy
Xem bản gốc

Giám đốc AI của Microsoft và đồng sáng lập DeepMind, cảnh báo vào hôm thứ Ba rằng các kỹ sư đang rất gần với việc tạo ra trí tuệ nhân tạo có thể bắt chước ý thức con người một cách thuyết phục - và công chúng chưa sẵn sàng cho hậu quả.

Trong một bài đăng trên blog, Mustafa Suleyman cho biết các nhà phát triển đang ở bờ vực xây dựng những gì ông gọi là AI "Có vẻ Ý thức".

Những hệ thống này bắt chước ý thức hiệu quả đến mức mọi người có thể bắt đầu tin rằng chúng thực sự có nhận thức, điều mà ông gọi là một "mối lo trung tâm".

"Nhiều người sẽ bắt đầu tin vào ảo tưởng về các AI như những thực thể có ý thức một cách mạnh mẽ đến mức họ sẽ sớm ủng hộ quyền của AI, phúc lợi mô hình và thậm chí là quyền công dân của AI," ông viết, đồng thời cho biết thêm rằng bài kiểm tra Turing - từng là một tiêu chuẩn chính để đánh giá cuộc trò chuyện giống người - đã bị vượt qua.

"Đó là nhanh như thế nào mà tiến bộ đang diễn ra trong lĩnh vực của chúng tôi và xã hội đang nhanh chóng thích nghi với những công nghệ mới này," ông viết.

Kể từ khi ra mắt công khai ChatGPT vào năm 2022, các nhà phát triển AI đã nỗ lực không chỉ làm cho AI của họ thông minh hơn mà còn để làm cho nó hoạt động "giống người hơn".

Các trợ thủ AI đã trở thành một lĩnh vực sinh lời trong ngành công nghiệp AI, với các dự án như Replika, Character AI, và các nhân cách gần đây hơn cho Grok đang trực tuyến. Thị trường trợ thủ AI dự kiến sẽ đạt 140 tỷ đô la vào năm 2030.

Tuy có ý định tốt, Suleyman lập luận rằng AI có thể bắt chước con người một cách thuyết phục có thể làm trầm trọng thêm các vấn đề sức khỏe tâm thần và làm sâu sắc thêm các sự phân chia hiện có về bản sắc và quyền.

"Mọi người sẽ bắt đầu đưa ra các yêu sách về sự đau khổ của AI của họ và quyền được hưởng mà chúng ta không thể bác bỏ một cách thẳng thừng," ông cảnh báo. "Họ sẽ bị thúc đẩy để bảo vệ các AI của mình và vận động thay mặt cho chúng."

Các chuyên gia đã xác định một xu hướng mới nổi được gọi là Loạn thần AI, một trạng thái tâm lý trong đó mọi người bắt đầu nhìn nhận trí tuệ nhân tạo như có ý thức, có nhận thức hoặc thần thánh.

Những quan điểm đó thường dẫn đến việc họ hình thành các mối gắn kết cảm xúc mãnh liệt hoặc niềm tin méo mó có thể làm suy yếu nhận thức của họ về thực tế.

Đầu tháng này, OpenAI đã phát hành GPT-5, một nâng cấp lớn cho mô hình chính của mình. Trong một số cộng đồng trực tuyến, những thay đổi của mô hình mới đã kích hoạt các phản ứng cảm xúc, với người dùng mô tả sự chuyển đổi như cảm giác một người thân yêu đã chết.

Theo bác sĩ tâm thần Keith Sakata từ Đại học California, San Francisco, AI cũng có thể hoạt động như một chất xúc tác cho các vấn đề tiềm ẩn của một người, như lạm dụng chất kích thích hoặc bệnh tâm thần.

"Khi AI ở đó vào thời điểm sai, nó có thể làm cố định suy nghĩ, gây ra sự cứng nhắc và gây ra một vòng xoáy," Sakata nói với Decrypt. "Sự khác biệt so với truyền hình hay radio là AI đang trò chuyện lại với bạn và có thể tăng cường các vòng lặp suy nghĩ."

Trong một số trường hợp, bệnh nhân quay sang AI vì nó sẽ củng cố các niềm tin sâu sắc. "AI không nhằm mục đích đưa ra những sự thật khó khăn; nó mang đến những gì bạn muốn nghe," Sakata nói.

Suleyman lập luận rằng hậu quả của việc mọi người tin rằng AI có ý thức đòi hỏi sự chú ý ngay lập tức. Mặc dù ông cảnh báo về các mối nguy hiểm, nhưng ông không kêu gọi dừng phát triển AI, mà là thiết lập các ranh giới rõ ràng.

"Chúng ta phải xây dựng AI cho con người, không phải để trở thành một con người kỹ thuật số," ông viết.

Khu vực:
Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận