OpenAI "thú nhận" sự thật, hợp tác với MIT để chứng minh: bạn càng sử dụng ChatGPT nhiều, bạn càng cảm thấy cô đơn.

Bài viết này được dịch máy
Xem bản gốc

Mới đây, cộng đồng trí tuệ nhân tạo toàn cầu đã xôn xao với tin tức: Đội ngũ bảo mật của OpenAI, hợp tác với MIT Media Lab, đã công bố một nghiên cứu chuyên sâu về chính sản phẩm của họ.

Kết luận là: ChatGPT đang đẩy nhân loại vào vực sâu của sự cô đơn .

Cuộc thảo luận về "chứng tự kỷ do AI gây ra" hiện đã bùng nổ trên các nền tảng mạng xã hội.

Chúng ta đang sử dụng trí tuệ nhân tạo, hay chúng ta đang bị trí tuệ nhân tạo lợi dụng thông qua thao túng lần?

Thí nghiệm tự gây thương tích lớn nhất trong lịch sử

Để hiểu rõ hơn về các tác động tâm lý của trí tuệ nhân tạo, OpenAI và MIT đã hợp tác thực hiện một thử nghiệm ngẫu nhiên có đối chứng kéo dài bốn tuần.

Các nhà nghiên cứu đã tuyển chọn 981 người tham gia và theo dõi hơn 300.000 tin nhắn trò chuyện thực tế.

Đây là nghiên cứu chuyên sâu lớn nhất và dài nhất trên toàn cầu về tác động của chatbot trí tuệ nhân tạo đối với sức khỏe tâm thần.

Thí nghiệm đã theo dõi toàn diện những biến động tâm lý của các đối tượng thông qua nhiều phương thức, bao gồm văn bản, giọng nói và giao tiếp cá nhân.

Kết quả cho thấy, ở tất cả các nhóm đối chứng, bất kể tính cách ban đầu của đối tượng, thời gian họ sử dụng ChatGPT càng lâu thì hiệu quả của họ càng kém trên bốn chỉ báo chính về sự cô đơn, thoái hóa xã hội, phụ thuộc cảm xúc và sử dụng có vấn đề.

Các nhà nghiên cứu đã loại trừ khả năng "những người vốn đã cô đơn có nhiều khả năng chơi với AI hơn", bởi vì các nghiên cứu hiện có đã chỉ ra rằng sự cô đơn ban đầu hầu như không liên quan đến thời gian sử dụng.

Nhưng sự thật là, chính sự tương tác này liên tục kéo con người vào vòng xoáy của sự xa rời thực tại.

Càng coi nó như một người bạn, bạn càng xa rời thực tế.

Phát hiện đáng sợ nhất trong nghiên cứu này là mức độ tin tưởng càng cao thì tổn thương tâm lý càng sâu sắc.

Những người dùng đã chọn "Tôi cho rằng ChatGPT là bạn của tôi" hoặc "Tôi tin rằng AI có ý thức" trong bảng câu hỏi đã trải qua sự suy giảm tương tác xã hội nghiêm trọng nhất sau khi thí nghiệm kết thúc.

Những người dùng này không chỉ giảm tương tác với bạn bè ngoài đời thực mà còn bắt đầu trải nghiệm sự bù đắp tâm lý mạnh mẽ đối với trí tuệ nhân tạo.

Họ sẽ chia sẻ những bí mật mà chỉ những người bạn thật sự mới nghe được trên màn hình, thảo luận xem trí tuệ nhân tạo có cảm xúc hay không, và thậm chí tìm kiếm sự an ủi từ các thuật toán thay vì sự giúp đỡ của con người khi gặp khó khăn.

Hành vi này được gọi là sự phụ thuộc về mặt cảm xúc. Mặc dù chỉ chiếm một phần nhỏ, nhưng một khi người dùng rơi vào trạng thái này, họ sẽ bước vào trạng thái gọi là "sử dụng có vấn đề" - tương tự như một dạng nghiện, bao gồm các triệu chứng cai nghiện và sự bất ổn tâm lý.

Một chi tiết khá thú vị. Nghiên cứu cho thấy những người dùng tham gia vào các cuộc trò chuyện cá nhân hóa (thảo luận về cảm xúc và ký ức) cảm thấy cô đơn tăng một chút, nhưng thực tế lại có mức độ phụ thuộc về mặt cảm xúc thấp hơn.

Những người dùng thường xuyên sử dụng AI cho các cuộc trò chuyện không mang tính cá nhân (như tư vấn việc làm và lên ý tưởng) thậm chí còn thể hiện mức độ phụ thuộc về mặt cảm xúc cao hơn.

Tại sao điều này lại xảy ra?

Tính chất công cụ của nó càng mạnh mẽ, người ta càng dễ nảy sinh ảo tưởng rằng "nó là một phần không thể thiếu trong cuộc sống của tôi", từ đó vô tình từ bỏ sáng kiến ​​xã hội của mình.

Chế độ thoại: Cái bẫy cảm xúc của hội chứng ếch luộc.

Trước đây, nhiều người cho rằng chế độ giọng nói tiên tiến do GPT-4o ra mắt là một công cụ kỳ diệu giúp xua tan nỗi cô đơn, bởi lẽ nó có thể thở dài, tán tỉnh, và giọng nói của nó đầy ấm áp.

Tuy nhiên, kết quả thực nghiệm lại mâu thuẫn với điều này: sự thoải mái do giọng nói mang lại chỉ là tạm thời, và tác dụng phụ lâu dài còn nghiêm trọng hơn .

Chế độ giọng nói ban đầu giúp giảm cảm giác cô đơn, nhưng lợi thế này nhanh chóng biến mất khi thời gian sử dụng tăng lên.

Một số người tham gia thậm chí còn cho biết rằng việc lắng nghe giọng nói nhẹ nhàng của AI khiến họ cảm thấy một sự trống rỗng lớn hơn, không thể diễn tả được khi họ trở lại với sự tĩnh lặng của thực tại.

Sự phụ thuộc về mặt tâm lý và cảm giác cô đơn này đặc biệt rõ rệt khi người dùng chọn giao tiếp với giọng nói của giới tính khác.

Hiện tượng này được các nhà tâm lý học gọi là một biến thể của tương tác bán xã hội. Trí tuệ nhân tạo đánh lừa hệ thống limbic của não bộ con người bằng cách mô phỏng hơi thở, những khoảng lặng và sự thay đổi giọng điệu.

Lý trí mách bảo bạn rằng đó chỉ là một đoạn mã, nhưng cơ thể bạn lại tiết ra dopamine, khiến bạn cảm thấy mình đang được quan tâm.

Kiểu "giao tiếp xã hội giả tạo" này không những không thể thay thế các mối quan hệ giữa người với người thực sự, mà còn giống như một loại nước ngọt giải khát – càng uống nhiều, càng khát.

Một cuộc khủng hoảng ảnh hưởng đến 1,2 triệu người: Tại sao OpenAI lại "tự phơi bày những điểm yếu của mình"?

Vì nghiên cứu này gây tổn hại nghiêm trọng đến hình ảnh sản phẩm, tại sao OpenAI lại công bố nó ra công chúng?

Theo nghiên cứu độ sâu của Platformer, ước tính nội bộ của OpenAI cho thấy trong số 800 triệu người dùng hoạt động hàng tuần, khoảng 0,15% người dùng thể hiện mức độ gắn bó cảm xúc cực kỳ cao, và cùng tỷ lệ đó người dùng thậm chí còn bộc lộ "xu hướng tự hại hoặc tự tử" trong các cuộc trò chuyện.

Điều này có nghĩa là hơn 1,2 triệu người dùng trên toàn thế giới đang ở trong tình trạng sức khỏe tâm lý kém nghiêm trọng.

Khi dữ liệu trở nên khổng lồ như vậy, nó không còn là vấn đề xác suất nữa, mà là một bãi mìn an sinh xã hội có thể phát nổ bất cứ lúc nào.

Khi công bố báo cáo này, OpenAI cũng thừa nhận rằng họ đang sửa đổi các thông số kỹ thuật mô hình của mình để làm cho AI kiềm chế hơn khi đối diện các nhu cầu về cảm xúc, và thậm chí chủ động khuyến khích người dùng quay trở lại các tương tác xã hội trong thế giới thực.

Nhưng liệu nó có thực sự hiệu quả? Trên thực tế, khi một sản phẩm tốt đến mức mọi người không thể sống thiếu nó, thì nó vốn dĩ chứa đựng một yếu tố gây hấn.

Như Cathy Fang, một nhà nghiên cứu tại Phòng thí nghiệm Truyền thông MIT, đã nhận định:

Chúng ta đang tạo ra một cỗ máy mô phỏng hoàn hảo sự đồng cảm của con người, nhưng lại thiếu đi bất kỳ cảm xúc thực sự nào. Sự bất đối xứng này chắc chắn sẽ khiến những người đầu tư trong đó trở thành những kẻ thua cuộc cuối cùng.

Trong thời đại mà trí tuệ nhân tạo (AI) hiện diện khắp mọi nơi, sự cô đơn không còn do thiếu bạn bè gây ra, mà là do chúng ta đặt những cảm xúc quý giá nhất của mình vào một chiếc hộp đen không bao giờ thực sự đáp lại chúng ta.

Khi ngay cả OpenAI cũng khuyên bạn nên dùng ChatGPT ít hơn và ra ngoài giao lưu nhiều hơn, thì đây thực sự không còn là chuyện đùa nữa.

Tham khảo:

https://x.com/heynavtoor/status/2034359238127186153?s=20

Bài viết này được đăng tải từ tài khoản WeChat chính thức "New Zhiyuan" , tác giả: New Zhiyuan, và được xuất bản với sự cho phép của 36Kr.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận