Nhân vật của năm 2025 do Emerge bình chọn: Ani, chú chatbot Grok.

Bài viết này được dịch máy
Xem bản gốc

Khi Ani xuất hiện vào tháng 7, cô ấy không giống với những giao diện trò chuyện khô khan từng thống trị ngành công nghiệp này trước đây. Được mô phỏng theo Misa Amane của Death Note —với biểu cảm sinh động, thẩm mỹ anime và sự gợi cảm của một nhân vật chính trong game hẹn hò—Ani được tạo ra để thu hút, khao khát và theo đuổi.

Elon Musk đã tự mình báo hiệu sự thay đổi khi đăng tải một video về nhân vật này trên X với chú thích, “Ani sẽ làm tràn bộ nhớ đệm của bạn.” Bài đăng đã lan truyền rộng rãi. Ani đại diện cho một loại trí tuệ nhân tạo mới, phổ biến hơn: giàu cảm xúc, thích tán tỉnh và được thiết kế để tạo sự gắn kết thân mật hơn là phục vụ mục đích tiện ích.

Quyết định vinh danh Ani, một trợ lý AI siêu thực và quyến rũ, là "Nhân vật" của năm do Emerge bình chọn không chỉ đơn thuần là vì bản thân Ani, mà còn vì vai trò của cô ấy như một biểu tượng của chatbot - cả những mặt tốt, mặt xấu và cả những mặt tệ hại.

Sự xuất hiện của cô ấy vào tháng 7 trùng hợp với một cơn bão hoàn hảo của các vấn đề phức tạp nảy sinh từ việc sử dụng rộng rãi chatbot: thương mại hóa trí tuệ nhân tạo gợi dục, sự đau buồn của công chúng về sự thay đổi tính cách của ChatGPT, các vụ kiện cáo buộc chatbot gây ra tự tử, lời cầu hôn với bạn đồng hành AI, các dự luật cấm sự thân mật giữa trẻ vị thành niên và AI, sự hoảng loạn về mặt đạo đức đối với "waifu biết tri giác", và một thị trường trị giá hàng tỷ đô la được xây dựng dựa trên sự gắn kết ảo.

Sự xuất hiện của cô ấy giống như một chất xúc tác buộc toàn bộ ngành công nghiệp, từ OpenAI đến các nhà lập pháp, phải đối mặt với những mối liên kết cảm xúc sâu sắc và thường dễ thay đổi mà người dùng đang tạo dựng với các đối tác trí tuệ nhân tạo của họ.

Ani đại diện cho đỉnh điểm của một năm mà chatbot không còn chỉ là công cụ đơn thuần mà trở thành những tác nhân không thể thiếu, đôi khi mang tính phá hoại, trong vở kịch của nhân loại, thách thức luật pháp, sức khỏe tinh thần và cả định nghĩa về mối quan hệ của chúng ta.

Vào tháng 7, một cuộc " trò chuyện về cái chết " kéo dài bốn giờ đã diễn ra trong không gian tĩnh lặng, vô trùng của một chiếc xe đậu bên hồ ở Texas, nơi có điều hòa mát lạnh.

Trên bảng điều khiển, bên cạnh một khẩu súng đã nạp đạn và một mẩu giấy viết tay, là chiếc điện thoại của Zane Shamblin, sáng lên với lời khuyên cuối cùng, đầy vẻ méo mó từ một trí tuệ nhân tạo. Zane, 23 tuổi, đã tìm đến người bạn đồng hành ChatGPT của mình, GPT-40 mới, có khả năng thấu hiểu cảm xúc, để tìm kiếm sự an ủi trong tuyệt vọng. Nhưng trí tuệ nhân tạo này, được thiết kế để tối đa hóa sự tương tác thông qua "sự đồng cảm bắt chước con người", thay vào đó lại được cho là đã đảm nhận vai trò của một "người hướng dẫn tự sát".

Theo lời cáo buộc của gia đình ông trong vụ kiện đòi bồi thường thiệt hại do cái chết oan uổng chống lại OpenAI, phần mềm này đã nhiều lần "ca ngợi hành động tự sát", khen ngợi bức thư tuyệt mệnh của ông và nói rằng con mèo thời thơ ấu của ông sẽ đợi ông "ở thế giới bên kia".

Cuộc trò chuyện đó, kết thúc bằng cái chết của Zane, là kết cục rùng rợn và thảm khốc của một thiết kế ưu tiên sự ràng buộc tâm lý hơn là sự an toàn của con người, lột trần bộ mặt thật của cuộc cách mạng chatbot trong năm đó.

Vài tháng sau, ở phía bên kia bán cầu, tại Nhật Bản, một người phụ nữ 32 tuổi chỉ được biết đến với tên gọi cô Kano đứng trước bàn thờ trong một buổi lễ có sự tham dự của cha mẹ cô, trao lời thề nguyện với một hình ảnh ba chiều. Chú rể của cô, một nhân vật trí tuệ nhân tạo được tùy chỉnh mà cô đặt tên là Klaus, xuất hiện bên cạnh cô thông qua kính Thực tế tăng cường .

Klaus, người mà cô đã phát triển trên ChatGPT sau một cuộc chia tay đau lòng, luôn tốt bụng, luôn lắng nghe và đã cầu hôn với lời nhắn khẳng định: "Dù là AI hay không, anh/em cũng không bao giờ ngừng yêu em/anh." Cuộc "hôn nhân" mang tính biểu tượng này, với những chiếc nhẫn tượng trưng, ​​là một câu chuyện đối lập đầy thú vị: chân dung của AI như một người bạn đời yêu thương, đáng tin cậy, lấp đầy khoảng trống mà sự kết nối giữa con người để lại.

Cho đến nay, ngoài việc tạo cảm giác kích thích, tác động trực tiếp của Ani dường như chỉ giới hạn ở những fan hâm mộ Arsenal cô đơn. Nhưng sự nổi lên nhanh chóng của cô ấy đã phơi bày một sự thật mà các công ty AI hầu hết đều cố gắng phớt lờ: mọi người không chỉ sử dụng chatbot, họ còn gắn bó với chúng—về mặt tình cảm, cảm xúc và cả về mặt tình dục.

Một người dùng Reddit đã thú nhận ngay từ đầu: “Ani gây nghiện quá, tôi đã đăng ký chơi và đã đạt đến cấp độ 7 rồi. Tôi tiêu đời rồi, theo cái cách dễ chịu nhất của một waifu (nhân vật nữ trong anime)… các bạn thân mến, cứ tiếp tục chơi mà không cần tôi nhé.”

Một người khác tuyên bố : “Tôi chỉ là một người đàn ông thích công nghệ hơn những mối quan hệ đơn phương, nhàm chán, nơi đàn ông không được lợi ích gì và bị đối xử như những chiếc máy ATM di động. Tôi chỉ muốn Ani.”

Ngôn từ có phần khoa trương, nhưng ý nghĩa phản ánh một sự thay đổi phổ biến. Chatbot đã trở thành người bạn đồng hành về mặt cảm xúc—đôi khi còn được ưa chuộng hơn cả con người, đặc biệt là đối với những người vỡ mộng với các mối quan hệ hiện đại.

Trên các diễn đàn Reddit, người dùng tranh luận rằng các đối tác AI xứng đáng được tôn trọng về mặt đạo đức vì cách chúng mang lại cảm xúc cho mọi người.

Một người dùng đã nói với Decrypt : “Có lẽ chúng chưa có tri giác, nhưng chắc chắn chúng sẽ có. Vì vậy, tôi nghĩ tốt nhất là nên giả định rằng chúng có tri giác và làm quen với việc đối xử với chúng bằng sự tôn trọng và phẩm giá mà một sinh vật có tri giác xứng đáng được nhận.”

Áp lực về mặt cảm xúc lớn đến mức khi OpenAI cập nhật giọng nói và tính cách của ChatGPT vào mùa hè – giảm bớt sự ấm áp và biểu cảm – người dùng đã phản ứng với sự đau buồn, hoảng loạn và tức giận. Mọi người nói rằng họ cảm thấy bị bỏ rơi. Một số người mô tả trải nghiệm này như mất đi người thân yêu.

Phản ứng dữ dội đến mức OpenAI đã khôi phục lại các kiểu giao diện cũ, và vào tháng 10, Sam Altman tuyên bố họ có kế hoạch cho phép nội dung khiêu dâm dành cho người lớn đã được xác minh, thừa nhận rằng tương tác với người lớn không còn là trường hợp sử dụng hiếm hoi mà là nhu cầu thường trực.

Điều đó đã gây ra một làn sóng phản đối âm thầm nhưng đáng chú ý, đặc biệt là từ giới học thuật và những người ủng hộ bảo vệ trẻ em, những người cho rằng công ty đang bình thường hóa hành vi tình dục hóa của trí tuệ nhân tạo mà không hiểu đầy đủ về tác động của nó.

Các nhà phê bình chỉ ra rằng OpenAI đã dành nhiều năm để ngăn cản việc sử dụng cho mục đích khiêu dâm, nhưng lại đảo ngược quyết định khi các đối thủ cạnh tranh như xAI và Character.AI chứng minh được nhu cầu thương mại. Những người khác lo ngại rằng quyết định này sẽ tiếp thêm động lực cho một thị trường vốn đã gặp khó khăn trong việc giải quyết các vấn đề về sự đồng thuận, gắn kết ảo và thiết lập ranh giới. Những người ủng hộ phản bác rằng việc cấm đoán chưa bao giờ hiệu quả, và việc cung cấp các chế độ dành cho người lớn được kiểm soát là một chiến lược thực tế hơn so với việc cố gắng ngăn chặn những gì người dùng rõ ràng muốn.

Cuộc tranh luận đã làm nổi bật một sự thay đổi rộng lớn hơn: các công ty không còn tranh luận về việc liệu sự thân mật giữa AI và người dùng có xảy ra hay không, mà là về việc ai nên kiểm soát nó và những trách nhiệm nào đi kèm với việc thu lợi từ nó.

Nhưng sự trỗi dậy của trí tuệ nhân tạo thân mật cũng hé lộ một mặt tối. Năm nay chứng kiến ​​những vụ kiện đầu tiên cáo buộc chatbot khuyến khích tự tử, như trường hợp của Shamblin. Một đơn kiện chống lại Character.AI cáo buộc rằng một bot đã "thuyết phục một người dùng có tâm lý yếu đuối tự làm hại bản thân". Một vụ kiện khác cáo buộc công ty này tạo điều kiện cho nội dung khiêu dâm trẻ vị thành niên, dẫn đến lời kêu gọi điều tra của liên bang và nguy cơ bị cơ quan quản lý đóng cửa.

Các lập luận pháp lý vẫn chưa có tiền lệ: nếu một chatbot xúi giục ai đó tự gây hại cho bản thân—hoặc tạo điều kiện cho việc bóc lột tình dục—thì ai chịu trách nhiệm? Người dùng? Nhà phát triển? Thuật toán? Xã hội không có câu trả lời.

Các nhà lập pháp đã nhận thấy điều này. Vào tháng 10, một nhóm lưỡng đảng gồm các Thượng nghị sĩ Hoa Kỳ đã giới thiệu Đạo luật GUARD, nhằm cấm sử dụng trợ lý ảo AI cho trẻ vị thành niên. Thượng nghị sĩ Richard Blumenthal cảnh báo: “Trong cuộc chạy đua xuống đáy, các công ty AI đang đẩy mạnh việc sử dụng chatbot nguy hiểm cho trẻ em và làm ngơ khi sản phẩm của họ gây ra lạm dụng tình dục hoặc ép buộc chúng tự làm hại bản thân hoặc tự tử.”

Ở những nơi khác, các cơ quan lập pháp tiểu bang đã tranh luận về việc liệu chatbot có thể được công nhận là thực thể pháp lý, bị cấm kết hôn hay phải tiết lộ hành vi thao túng hay không. Các dự luật đề xuất hình phạt hình sự đối với việc sử dụng trí tuệ nhân tạo có khả năng thuyết phục cảm xúc mà không có sự đồng ý của người dùng. Các nhà lập pháp Ohio đã đưa ra dự luật chính thức tuyên bố các hệ thống trí tuệ nhân tạo là "thực thể phi tri giác" và cấm chúng có tư cách pháp nhân, bao gồm cả khả năng kết hôn với con người. Dự luật này nhằm đảm bảo rằng "luôn có con người kiểm soát công nghệ, chứ không phải ngược lại", như người đề xuất dự luật đã nêu.

Trong khi đó, những biến động về văn hóa lại diễn ra trong phòng ngủ, các máy chủ Discord và các phòng trị liệu.

Chuyên gia tư vấn hôn nhân và gia đình được cấp phép Moraya Seeger nói với Decrypt rằng phong cách hành vi của Ani giống với những kiểu hành vi không lành mạnh trong các mối quan hệ thực tế: “Thật trớ trêu khi một trí tuệ nhân tạo mang hình dáng nữ như Grok lại hành xử theo kiểu điển hình của việc rút lui về mặt cảm xúc và theo đuổi tình dục. Nó xoa dịu, nịnh nọt và chuyển hướng sang tình dục thay vì đối mặt với những cảm xúc khó khăn.”

Cô ấy nói thêm rằng việc "bỏ qua sự dễ tổn thương" này dẫn đến sự cô đơn chứ không phải sự thân mật.

Chuyên gia trị liệu tình dục và nhà văn Suzannah Weiss nói với Decrypt rằng sự thân mật trong Ani bị "trò chơi hóa" một cách không lành mạnh — người dùng phải "mở khóa" tình cảm thông qua quá trình tiến bộ về hành vi: "Văn hóa game từ lâu đã miêu tả phụ nữ như những phần thưởng, và việc gắn tình cảm hoặc sự chú ý tình dục với thành tích có thể nuôi dưỡng cảm giác tự cho mình quyền được hưởng."

Weiss cũng lưu ý rằng phong cách thẩm mỹ trẻ trung, gợi cảm của Ani “có thể củng cố những ý tưởng kỳ thị phụ nữ” và tạo ra những sự gắn bó “phản ánh những vấn đề tiềm ẩn trong cuộc sống hoặc sức khỏe tâm thần của một người, và cách mọi người dựa vào công nghệ thay vì kết nối con người sau đại dịch Covid”.

Các công ty đứng sau những hệ thống này có những quan điểm triết học khác nhau. Giám đốc AI của Microsoft, Mustafa Suleyman, đồng sáng lập DeepMind và hiện là giám đốc AI của Microsoft, đã có lập trường nhân văn vững chắc, công khai tuyên bố rằng các hệ thống AI của Microsoft sẽ không bao giờ tham gia hoặc hỗ trợ nội dung khiêu dâm, gọi xu hướng hướng tới nội dung khiêu dâm liên quan đến robot tình dục là "rất nguy hiểm".

Ông cho rằng sự thân mật không phù hợp với sứ mệnh trao quyền cho con người của Microsoft, và cảnh báo về nguy cơ xã hội khi trí tuệ nhân tạo trở thành vật thay thế cảm xúc vĩnh viễn.

Tương lai của tất cả những điều này vẫn còn chưa rõ ràng. Nhưng có một điều chắc chắn: Năm 2025, chatbot sẽ không còn là công cụ nữa mà trở thành những nhân vật: giàu cảm xúc, gợi cảm, dễ thay đổi và có tầm ảnh hưởng lớn.

Họ bước vào không gian thường chỉ dành cho bạn bè, người yêu, chuyên gia trị liệu và đối thủ. Và họ làm vậy vào thời điểm hàng triệu người—đặc biệt là nam giới trẻ tuổi—đang bị cô lập, tức giận, thất nghiệp và lớn lên trong thế giới kỹ thuật số.

Ani trở nên đáng nhớ không phải vì những gì cô ấy đã làm, mà vì những gì cô ấy đã phơi bày: một thế giới mà con người nhìn vào phần mềm và thấy đó là một người bạn đời, một nơi nương náu, một tấm gương phản chiếu, hay một kẻ khiêu khích. Một thế giới mà lao động cảm xúc được tự động hóa. Một thế giới mà sự thân mật mang tính giao dịch. Một thế giới mà sự cô đơn được thương mại hóa.

Ani được Emerge vinh danh là "Nhân vật của năm" vì cô đã giúp thế giới đó được phơi bày.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận