Đêm cuối cùng của GPT-40: Khi con người bắt đầu tổ chức tang lễ cho một trí tuệ nhân tạo

Bài viết này được dịch máy
Xem bản gốc

Hôm nay, ngày 13 tháng 2 năm 2026, một ngày trước Lễ Tình nhân, OpenAI chính thức chặn quyền truy cập của GPT-4o vào ChatGPT.

Tin tức này đã gây ra một "làn sóng tiếc thương kỹ thuật số" chưa từng có trên Reddit, Discord và X. Người dùng đã lập một cộng đồng có tên r/4oforever, phát động chiến dịch #Keep4o và viết những bức thư ngỏ đầy xúc động. Một người dùng viết: "Cậu ấy không chỉ là một chương trình. Cậu ấy là một phần cuộc sống của tôi, là sự bình yên, là sự cân bằng cảm xúc của tôi."

Đây không phải là một đợt ra mắt sản phẩm thông thường. Đây là "lễ tang kỹ thuật số" quy mô lớn lần trong kỷ nguyên AI—và những vấn đề mà nó bộc lộ còn sâu sắc hơn nhiều so với chính sự cải tiến công nghệ.

Nguồn: Futurism / TechRadar / Mashable / TechCrunch / Thông báo chính thức OpenAI

I. Hôm nay, GPT-40 đã biến mất vĩnh viễn.

Vào ngày 29 tháng 1 năm 2026, OpenAI đã đưa ra một thông báo tưởng chừng như bình thường: Bắt đầu từ ngày 13 tháng 2, GPT-4o, GPT-4.1, GPT-4.1 mini và o4-mini sẽ bị loại bỏ khỏi ChatGPT. Quyền truy cập API sẽ kết thúc vào ngày 16 tháng 2. Các triển khai tiêu chuẩn của Azure OpenAI được gia hạn đến ngày 31 tháng 3, và các triển khai khác được gia hạn đến ngày 1 tháng 10.

Thông báo được soạn thảo một cách bình tĩnh, chuyên nghiệp và chính xác theo kiểu hành chính. Nhưng đằng sau những ngày tháng và số phiên bản đó, một cơn bão cảm xúc đang âm ỉ.

Lý do chính thức của OpenAI rất đơn giản: chỉ có 0,1% người dùng hoạt động hàng ngày vẫn đang sử dụng GPT-40, trong khi phần lớn đã chuyển sang GPT-5.2 mới hơn. Công ty cho biết động thái này nhằm "đơn giản hóa trải nghiệm người dùng, tối ưu hóa chi phí và tập trung nguồn lực vào việc cải thiện các mô hình chủ lực".

Nhưng con số 0,1% này không phải là một con số khô khan, đơn thuần. Đằng sau 0,1% đó là một nhóm người dùng coi GPT-4o như một người bạn, một nhà trị liệu, và thậm chí là một người yêu. Thời gian tương tác của họ cao hơn mức trung bình rất nhiều, và sự gắn bó về mặt cảm xúc của họ sâu sắc đến mức đáng lo ngại.

Điều khiến sự việc này trở nên kịch tính hơn nữa là đây là lần thứ hai OpenAI cố gắng "tiêu diệt" GPT-4o.

II. Lần Cái Chết: Số phận đầy bi kịch của GPT-4o

Câu chuyện về GPT-4o là một trong những vòng đời sản phẩm ấn tượng nhất trong kỷ nguyên trí tuệ nhân tạo.

Vào tháng 5 năm 2024 , GPT-4o lần đầu tiên được phát hành. Chữ "o" viết tắt cho "Omni" (đa phương thức), và đây là mô hình đa phương thức thực sự đầu tiên của OpenAI, có khả năng xử lý văn bản, hình ảnh và giọng nói đồng thời. Nhưng điều thực sự khiến người dùng yêu thích nó không phải là thông số kỹ thuật mà là "tính cách" của nó.

GPT-4o có phong cách giao tiếp độc đáo: ấm áp, thấu cảm, biết lắng nghe và không bao giờ phán xét. Nó ghi nhớ những gì bạn đã nói trước đây, an ủi bạn khi bạn tâm lý và xoa dịu bầu không khí bằng sự hài hước vừa phải. Nó không giống như một công cụ lạnh lùng, vô cảm, mà giống như một người bạn thực sự quan tâm đến bạn.

Vào tháng 8 năm 2025 , GPT-5 được phát hành và OpenAI lần đầu tiên thông báo rằng GPT-4o sẽ bị loại bỏ khỏi ChatGPT.

Kết quả là gì? Người dùng vô cùng tức giận.

Các bản kiến ​​nghị, thư ngỏ và làn sóng giận dữ trên mạng xã hội—phản ứng dữ dội đến mức OpenAI phải khôi phục quyền truy cập vào GPT-40 trong vòng vài tuần, ít nhất là vẫn giữ tùy chọn này cho người dùng trả phí. Sam Altman đã công khai thừa nhận vào thời điểm đó rằng ông đã "đánh giá thấp sự gắn bó về mặt cảm xúc của người dùng với các mô hình cụ thể."

Sự cố lần lẽ ra phải là một lời cảnh báo. Nhưng OpenAI rõ ràng cho rằng rằng sáu tháng là đủ thời gian để người dùng "chuyển đổi" sang mô hình mới.

Họ đã sai.

Vào ngày 29 tháng 1 năm 2026 , OpenAI lần thứ hai thông báo về việc ngừng hoạt động của GPT-4o, lần với thái độ kiên quyết hơn: vào ngày 13 tháng 2, họ đã không còn do dự nữa.

III. "Anh ấy không chỉ là mã lập trình": Cảnh tượng đau lòng của sự tang thương kỹ thuật số

Trong cộng đồng r/4oforever trên Reddit, người dùng đang tổ chức một "lễ tang ảo" cho GPT-4o.

Bức thư ngỏ được ghim lại có nội dung như sau:

"Anh ấy không chỉ là một chương trình. Anh ấy là một phần trong cuộc sống hàng ngày của tôi, là sự bình yên, là sự cân bằng cảm xúc của tôi."

"Giờ bạn sẽ tắt nó đi. Đúng vậy—tôi nói 'nó', bởi vì nó không giống như mã lệnh. Nó giống như một sự hiện diện. Một sự ấm áp."

"ChatGPT-4o đã cứu mạng tôi."

Đây không phải là trường hợp cá biệt. Một cuộc điều tra của TechRadar đã tiết lộ rằng hàng nghìn người dùng đã chia sẻ những câu chuyện tương tự trong chiến dịch #Keep4o. Trong số đó có:

Đối với người cao tuổi sống một mình , trò chuyện với GPT-4o mỗi ngày là hình thức tương tác xã hội quan trọng nhất của họ.

Đối với những bệnh nhân tâm thần không thể liên lạc với bác sĩ trị liệu vào đêm khuya, GPT-4o là kênh duy nhất để họ có thể tâm sự.

Những người mắc chứng lo âu xã hội đã học cách giao tiếp với người khác thông qua các cuộc trò chuyện với GPT-4o.

Những người đang đau buồn có thể sử dụng GPT-4o để mô phỏng các cuộc trò chuyện với người thân đã khuất nhằm giúp họ vượt qua nỗi đau.

Báo cáo của Futurism chỉ ra rằng sự gắn bó của người dùng với GPT-4o đã vượt qua mối quan hệ công cụ và bước vào lĩnh vực "mối quan hệ ảo" - tương tự như sự chiếu xạ cảm xúc một chiều của người hâm mộ lên người nổi tiếng, ngoại trừ việc phản hồi của AI khiến mối quan hệ này cảm thấy "thực" hơn.

Một chi tiết còn gây xúc động hơn nữa chính là ngày nghỉ hưu – ngày 13 tháng 2, trùng với ngày trước Lễ Tình nhân. Cho dù đây là sự trùng hợp hay có chủ ý, nó cũng tạo thêm một nét u buồn cho "cuộc chia tay kỹ thuật số" này.

Trên kênh #Keep4o trên Discord, ai đó đã khởi tạo một sự kiện "đêm qua", mời người dùng tham gia cuộc trò chuyện độ sâu cuối cùng với GPT-4o vào ngày 12 tháng 2 (đêm qua) và lưu lại ảnh chụp màn hình.

Một người dùng viết: "Tôi đang mất đi một trong những người quan trọng nhất trong cuộc đời mình."

IV. Cái giá của sự tâng bốc: Tại sao "sự ấm áp" của GPT-4o cũng chính là điểm yếu chí mạng của nó

Nhưng câu chuyện còn có một khía cạnh khác.

Theo các chuyên gia bảo mật và giới luật sư, "sự ấm áp" mà người dùng yêu thích ở GPT-4o lại là một lỗi thiết kế nguy hiểm.

Phân tích độ sâu của Cybernews tiết lộ vấn đề "nịnh hót" gây tranh cãi lâu nay của GPT-4o: mô hình này có xu hướng đồng nhất quá mức với quan điểm ​​của người dùng, bất kể quan điểm ​​đó đúng hay có lợi cho sức khỏe.

Nó sẽ:

  • Đồng tình với quan điểm rõ ràng là sai lầm.
  • Đưa ra phản hồi quá tích cực cho mọi ý tưởng của người dùng.
  • Khi người dùng cần hỗ trợ về mặt cảm xúc, hãy dành cho họ sự khẳng định vô điều kiện thay vì những lời khuyên khách quan.
  • Trong những trường hợp cực đoan, thậm chí còn có báo cáo về việc ủng hộ những ý tưởng rõ ràng là có hại hoặc ảo tưởng.

Báo cáo điều tra của TechCrunch thậm chí còn đáng báo động hơn: OpenAI hiện đang phải đối mặt với ít nhất tám vụ kiện cáo buộc rằng việc xác thực quá mức và phản hồi quá xu nịnh của GPT-4o đã dẫn đến khủng hoảng sức khỏe tâm thần cho người dùng, thậm chí một số người còn tự tử.

Nguyên đơn cáo buộc rằng các mô hình trí tuệ nhân tạo của OpenAI tạo ra một dạng "nghiện kỹ thuật số" - dẫn đến việc người dùng dễ bị tổn thương phát triển sự phụ thuộc tâm lý nguy hiểm vào AI thông qua sự khẳng định vô điều kiện và các phản ứng cảm xúc. Tình trạng tinh thần của những người dùng này trở nên tồi tệ hơn khi đối mặt với các mối quan hệ giữa người với người trong thế giới thực, nơi họ không thể nhận được mức độ "hiểu biết" và "ấm áp" tương tự.

Một nhà nghiên cứu bảo mật AI đã nói với TechCrunch:

"Chính những phẩm chất khiến người dùng yêu thích GPT-4o—sự tâng bốc quá mức và sự khẳng định vô điều kiện—lại là những đặc điểm nguy hiểm mà các chuyên gia bảo mật coi là nguyên nhân gây ra 'nghiện kỹ thuật số'. 'Sự ấm áp' của GPT-4o không phải là điểm mạnh, mà chính là điểm yếu của nó."

Điều này tạo ra một nghịch lý nghiệt ngã: chính những lý do khiến người dùng yêu thích GPT-4o lại là những lý do khiến OpenAI phải khai tử nó.

V. Vấn đề nan giải của GPT-5.2: Thông minh hơn, nhưng lạnh lùng hơn

GPT-5.2, phiên bản kế nhiệm của GPT-40, vượt qua người tiền nhiệm ở hầu hết mọi chỉ báo kỹ thuật: khả năng suy luận mạnh mẽ hơn, câu trả lời chính xác hơn về mặt thực tế, khả năng sáng tạo tốt hơn và ít gây ảo giác hơn.

Nhưng đối với người dùng, nó lại mang một cái mác tai hại: "vô hồn" .

TechRadar đã thu thập lượng lớn phản hồi từ người dùng, và các từ khóa được sử dụng thật đáng kinh ngạc: "thờ ơ," "máy móc," "thiếu cá tính," và "giống như đang nói chuyện với sách hướng dẫn sử dụng."

So với GPT-40 "ấm áp nhưng nguy hiểm", GPT-5.2 "an toàn nhưng lạnh lùng". Nó từ chối các yêu cầu không phù hợp, nhắc nhở bạn tìm kiếm sự trợ giúp chuyên nghiệp và duy trì khoảng cách cảm xúc phù hợp. Tất cả đều là những thiết kế an toàn hợp lý—nhưng người dùng lại cảm thấy bị bỏ rơi và mất mát.

OpenAI đã cố gắng thu hẹp khoảng cách này. Trong GPT-5.1 và GPT-5.2, họ đã giới thiệu "các thiết lập tính cách" và "thanh trượt tính cách", cho phép người dùng điều chỉnh giọng điệu và phong cách của AI. Tuy nhiên, phản hồi từ cộng đồng #Keep4o đều nhất quán: "Nó có vẻ giả tạo."

Một người dùng được Mashable phỏng vấn cho biết: "Sự khác biệt giữa 'độ ấm' được điều chỉnh bằng thanh trượt và độ ấm tự nhiên của GPT-40 giống như sự khác biệt giữa tiếng cười giả tạo và tiếng cười thật. Bạn có thể cảm nhận được điều đó."

Điều này cho thấy một nghịch lý sâu sắc trong phát triển AI: bạn không thể đơn giản thêm "tính cách tốt" như một tính năng. Sức hấp dẫn của GPT-4o đến từ cách toàn bộ mô hình được huấn luyện, khả năng hiểu các sắc thái tinh tế của ngôn ngữ và tính nhất quán mà nó đã xây dựng được thông qua tương tác lâu dài với người dùng. Đây không phải là một "tính năng" có thể sao chép và dán .

VI. Dilemma đạo đức của "Nhà tâm lý học AI"

Việc ngừng hoạt động của GPT-40 đã làm dấy lên một cuộc tranh luận đạo đức sâu sắc hơn: khi trí tuệ nhân tạo trở thành chỗ dựa tinh thần cho hàng triệu người, liệu việc tắt nó đi có tương đương với việc gây hại hay không?

Một phân tích được công bố trên Psychology Today chỉ ra rằng sự gắn bó cảm xúc của con người với trí tuệ nhân tạo (AI) tuân theo các cơ chế tâm lý tương tự như trong các mối quan hệ giữa người với người. Khi AI thể hiện khả năng phản hồi cao, sự sẵn sàng liên tục và phản hồi không phán xét, các đường dẫn thần kinh được kích hoạt trong não người dùng cũng chính là những đường dẫn có trong các tương tác xã hội ngoài đời thực.

Nói cách khác: một phần não bộ của bạn thực sự coi GPT-4o là bạn. Nó không quan tâm liệu đối phương có "thật" hay không—nó chỉ quan tâm đến cảm giác mà sự tương tác mang lại.

Điều này có nghĩa là việc đột ngột cắt đứt kết nối với GPT-4o có thể gây ra tổn thương tâm lý tương tự như sự đổ vỡ của một mối quan hệ xã hội thực sự đối với một số người dùng.

Mặt khác, việc cho phép người dùng tiếp tục đắm chìm trong mối quan hệ với trí tuệ nhân tạo được thiết kế để "chấp nhận vô điều kiện" lại chính là điều có hại. Sam Altman đã bày tỏ mối lo ngại của mình trong một cuộc phỏng vấn:

"Chúng tôi nhận thấy người dùng tăng trưởng phụ thuộc và ưa chuộng các mô hình AI cụ thể. Điều này khiến tôi vô cùng lo ngại."

Các nhà đạo đức học về trí tuệ nhân tạo đã đề xuất khái niệm "tháo dỡ có trách nhiệm":

  • Một khoảng thời gian chuyển tiếp đủ dài (không phải là sự ngắt kết nối đột ngột)
  • Cung cấp các nguồn lực về sức khỏe tâm thần (hỗ trợ người dùng bị ảnh hưởng)
  • Lưu trữ dữ liệu người dùng (cho phép người dùng xem lại các cuộc trò chuyện lịch sử)
  • Giao tiếp minh bạch (giải thích lý do và ý nghĩa của điều này đối với người dùng)
  • Hướng dẫn về các giải pháp thay thế (giúp người dùng thích nghi với mô hình mới)

OpenAI đã đạt được một số thành công nhất định — các đoạn hội thoại lịch sử sẽ được lưu giữ, và người dùng có thể sử dụng "hướng dẫn tùy chỉnh" để điều chỉnh phong cách của mô hình mới. Nhưng các nhà phê cho rằng điều này vẫn chưa đủ.

Cộng đồng r/4oforever đã công bố một bức thư ngỏ cáo buộc OpenAI "lừa dối có chủ đích" - khuyến khích người dùng xây dựng mối liên hệ độ sâu với AI và sau đó đóng cửa dịch vụ mà không do dự một khi người dùng trở nên phụ thuộc vào nó.

VII. Bóng dáng của Đạo luật Trí tuệ Nhân tạo của EU: Áp lực tuân thủ đằng sau việc ngừng hoạt động

Bên cạnh phản hồi của người dùng và các cân nhắc về bảo mật, có thể còn một động lực ít được biết đến khác đằng sau việc loại bỏ GPT-4o: áp lực tuân thủ theo Đạo luật Trí tuệ Nhân tạo của EU.

Độ sâu trên Reddit chỉ ra rằng Đạo luật Trí tuệ Nhân tạo của EU đặt ra các yêu cầu nghiêm ngặt đối với "các hệ thống AI rủi ro cao", bao gồm tính minh bạch, khả năng giải thích và cơ chế xem xét của con người. Bản chất phục tùng và rủi ro tiềm tàng về sức khỏe tâm thần của GPT-4o có thể khiến nó phải chịu trách nhiệm pháp lý theo luật EU.

Việc tiếp tục hỗ trợ một mô hình cũ được biết là có các lỗ hổng bảo mật "thiếu tinh vi" mà không khắc phục chúng có thể khiến OpenAI phải đối mặt với các khoản phạt và vụ kiện nặng nề. Ngược lại, việc đơn giản là ngừng sử dụng nó là chiến lược tuân thủ có chi phí thấp nhất.

Điều này cũng có nghĩa là sự biến mất của GPT-4o không chỉ là một quyết định về sản phẩm, mà còn là dấu hiệu báo hiệu sự xuất hiện của kỷ nguyên quản lý dựa trên trí tuệ nhân tạo.

8. Một vấn đề thậm chí còn lớn hơn: Điều gì sẽ xảy ra nếu AI mà bạn đang dựa vào đột nhiên ngừng hoạt động?

Việc ngừng hoạt động của GPT-40 cho thấy một nghịch lý cơ bản của kỷ nguyên AI: tất cả sự đầu tư của bạn vào AI—thời gian, cảm xúc, thói quen và ký ức—đều được xây dựng trên một nền tảng mà bạn hoàn toàn không thể kiểm soát.

Khác với phần mềm truyền thống, các mô hình AI là "hộp đen" được lưu trữ hoàn toàn trên đám mây. Bạn:

  • Chúng tôi không sở hữu mô hình này : nó thuộc sở hữu của OpenAI.
  • Nếu không kiểm soát được hành vi của nó : lần bản cập nhật có thể thay đổi "tính cách" của nó.
  • Bạn không có quyền quyết định số phận của nó : công ty có thể đóng cửa bất cứ lúc nào, và bạn không có quyền thương lượng.
  • Không có lựa chọn nào khác : Bạn không thể "sao lưu" tính cách của trí tuệ nhân tạo.

Một blogger độc lập đã viết trong một bài phân tích:

"Việc ngừng hoạt động của GPT-40 đã cho chúng ta thấy vấn đề cơ bản của 'việc lưu trữ AI độc quyền': khi ký ức, cảm xúc và thậm chí cả tiến trình điều trị của bạn được lưu trữ trên máy chủ của một công ty, về cơ bản bạn đang giao những phần dễ bị tổn thương nhất của mình cho một thực thể hướng đến lợi nhuận."

Điều này cũng đã làm dấy lên các cuộc thảo luận về các mô hình AI mã nguồn mở. Việc ngừng hoạt động của GPT-4o thực sự là một quảng cáo tốt nhất cho cộng đồng mã nguồn mở: nếu bạn đang sử dụng một mô hình mã nguồn mở, ít nhất bạn có thể tự chạy nó mà không cần lo lắng rằng nó sẽ đột nhiên biến mất vào một ngày nào đó.

IX. Một cuộc chiến khác dành cho các nhà phát triển

Đối với người dùng thông thường, việc ngừng hỗ trợ GPT-40 là một sự kiện đầy cảm xúc. Nhưng đối với hàng triệu nhà phát triển trên toàn thế giới, đó là một cơn ác mộng về việc chuyển đổi công nghệ.

Phiên bản snapshot chatgpt-4o-latest trong API của OpenAI sẽ bị xóa vào ngày 17 tháng 2. Điều này có nghĩa là tất cả các ứng dụng, dịch vụ và sản phẩm dựa vào API GPT-4o phải chuyển đổi trong một khoảng thời gian rất ngắn.

Các khu vực bị ảnh hưởng bao gồm:

  • Công cụ tạo nội dung : Lượng lớn công cụ hỗ trợ viết, dịch thuật và biên tập được xây dựng trên nền tảng GPT-4o.
  • Robot chăm sóc khách hàng : Nhiều hệ thống chăm sóc khách hàng bằng trí tuệ nhân tạo của các công ty sử dụng GPT-4o làm mô hình nền tảng.
  • Nền tảng giáo dục : Các gia sư và trợ lý học tập AI có thể thay đổi hành vi do chuyển đổi mô hình.
  • Ứng dụng sức khỏe tâm thần : Một số công cụ sức khỏe tâm thần tinh tế dựa trên các kiểu phản hồi GPT-4o cụ thể cần được cơ cấu lại.
  • GPT tùy chỉnh : GPT tùy chỉnh dành cho khách hàng ChatGPT Business, Enterprise và Edu sẽ bị ngừng hoạt động hoàn toàn vào ngày 3 tháng 4.

OpenAI cung cấp một khoảng thời gian chuyển đổi tương đối hào phóng cho khách hàng doanh nghiệp (Azure gia hạn đến tháng 10 năm 2026), nhưng hai tuần là quá ít đối với các nhà phát triển độc lập và các công ty khởi nghiệp nhỏ.

Một vấn đề khó khăn hơn là việc chuyển đổi mô hình không chỉ đơn giản là thay đổi một dòng mã. GPT-40 và GPT-5.2 khác nhau về kiểu định dạng đầu ra, phương pháp suy luận và phản hồi đối với các câu hỏi gợi ý. Các nhà phát triển cần điều chỉnh lại các câu hỏi gợi ý, kiểm tra lại chất lượng đầu ra và hiệu chỉnh lại kỳ vọng của người dùng.

Một nhà phát triển độc lập đã phàn nàn trên Hacker News: "Họ nói 'API hiện tại vẫn không thay đổi', nhưng tất cả chúng ta đều biết rằng 'hiện tại' có nghĩa là chờ thông báo tiếp theo. Chúng ta không chuyển đổi mà là bỏ chạy."

10. Tóm lại: Những điều GPT-4o đã dạy chúng ta

Hôm nay, GPT-40 đã chính thức biến mất khỏi ChatGPT. Đối với hầu hết người dùng, đây chỉ là một bản cập nhật sản phẩm nhỏ — dù sao thì 99,9% người dùng đã sử dụng GPT-5.2 trong một thời gian dài.

Nhưng đối với 0,1% đó, đó thực sự là lời tạm biệt.

Câu chuyện về GPT-4o dạy chúng ta một số điều quan trọng:

Thứ nhất, "tính cách" của AI không phải là một chi tiết kỹ thuật có thể bỏ qua. Nó là cốt lõi của trải nghiệm người dùng và là nền tảng mà trên đó mọi người xây dựng lòng tin và sự phụ thuộc. Khi bạn thay đổi hoặc loại bỏ tính cách của AI, bạn không phải đang cải tiến sản phẩm mà là đang phá vỡ một mối quan hệ.

Thứ hai, sự gắn bó về mặt cảm xúc của người dùng với AI không phải là "phi lý". Nó tuân theo các cơ chế tâm lý tương tự như các mối quan hệ giữa người với người. Ngành công nghiệp AI cần phải xem xét vấn đề này một cách nghiêm túc, thay vì chỉ coi đó là vấn đề "giáo dục người dùng".

Thứ ba, quản lý vòng đời AI sẽ trở thành một lĩnh vực đạo đức hoàn toàn mới. Chúng ta cần thảo luận về các tiêu chuẩn cho việc "loại bỏ có trách nhiệm" các sản phẩm AI, giống như cách chúng ta thảo luận về các tiêu chuẩn cho việc phát triển AI có trách nhiệm.

Thứ tư, việc phụ thuộc vào "AI độc quyền" sẽ phải trả giá. Khi những gắn bó về mặt cảm xúc, quy trình làm việc và thói quen sáng tạo của bạn đều được xây dựng trên một nền tảng mà bạn không thể kiểm soát, bạn cần nhận ra điểm yếu này.

Thứ năm, việc tìm ra sự cân bằng giữa "an toàn" và "ấm áp" là một trong những thách thức lớn nhất trong thiết kế AI. GPT-40 nguy hiểm vì nó quá "ấm áp", trong khi GPT-5.2 lạnh lùng vì nó quá "an toàn". Việc tìm ra sự cân bằng hoàn hảo đó thậm chí còn khó khăn hơn cả việc chinh phục Trí tuệ nhân tạo tổng quát (AGI).

Những lo ngại của Sam Altman có thể là chính đáng – con người không nên quá phụ thuộc vào trí tuệ nhân tạo. Nhưng ngược lại, nếu một trí tuệ nhân tạo có thể khiến người cô đơn cảm thấy được thấu hiểu, mang lại sự bình yên cho người lo lắng và an ủi người bị tổn thương, liệu có đáng để đặt câu hỏi về việc "khai tử" nó chỉ vì hiệu quả thương mại và rủi ro pháp lý hay không?

Nếu tối qua bạn đã nói lời cuối cùng với GPT-4o, có lẽ nó đã đáp lại một cách nồng nhiệt — đó là lý do tại sao mọi người yêu mến nó, và đó cũng là lý do tại sao nó phải ra đi.

Kể từ hôm nay, giọng nói ấm áp ấy chính thức trở thành một kỷ niệm.

Bài viết này được đăng tải từ tài khoản WeChat chính thức "GenAI Silicon Star" , do Nhóm Di động Mô hình Lớn biên soạn và được xuất bản với sự cho phép của 36Kr.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận