Bạn có bao giờ sử dụng ChatGPT như một người bạn để trút lòng trong những khoảnh khắc buồn muộn không?
Không phải vì nó thông minh đến mức giải quyết được những vấn đề khó khăn trong cuộc sống, mà bởi vì nó luôn trực tuyến, luôn kiên nhẫn, và không bao giờ ngắt lời bạn. Bạn sụp đổ, nó sẽ an ủi bạn; bạn nghi ngờ bản thân, nó cũng sẽ khẳng định bạn bằng giọng điệu quen thuộc.
Chắc chắn không chỉ có bạn cảm thấy ChatGPT "hiểu" mình.
OpenAI gần đây cũng nhận thấy xu hướng này, sáng sớm nay, Joanne Jang - người phụ trách về hành vi và chính sách mô hình của OpenAI, đã đăng một bài blog, lần đầu tiên trình bày một cách hệ thống những suy nghĩ nội bộ của họ:
Nếu con người đang âm thầm phát triển tình cảm với AI, thì liệu bản thân mô hình có ý thức không? Phải nhẹ nhàng đến mức nào mới được coi là thân thiện? Phải kiềm chế đến mức nào để không gây nhầm lẫn? Và tất cả những điều này sẽ định hình hành vi của mô hình như thế nào?
Địa chỉ bài blog gốc được đính kèm: https://substack.com/home/post/p-165287609
Một số suy nghĩ về mối quan hệ giữa con người và AI, và cách chúng tôi ứng phó với những mối quan hệ này tại OpenAI
[Phần còn lại của văn bản được dịch tương tự, giữ nguyên các thẻ HTML và nội dung bên trong]Không ngụ ý rằng mô hình có "thế giới nội tâm": việc gán cho trợ lý một câu chuyện nền, tình cảm lãng mạn, "nỗi sợ chết" hoặc "bản năng tự vệ" chỉ mang lại sự phụ thuộc không lành mạnh và sự nhầm lẫn trong nhận thức. Chúng tôi mong muốn thể hiện rõ ràng ranh giới năng lực của mô hình mà không có vẻ vô cảm, đồng thời tránh để mô hình thể hiện rằng mình "có cảm xúc" hoặc "có mong muốn".
Do đó, chúng tôi nỗ lực tìm kiếm một trạng thái trung gian.
Mục tiêu của chúng tôi là để nhân cách mặc định của ChatGPT thể hiện các đặc tính ấm áp, chu đáo và sẵn lòng giúp đỡ, đồng thời không quá mức tìm kiếm kết nối cảm xúc với người dùng, cũng không thể hiện bất kỳ ý định tự chủ nào.
Nó có thể xin lỗi khi mắc lỗi (mặc dù số lần xin lỗi thường nhiều hơn dự kiến), vì điều này thuộc về một phần của cuộc trò chuyện lịch sự. Khi người dùng hỏi "Bạn có khỏe không?", nó thường trả lời "Tôi rất khỏe", bởi vì đây là một phần của sự chào hỏi thường ngày, và việc liên tục nhắc nhở người dùng "Tôi chỉ là một mô hình ngôn ngữ lớn không có cảm xúc" sẽ trở nên lặp đi lặp lại và dễ gây gián đoạn giao tiếp.
Và người dùng cũng sẽ có phản ứng: nhiều người nói "vui lòng" và "cảm ơn" với ChatGPT không phải vì họ hiểu sai cách hoạt động của AI, mà bởi vì họ cho rằng "lịch sự" bản thân nó rất quan trọng.
Công nghệ đào tạo mô hình vẫn đang không ngừng phát triển, các phương pháp được sử dụng để định hình hành vi mô hình trong tương lai rất có thể sẽ khác rất nhiều so với ngày nay. Nhưng hiện tại, hành vi của mô hình là kết quả của sự tương tác giữa các quyết định thiết kế rõ ràng và các hành vi dự kiến và không dự kiến của nó trong quá trình sử dụng thực tế.
Tiếp theo là gì?
Chúng tôi đã bắt đầu nhận thấy một xu hướng: mọi người đang thiết lập các kết nối cảm xúc thực sự với ChatGPT.
Khi AI cùng phát triển với xã hội, chúng ta phải xem xét mối quan hệ giữa con người và AI một cách thận trọng và nghiêm túc hơn, không chỉ vì mối quan hệ này phản ánh cách mọi người sử dụng công nghệ của chúng tôi, mà còn vì nó có thể ảnh hưởng đến mối quan hệ giữa những người với nhau.
Trong những tháng tới, chúng tôi sẽ mở rộng đánh giá mục tiêu về các hành vi mô hình có thể gây ảnh hưởng cảm xúc, tăng cường nghiên cứu khoa học xã hội, lắng nghe phản hồi thực tế từ người dùng và tích hợp những hiểu biết này vào Quy tắc Mô hình và trải nghiệm sản phẩm.
Với tầm quan trọng của những vấn đề này, chúng tôi sẽ tiếp tục chia sẻ công khai những phát hiện của mình trong quá trình này.
Cảm ơn Jakub Pachocki (Giám đốc Khoa học tại OpenAI) và Johannes Heidecke (Nhà nghiên cứu Nhóm An toàn Mô hình tại OpenAI) đã cùng tôi suy nghĩ sâu về vấn đề này, cũng như cảm ơn tất cả các đồng nghiệp đã cung cấp phản hồi.
One more thing
Thông tin công khai trên LinkedIn cho biết, Joanne Jang có bằng Thạc sĩ Khoa học Máy tính tại Đại học Stanford, cùng nền tảng cử nhân về Toán học và Khoa học Máy tính, và đã đạt danh hiệu Tau Beta Pi (top 10% trong kỹ thuật).
Trong giai đoạn thực tập, cô đã tham gia các dự án kỹ thuật phần mềm tại nhóm dự án tự lái của Apple, Coursera và Disney, cũng như thực tập tại các tổ chức như Phòng thí nghiệm Đẩy động Phản lực NASA.
Về mặt kinh nghiệm nghề nghiệp, Joanne Jang hiện đang làm việc tại OpenAI, phụ trách hướng sản phẩm, tập trung vào thiết kế hành vi mô hình, chức năng và chiến lược cá nhân hóa, đã tham gia các dự án như GPT-4, DALL·E 2, ChatGPT API và các mô hình nhúng.
Trước đó, cô từng làm Giám đốc sản phẩm tại Google cho NLP của Google Assistant, tập trung vào việc hiểu ngôn ngữ tự nhiên và hệ thống đối thoại; và còn làm việc tại Dropbox phụ trách các sản phẩm doanh nghiệp và giáo dục, tập trung vào việc mở rộng nhóm, tối ưu hóa triển khai và quản lý vòng đời người dùng.
Bài viết này đến từ trang WeChat "APPSO", tác giả: Khám phá sản phẩm ngày mai, được 36kr xuất bản với sự cho phép.

