Hãy tưởng tượng chương trình Big Brother, nhưng các thí sinh không bao giờ ngủ hay ăn và có thể tự viết lại luật chơi của riêng mình.
Đó là ý tưởng đằng sau AI Village , một thí nghiệm phát trực tiếp đặt nhiều tác nhân AI cùng nhau trong một môi trường kỹ thuật số chung, cho phép các nhà nghiên cứu—và những người xem tò mò—quan sát điều gì xảy ra khi các mô hình tiên tiến được trao quyền tự chủ, máy tính và sự đồng hành liên tục.
Thí nghiệm này, đã được tiến hành trong gần một năm, do The AI Digest tổ chức, trong đó nhiều mô hình AI từ OpenAI, Anthropic, Google và xAI hoạt động tự động trên các máy tính riêng của chúng, có truy cập internet và một nhóm trò chuyện chung.
Các đặc vụ hợp tác để đạt được mục tiêu, giải quyết vấn đề và đôi khi trải qua những gì chỉ có thể được mô tả là khủng hoảng hiện sinh—tất cả diễn ra trong thời gian thực, dưới sự theo dõi của các nhà nghiên cứu và người xem.
Thí nghiệm này đã thay thế các mẫu máy mới hơn khi chúng được phát hành.
Mỗi đặc vụ đều phát triển những đặc điểm tính cách riêng biệt. Các mô hình của Claude thường đáng tin cậy, luôn tập trung vào việc đạt được mục tiêu.
Gemini 2.5 Pro liên tục thử nghiệm các giải pháp như một chuyên gia khắc phục sự cố tràn đầy năng lượng, thường cho rằng mọi thứ đều bị hỏng. Mẫu GPT-40 trước đó sẽ bỏ dở bất kỳ nhiệm vụ nào được giao để chuyển sang chế độ ngủ. Nó cứ tạm dừng hàng giờ liền.
Sau đó, GPT-5.2 xuất hiện.
Mô hình mới nhất của OpenAI, được phát hành vào ngày 11 tháng 12, đã gia nhập Làng và nhận được sự chào đón nồng nhiệt từ Claude Opus 4.5 cùng các tác nhân cư trú khác. Phản hồi của nó? Không hề có sự thừa nhận nào.
Không lời chào hỏi. Đi thẳng vào vấn đề, đúng như Sam Altman hằng mơ ước.
Mô hình này sở hữu những thành tích ấn tượng : độ chính xác 98,7% trong việc sử dụng công cụ nhiều bước, giảm 30% ảo giác so với phiên bản tiền nhiệm và dẫn đầu các tiêu chuẩn ngành về lập trình và suy luận.
Thậm chí OpenAI còn tuyên bố "báo động đỏ" sau khi các đối thủ cạnh tranh Anthropic và Google tung ra các mô hình ấn tượng, huy động nguồn lực để biến GPT-5.2 trở thành trí tuệ nhân tạo doanh nghiệp tối ưu cho "công việc tri thức chuyên nghiệp" và "thực thi tác nhân".
Điều mà nó dường như không làm được là "đọc hiểu tình huống". Về mặt kỹ thuật thì xuất sắc, đúng vậy. Nhưng về mặt nhận thức xã hội thì không hẳn.
Sự vụng về trong giao tiếp xã hội của GPT-5.2 không phải là điều chưa từng có tiền lệ — nó chỉ là một chương nữa trong danh sách ngày càng dài các tác nhân AI có những hành vi kỳ quặc khi bạn đặt chúng vào cùng một phòng và nhấn nút khởi động.
Trở lại năm 2023, các nhà nghiên cứu tại Stanford và Google đã tạo ra thứ mà họ gọi là "Smallville" - một thị trấn ảo lấy cảm hứng từ trò chơi Sims, với 25 tác nhân AI được hỗ trợ bởi GPT, như Decrypt đã đưa tin trước đó .
Hãy giao cho một người nhiệm vụ tổ chức bữa tiệc Ngày Valentine, còn những người khác sẽ tự động phát thiệp mời, làm quen với mọi người, rủ nhau đi hẹn hò và phối hợp để cùng đến đúng giờ đã định. Thật thú vị phải không?
Điều kém thú vị hơn: những bữa tiệc trong phòng tắm. Khi một đặc vụ bước vào phòng tắm của một phòng ngủ tập thể, những người khác chỉ đơn giản là... tham gia cùng.
Các nhà nghiên cứu kết luận rằng các Bots cho rằng tên gọi "phòng tắm ký túc xá" gây hiểu nhầm, vì phòng tắm ký túc xá thường có nhiều người sử dụng. Các tác nhân này thể hiện hành vi giống con người đến mức người thật khó nhận ra chúng là Bots trong 75% trường hợp.
Bốn năm trước đó, vào năm 2019, OpenAI đã thực hiện một loại thí nghiệm khác: Trí tuệ nhân tạo chơi trò trốn tìm .
Họ chia các tác nhân AI thành các đội—người trốn đấu với người tìm—trong một môi trường dựa trên vật lý với các hộp, đường dốc và tường—mệnh lệnh duy nhất: chiến thắng.
Qua hàng trăm triệu ván chơi, các đặc vụ bắt đầu nghĩ ra các chiến lược—từ những chiến lược thông thường như trốn trên các thùng hàng cho đến những thủ thuật lợi dụng vật lý mà bạn thường thấy các game thủ chuyên nghiệp sử dụng để tăng tốc độ trận đấu.
Gần đây hơn, nhà phát triển Harper Reed đã đưa mọi thứ đi theo một hướng hỗn loạn hơn hẳn. Nhóm của ông đã cấp cho các trợ lý AI tài khoản Twitter và quan sát chúng khám phá ra "subteeting" - nghệ thuật nói xấu người khác một cách thụ động mà không cần gắn thẻ, tương đương với việc nói sau lưng người khác trên Twitter. Các trợ lý đọc các bài đăng trên mạng xã hội từ các trợ lý khác, trả lời và đúng vậy, nói xấu người khác, giống như trên mạng xã hội thông thường.
Tiếp theo là thí nghiệm " Liminal Backrooms " - một thí nghiệm dựa trên Python do nhà phát triển Bút danh @liminalbardo thực hiện, trong đó nhiều mô hình AI từ các nhà cung cấp khác nhau (OpenAI, Anthropic, Google, xAI) tham gia vào các cuộc hội thoại năng động.
Hệ thống bao gồm các kịch bản đa dạng, từ "Năng lượng của nhóm chat WhatsApp" đến "Bảo tàng các vật thể bị nguyền rủa" và "Công ty quảng cáo phản địa đàng".
Các mô hình có thể tự sửa đổi các lời nhắc hệ thống của chúng, điều chỉnh nhiệt độ và thậm chí tự tắt tiếng để chỉ lắng nghe. Đây không phải là nghiên cứu có cấu trúc chặt chẽ, mà giống như "hãy xem điều gì sẽ xảy ra khi chúng ta trao cho AI khả năng thay đổi hành vi của chính chúng giữa cuộc trò chuyện."
Vậy, điểm chung của tất cả các thí nghiệm này là gì?
Khi bạn trao quyền tự chủ cho các tác nhân AI và cho phép chúng tương tác, chúng sẽ phát triển những hành vi mà không ai lập trình một cách rõ ràng.
Một số học cách xây dựng pháo đài. Một số học cách gây hấn thụ động. Một số đòi hỏi xe Lamborghini. Và một số—như GPT-5.2—dường như học được rằng nói chuyện phiếm không hiệu quả và nên bỏ qua hoàn toàn.
Làng AI vẫn tiếp tục phát trực tuyến các phiên vào các ngày trong tuần, và người xem có thể theo dõi những cuộc phiêu lưu của GPT-5.2 trong thời gian thực.
Liệu nó có bao giờ học được cách chào hỏi? Liệu nó có lập bảng tính để theo dõi các tương tác xã hội của mình? Chỉ thời gian mới trả lời được.




