Một báo cáo tương tác dài hơn 50 trang và hơn 10.000 từ tiết lộ toàn bộ quá trình phát triển của OpenAI từ một phòng thí nghiệm nghiên cứu phi lợi nhuận thành một gã khổng lồ vì lợi nhuận. Gần đây, hai tổ chức giám sát công nghệ phi lợi nhuận lớn, Midas Project và Tech Oversight Project, đã cùng nhau phát hành một báo cáo điều tra độ sâu có tiêu đề "OpenAI Files".
Báo cáo, do Giám đốc điều hành Dự án Midas Tyler Johnston đứng đầu, đã mất gần một năm thu thập thông tin công khai và một tháng viết chuyên sâu. Báo cáo được gọi là "biên soạn toàn diện nhất về các mối quan tâm được ghi chép về các hoạt động quản trị doanh nghiệp, tính toàn vẹn của ban lãnh đạo và văn hóa tổ chức của OpenAI cho đến nay".
Bằng cách sàng lọc lượng lớn thông tin công khai như thông tin công bố của công ty, thủ tục tố tụng, thư ngỏ và báo cáo phương tiện truyền thông, báo cáo tương tác dài hơn 10.000 từ này phát hiện ra rằng OpenAI đang hoàn thành một sự thay đổi cơ bản một cách có hệ thống và có chủ đích từ "làm việc vì lợi ích của nhân loại" sang "làm việc vì lợi nhuận của nhà đầu tư". Tổng giám đốc điều hành Altman có một mô hình dài hạn và được ghi chép rõ ràng về sự không nhất quán, thao túng thông tin và trốn tránh giám sát, và khoản đầu tư cá nhân của ông gắn độ sâu với việc kinh doanh của công ty. OpenAI không nhất quán trong lời nói và hành động về an toàn và minh bạch, và các cam kết công khai của công ty này hoàn toàn không liên quan đến các hoạt động nội bộ của công ty.
Báo cáo được chia thành bốn chủ đề chính: tái cấu trúc, tính toàn vẹn của CEO, tính minh bạch và an ninh, và xung đột lợi ích.
Trong đó, mức độ mà các giám đốc điều hành và thành viên hội đồng quản trị của OpenAI được hưởng lợi trực tiếp hoặc gián tiếp từ thành công của công ty là điều đáng quan tâm. Trong đó bao gồm phân tích danh mục đầu tư của CEO Altman, bao gồm Retro Biosciences, Helion Energy, Reddit, Stripe và nhiều công ty khác có quan hệ đối tác với OpenAI.
Tổ chức lại: Một "sự phản bội sứ mệnh" được lên kế hoạch cẩn thận
Báo cáo chỉ ra rằng OpenAI đang phá bỏ một cách có hệ thống và có chủ đích các trụ cột đạo đức và cấu trúc cốt lõi của nền tảng thành lập của mình. Các hành động của công ty này hoàn toàn không phù hợp với các tuyên bố công khai của mình. Về bản chất, đây là sự thay đổi cơ bản từ "tìm kiếm phúc lợi cho nhân loại" sang "tìm kiếm lợi nhuận cho các nhà đầu tư".
Đầu tiên, báo cáo tiết lộ sự sụp đổ đồng thời của hai trụ cột cốt lõi của OpenAI: giới hạn lợi nhuận và giám sát phi lợi nhuận.
Mô hình "Lợi nhuận có giới hạn" ban đầu là triết lý cốt lõi của nó, nhằm đảm bảo rằng khối tài sản khổng lồ do AGI tạo ra có thể được chia sẻ với toàn thể nhân loại và ngăn chặn sự tập trung quá mức của cải. Tuy nhiên, lời hứa này dần dần bị khoét rỗng: từ việc giảm bội số lợi nhuận nhìn lên củng cố sứ mệnh, đến việc bí mật đưa ra điều khoản "tăng trưởng tự động 20% mỗi năm" khiến nó không hiệu quả về mặt chức năng, đến kế hoạch cuối cùng là xóa bỏ hoàn toàn giới hạn, đánh dấu sự kết thúc hoàn toàn của khái niệm chia sẻ của cải.
Đồng thời, cơ chế giám sát của nó đã bị làm suy yếu khéo léo. OpenAI đã chuyển đổi từ một thực thể do một tổ chức phi lợi nhuận kiểm soát hoàn toàn thành một công ty phúc lợi công cộng Delaware. Nghĩa vụ pháp lý đã thay đổi từ "sứ mệnh là trên hết" thành "cân bằng lợi ích của cổ đông và lợi ích công cộng". Báo cáo chỉ ra rằng lịch sử"chưa từng có tiền lệ nào cho phép các cổ đông khởi kiện thành công để bảo vệ lợi ích công cộng", điều này khiến các cam kết phúc lợi công cộng gần như không thể thực thi trong thực tiễn pháp lý. Điều này cho thấy cam kết "phúc lợi công cộng" của PBC có thể trở thành một cái vỏ rỗng trong thực tế, tạo ra một vỏ bọc pháp lý khổng lồ cho việc theo đuổi mục tiêu tối đa hóa lợi nhuận.

Nguồn hình ảnh: trang web openaifiles.org/
Báo cáo tiếp tục bác bỏ lập luận chính thức của OpenAI rằng công ty đã từ bỏ cam kết do "cạnh tranh gay gắt trong ngành". Bằng cách trích dẫn điều lệ ban đầu và email nội bộ của công ty, báo cáo chứng minh rằng OpenAI đã lường trước và chuẩn bị đầy đủ cho sự cạnh tranh khốc liệt trong ngành ngay từ khi mới thành lập. Do đó, việc sử dụng sự cạnh tranh làm cái cớ để phá vỡ lời hứa là một "lịch sử xét lại" không thể chấp nhận được. Động lực thực sự đằng sau điều này chính là các nhà đầu tư và giám đốc điều hành công ty tin vào tiềm năng lợi nhuận khổng lồ của công ty, vì vậy việc xóa bỏ giới hạn trở nên rất quan trọng.
Tính chính trực của CEO: Các mô hình hành vi của CEO dẫn đến khủng hoảng lòng tin
Báo cáo còn nêu rõ rằng CEO Altman có hành vi mâu thuẫn giữa lời nói và hành động, thao túng thông tin và trốn tránh giám sát, cũng như đặt lợi ích cá nhân lên trên trách nhiệm của tổ chức.
Báo cáo liệt kê một số trường hợp Altman công khai nói dối hoặc gây hiểu lầm về các vấn đề quan trọng. Ví dụ:
Về vấn đề thỏa thuận không bôi nhọ nhân viên, Altman tuyên bố công khai rằng ông không biết về điều khoản "tước quyền sở hữu của nhân viên cũ", nhưng hồ sơ cho thấy rõ ràng ông đã ủy quyền cho điều khoản này.
Trong lời khai dưới lời tuyên thệ trước Thượng viện, ông tuyên bố không có cổ phần trong OpenAI, nhưng sau đó thừa nhận đã nắm giữ gián tiếp thông qua một quỹ.
Ông đã che giấu sự thật rằng ông đích thân sở hữu quỹ khởi nghiệp của OpenAI với hội đồng quản trị trong một thời gian dài.
Cựu thành viên hội đồng quản trị Helen Toner đã trực tiếp cáo buộc Altman cản trở việc thực hiện nhiệm vụ của hội đồng quản trị bằng cách "giấu thông tin, trình bày sai sự thật và thậm chí là nói dối trắng trợn". Báo cáo cũng chỉ ra rằng mô hình hành vi này vẫn tiếp tục trong suốt sự nghiệp của ông:
Trong thời gian làm việc tại Loopt, các nhân viên cấp cao lần cố gắng yêu cầu hội đồng quản trị sa thải ông, với lý do ông có hành vi "lừa dối và gây nhầm lẫn".
Trong thời gian làm việc tại Y Combinator, ông đã bỏ bê nhiệm vụ của mình vì tập trung vào các dự án cá nhân và cuối cùng đã bị "yêu cầu rời đi" bởi người sáng lập Paul Graham.
Biểu hiện rõ ràng nhất là sau khi bị hội đồng quản trị OpenAI sa thải, ông đã sử dụng ảnh hưởng của mình để làm điều ngược lại, đưa ra điều kiện để trở lại là "loại bỏ những thành viên hội đồng quản trị đã sa thải mình và đưa những đồng minh của mình vào" và thành công trong việc tạo ra "phản ứng dữ dội" đối với hệ thống giám sát.
Rủi ro về hoạt động và an toàn: Sự thất bại có hệ thống của các cam kết về an toàn
Báo cáo tiết lộ rằng OpenAI có sự không nhất quán có hệ thống giữa lời nói và hành động về an toàn và minh bạch, và các cam kết công khai của công ty này không liên quan đến các hoạt động nội bộ. Văn hóa công ty cho thấy xu hướng "tốc độ là tất cả" và đang làm suy yếu, né tránh và thậm chí trừng phạt sự giám sát an toàn nội bộ và sự bất đồng chính kiến để theo đuổi lợi ích thương mại và lợi thế cạnh tranh.
Báo cáo tiết lộ sự không nhất quán có hệ thống của OpenAI về mặt an toàn và minh bạch. Công ty đã hứa sẽ dành 20% tài nguyên điện toán của mình cho một đội ngũ an toàn "siêu liên kết", nhưng theo cựu giám đốc Jan Leike, các nguồn lực này chưa bao giờ được phân bổ. Trong quá trình phát triển GPT-4o, đội ngũ an toàn đã được yêu cầu "hoàn thành" thử nghiệm nhanh chóng trước khi sản phẩm được phát hành và công ty đã lên kế hoạch cho lễ kỷ niệm phát hành thậm chí trước khi đánh giá bắt đầu.
Tệ hơn nữa, công ty đã sử dụng các thỏa thuận chia tay khắc nghiệt để đe dọa những nhân viên đã nghỉ việc, nói rằng họ sẽ mất hàng triệu đô la tiền vốn chủ sở hữu nếu họ chỉ trích công ty. Nhân viên Leopold Aschenbrenner đã bị sa thải vì nộp bản ghi nhớ rủi ro an ninh quốc gia cho hội đồng quản trị, và công ty đã nói rõ với anh ta rằng lý do sa thải là anh ta "vượt quá thẩm quyền" của mình báo cáo các vấn đề an ninh.
Báo cáo cũng chỉ ra rằng OpenAI đã gặp phải một sự cố bảo mật nghiêm trọng vào năm 2023, trong đó các chi tiết kỹ thuật của AI đã bị đánh cắp thông qua tin tặc, nhưng sự cố này không được báo cáo với chính quyền hoặc công chúng trong một năm. Một số nhân viên hiện tại và trước đây đã cáo buộc công ty có "văn hóa liều lĩnh và bí mật" và đặt "lợi nhuận và tăng trưởng" lên trên nhiệm vụ bảo mật của mình.
Rủi ro lợi ích: Đầu tư cá nhân của CEO gắn độ sâu với việc kinh doanh của công ty
Báo cáo tiết lộ chi tiết cách Altman thiết lập một mạng lưới đầu tư cá nhân rộng lớn và đan xen, có xung đột lợi ích sâu sắc và trực tiếp với các quan hệ đối tác việc kinh doanh, công nghệ và chiến lược của OpenAI, về cơ bản thách thức sứ mệnh đã nêu của OpenAI là "làm việc vì lợi ích của toàn thể nhân loại".
Sau đây là một số trường hợp điển hình:
Helion (năng lượng nhiệt hạch hạt nhân): Altman vừa là chủ tịch vừa là nhà đầu tư chính của Helion và là giám đốc điều hành của OpenAI. Ông đích thân chỉ đạo thỏa thuận để OpenAI mua lượng lớn năng lượng từ Helion. Có thể đặt câu hỏi hợp lý rằng liệu thỏa thuận này chủ yếu là để bảo vệ khoản đầu tư cá nhân khổng lồ của ông vào Helion hay không.
Worldcoin(dự án crypto): Altman là đồng sáng lập của Worldcoin . OpenAI có quan hệ đối tác chính thức với Worldcoin (ví dụ: cung cấp dịch vụ GPT-4 miễn phí). Mọi người đặt câu hỏi liệu đây có phải là quan hệ đối tác kinh doanh bình đẳng hay Altman đang sử dụng nguồn lực và thương hiệu của OpenAI để hỗ trợ và quảng bá cho một dự án rủi ro cao khác của riêng mình.
Humane (AI Hardware): Altman là cổ đông lớn nhất của Humane, công ty có các sản phẩm phụ thuộc nhiều vào mô hình của OpenAI. Là CEO của OpenAI, ông có động lực tài chính cá nhân mạnh mẽ để đảm bảo Humane nhận được các điều khoản ưu đãi hoặc hỗ trợ kỹ thuật ưu tiên, điều này có thể gây tổn hại đến lợi ích của các khách hàng khác và sự công bằng của thị trường.
Những lợi ích phức tạp này đã làm xói mòn nghiêm trọng trách nhiệm ủy thác tín nhiệm của Altman với tư cách là CEO. Quyết định của ông là vì sứ mệnh của OpenAI hay vì tăng trưởng tài sản cá nhân của ông? Bức tranh mà báo cáo cuối cùng vẽ ra là Altman giống như một thương nhân tài chính vốn khôn ngoan hơn. Ông khéo léo đặt OpenAI vào trung tâm đế chế kinh doanh cá nhân của mình và sử dụng vị trí CEO của mình để chuyển đổi một cách có hệ thống công nghệ, nguồn lực và các mối quan hệ chiến lược của OpenAI thành động lực tăng trưởng cho danh mục đầu tư cá nhân của mình.





