Đã hơn một tuần kể từ khi DeepSeek làm chấn động thế giới AI. Việc ra mắt mô hình mở rộng của nó - được đào tạo trên một phần nhỏ các chip máy tính chuyên dụng mà các nhà lãnh đạo ngành sử dụng - đã gây ra những làn sóng chấn động bên trong OpenAI. Không chỉ vậy, các nhân viên còn tuyên bố nhìn thấy những manh mối cho thấy DeepSeek đã "trích xuất không đúng cách" các mô hình của OpenAI để tạo ra của riêng mình, nhưng sự thành công của startup này đã khiến Phố Wall nghi ngờ liệu các công ty như OpenAI có chi tiêu quá mức cho máy tính.
"DeepSeek R1 là khoảnh khắc Sputnik của ngành AI", Marc Andreessen, một trong những nhà phát minh ảnh hưởng và gây tranh cãi nhất của Thung lũng Silicon, viết trên X.
Để đáp lại, OpenAI đang chuẩn bị ra mắt một mô hình mới hôm nay, trước kế hoạch ban đầu. Mô hình này, o3-mini, sẽ ra mắt cả ở dạng API và trò chuyện. Các nguồn tin cho biết nó có khả năng lý luận ở cấp độ o1 với tốc độ 40 lần. Nói cách khác, nó nhanh, rẻ, thông minh và được thiết kế để đè bẹp DeepSeek.
Khoảnh khắc này đã gây ra sự đoàn kết trong đội ngũ nhân viên OpenAI. Bên trong công ty, có cảm giác rằng - đặc biệt khi DeepSeek đang chiếm lĩnh cuộc trò chuyện - OpenAI phải trở nên hiệu quả hơn hoặc sẽ bị tụt lại so với đối thủ mới nhất của mình.
Một phần vấn đề này bắt nguồn từ việc OpenAI được thành lập ban đầu như một tổ chức nghiên cứu phi lợi nhuận trước khi trở thành một công ty tìm kiếm lợi nhuận. Một cuộc đấu tranh quyền lực liên tục giữa các nhóm nghiên cứu và sản phẩm, theo nhân viên, đã dẫn đến sự chia rẽ giữa các nhóm làm việc về lý luận nâng cao và những người làm việc về trò chuyện. (Người phát ngôn của OpenAI, Niko Felix, nói rằng điều này là "không chính xác" và lưu ý rằng các lãnh đạo của những nhóm này, giám đốc sản phẩm Kevin Weil và giám đốc nghiên cứu Mark Chen, "gặp nhau hàng tuần và làm việc chặt chẽ để đồng bộ hóa các ưu tiên sản phẩm và nghiên cứu.")
Một số người bên trong OpenAI muốn công ty xây dựng một sản phẩm trò chuyện thống nhất, một mô hình có thể xác định xem một câu hỏi có yêu cầu lý luận nâng cao hay không. Cho đến nay, điều đó vẫn chưa xảy ra. Thay vào đó, một menu thả xuống trong ChatGPT yêu cầu người dùng quyết định liệu họ muốn sử dụng GPT-40 ("tuyệt vời cho hầu hết các câu hỏi") hay o1 ("sử dụng lý luận nâng cao").
Một số nhân viên cho rằng trong khi trò chuyện mang lại phần lớn doanh thu của OpenAI, o1 lại nhận được nhiều sự chú ý hơn - và tài nguyên máy tính - từ lãnh đạo. "Lãnh đạo không quan tâm đến trò chuyện", một cựu nhân viên làm việc về (bạn đoán đúng) trò chuyện nói. "Mọi người muốn làm việc trên o1 vì nó gợi cảm, nhưng cơ sở mã không được xây dựng để thử nghiệm, vì vậy không có động lực." Cựu nhân viên này yêu cầu giữ ẩn danh vì một thỏa thuận bảo mật.
OpenAI đã thử nghiệm nhiều năm với học tập tăng cường để tinh chỉnh mô hình cuối cùng trở thành hệ thống lý luận nâng cao được gọi là o1. (Học tập tăng cường là một quá trình huấn luyện các mô hình AI bằng một hệ thống các hình phạt và phần thưởng.) DeepSeek đã xây dựng dựa trên công việc học tập tăng cường mà OpenAI đã tiên phong để tạo ra hệ thống lý luận nâng cao của mình, được gọi là R1. "Họ đã hưởng lợi từ việc biết rằng học tập tăng cường, áp dụng cho các mô hình ngôn ngữ, hoạt động", một cựu nhà nghiên cứu OpenAI không được phép nói công khai về công ty nói.
"Việc học tập tăng cường [DeepSeek] thực hiện tương tự như những gì chúng tôi đã làm tại OpenAI", một cựu nhà nghiên cứu OpenAI khác nói, "nhưng họ đã làm điều đó với dữ liệu tốt hơn và ngăn xếp sạch sẽ hơn."
Nhân viên OpenAI nói rằng nghiên cứu đi vào o1 được thực hiện trong một cơ sở mã, được gọi là ngăn xếp "berry", được xây dựng để tăng tốc. "Có những sự đánh đổi - tính nghiêm ngặt thực nghiệm để đạt được xuất lượng", một cựu nhân viên am tường tình hình nói.
Những sự đánh đổi này có ý nghĩa với o1, đây thực chất là một thí nghiệm lớn, bất chấp những hạn chế của cơ sở mã. Chúng không phù hợp lắm với trò chuyện, một sản phẩm được sử dụng bởi hàng triệu người dùng được xây dựng trên một ngăn xếp đáng tin cậy hơn. Khi o1 ra mắt và trở thành một sản phẩm, những vết nứt bắt đầu xuất hiện trong các quy trình nội bộ của OpenAI. "Nó giống như, 'tại sao chúng ta lại làm điều này trong cơ sở mã thử nghiệm, chúng ta không nên làm điều này trong cơ sở mã nghiên cứu sản phẩm chính?' ", nhân viên giải thích. "Đã có sự phản đối lớn về điều đó bên trong."
Năm ngoái, công ty đã công bố Dự án Sputnik nội bộ - một nỗ lực để xem xét mã và xác định những phần nên được hợp nhất và những phần nên được giữ riêng biệt.
Nhân viên tin rằng dự án này đã không được thực hiện đầy đủ. Thay vì hợp nhất các ngăn xếp, nhân viên được khuyến khích chỉ ưu tiên sử dụng ngăn xếp "berry", điều này đã khiến một số người làm việc về trò chuyện bực bội. Người phát ngôn của OpenAI phủ nhận điều này và nói rằng Dự án Sputnik đã được triển khai thành công.
Những vấn đề được nhận thấy với cơ sở mã đã có những hậu quả cụ thể, các nguồn tin cho biết. Lý tưởng là sau khi một nhân viên khởi chạy một công việc huấn luyện, các GPU được sử dụng trong công việc đó sẽ được giải phóng để người khác sử dụng. Cách cấu trúc của cơ sở mã berry khiến điều này không luôn xảy ra. "Mọi người chỉ chiếm giữ các GPU", một cựu nhân viên nói. "Đã xảy ra tình trạng ách tắc."
Bên ngoài OpenAI, ngành công nghiệp chia rẽ về cách diễn giải thành công của DeepSeek. Đầu tuần này, cổ phiếu của Nvidia lao dốc khi các nhà đầu tư lo ngại rằng ngành công nghiệp đã ước tính quá cao số lượng chip cần thiết để làm việc với AI.
Nhưng diễn giải này là ngắn hạn, các chuyên gia nói. Nếu DeepSeek phát hiện ra cách phát triển mô hình hiệu quả hơn, như họ tuyên bố, nó có thể làm tăng tốc quá trình phát triển mô hình, nhưng cuối cùng công ty nào có nhiều chip nhất sẽ là người chiến thắng.
"Bạn cần ít tính toán hơn mỗi đơn vị trí tuệ, nhưng mọi người vẫn sẽ muốn có nhiều đơn vị hơn để mở rộng quy mô hơn nữa", Miles Brundage, một nhà nghiên cứu chính sách AI độc lập đã từng làm việc tại OpenAI trong sáu năm, gần đây nhất với vai trò cố vấn cao cấp về sẵn sàng AGI, nói.
Có lẽ Stargate, dự án cơ sở hạ tầng ấn tượng của OpenAI, sẽ giảm cảm giác khan hiếm nội bộ. Crusoe, công ty đang xây dựng trung tâm dữ liệu đầu tiên của Stargate ở Abilene, Texas, đã khởi công một cơ sở 998.000 feet vuông, theo Andrew Schmitt, người phát ngôn của công ty.
Mặc dù chi tiết của dự án không rõ ràng, tôi được biết nó có thể mở rộng để bao gồm thêm các trung tâm dữ liệu, sản xuất chip và siêu máy tính. OpenAI có kế hoạch bổ nhiệm một CEO mới để lãnh đạo dự án này - ít nhất là về mặt lý thuyết.
Giám đốc điều hành hiện tại Sam Altman "rất giỏi trong việc hứa hẹn những gì sẽ xảy ra trong tương lai. Và sau đó trong tương lai, những điều đó chỉ là hoàn toàn không đáng tin cậy", một cựu nhân viên khác nói.
Vào năm 2023, Steven Levy đã cung cấp một cái nhìn sâu sắc về OpenAI trong những tháng trước các biến động công khai của nó. Ngay cả khi đó, những căng thẳng đang bùng phát ngày nay cũng đã rõ ràng.
Không công bằng khi gọi OpenAI là một tôn giáo, nhưng khi tôi hỏi một số lãnh đạo cấp cao của công ty liệu có ai có thể làm việc ở đây một cách thoải mái nếu họ không tin rằng AGI thực sự đang đến - và sự xuất hiện của nó sẽ đánh dấu một trong những khoảnh khắc vĩ đại nhất trong lịch sử nhân loại - hầu hết các nhà điều hành đều không nghĩ như vậy. Tại sao một người không tin tưởng lại muốn làm việc ở đây? họ tự hỏi. Giả định là lực lượng lao động - hiện khoảng 500 người, mặc dù có thể đã tăng lên kể từ khi bạn bắt đầu đọc đoạn này - đã tự chọn lọc để chỉ bao gồm những người có niềm tin. Ít nhất, như Altman nói, một khi bạn được tuyển dụng, có vẻ như bạn sẽ bị cuốn vào cái phép thuật đó.
Đồng thời, OpenAI không còn là công