OpenAI và các công ty hàng đầu về trí tuệ nhân tạo khác đang phát triển các kỹ thuật đào tạo mới để vượt qua những hạn chế của các phương pháp hiện tại. Giải quyết các sự chậm trễ và phức tạp bất ngờ trong việc phát triển các mô hình ngôn ngữ lớn hơn và mạnh mẽ hơn, những kỹ thuật mới này tập trung vào hành vi giống con người để dạy các thuật toán 'suy nghĩ'.
Được dẫn đầu bởi khoảng một tá nhà nghiên cứu trí tuệ nhân tạo, nhà khoa học và nhà đầu tư, các kỹ thuật đào tạo mới này, là nền tảng của mô hình 'o1' gần đây của OpenAI (trước đây là Q* và Strawberry), có tiềm năng thay đổi cảnh quan của sự phát triển trí tuệ nhân tạo. Những tiến bộ được báo cáo có thể ảnh hưởng đến các loại hoặc số lượng tài nguyên mà các công ty trí tuệ nhân tạo cần liên tục, bao gồm cả phần cứng và năng lượng chuyên dụng để hỗ trợ việc phát triển các mô hình trí tuệ nhân tạo.
Mô hình o1 được thiết kế để tiếp cận các vấn đề theo cách mô phỏng lập luận và suy nghĩ của con người, chia các nhiệm vụ thành nhiều bước. Mô hình cũng sử dụng dữ liệu và phản hồi chuyên biệt do các chuyên gia trong ngành công nghiệp trí tuệ nhân tạo cung cấp để cải thiện hiệu suất của nó.
Kể từ khi ChatGPT được OpenAI ra mắt vào năm 2022, đã có một sự bùng nổ về đổi mới trí tuệ nhân tạo, và nhiều công ty công nghệ khẳng định các mô hình trí tuệ nhân tạo hiện tại cần được mở rộng, dù là thông qua số lượng dữ liệu lớn hơn hay các nguồn lực máy tính được cải thiện. Chỉ khi đó, các mô hình trí tuệ nhân tạo mới có thể liên tục cải thiện.
Hiện tại, các chuyên gia trí tuệ nhân tạo đã báo cáo về những hạn chế trong việc mở rộng quy mô các mô hình trí tuệ nhân tạo. Thập niên 2010 là một giai đoạn cách mạng về mở rộng quy mô, nhưng Ilya Sutskever, đồng sáng lập của các phòng thí nghiệm trí tuệ nhân tạo Safe Superintelligence (SSI) và OpenAI, cho biết việc đào tạo các mô hình trí tuệ nhân tạo, đặc biệt là trong việc hiểu các cấu trúc và mô hình ngôn ngữ, đã đạt đến giới hạn.
"Thập niên 2010 là thời đại của việc mở rộng quy mô, bây giờ chúng ta lại quay về thời đại của sự ngạc nhiên và khám phá. Việc mở rộng đúng thứ quan trọng hơn bây giờ," họ nói.
Gần đây, các nhà nghiên cứu phòng thí nghiệm trí tuệ nhân tạo đã gặp phải sự chậm trễ và thách thức trong việc phát triển và phát hành các mô hình ngôn ngữ lớn (LLM) mạnh mẽ hơn mô hình GPT-4 của OpenAI.
Trước tiên, có chi phí đào tạo các mô hình lớn, thường lên đến hàng chục triệu đô la. Và do những phức tạp phát sinh, như phần cứng bị hỏng do độ phức tạp của hệ thống, việc phân tích cuối cùng về cách các mô hình này hoạt động có thể mất hàng tháng.
Ngoài những thách thức này, các đợt chạy đào tạo yêu cầu lượng năng lượng đáng kể, thường dẫn đến thiếu điện có thể gây gián đoạn các quy trình và ảnh hưởng đến lưới điện rộng hơn. Một vấn đề khác là lượng dữ liệu khổng lồ mà các mô hình ngôn ngữ lớn sử dụng, đến mức các mô hình trí tuệ nhân tạo đã sử dụng hết toàn bộ dữ liệu có sẵn trên toàn thế giới.
Các nhà nghiên cứu đang khám phá một kỹ thuật được gọi là 'tính toán thời gian kiểm tra' để cải thiện các mô hình trí tuệ nhân tạo hiện tại khi được đào tạo hoặc trong các giai đoạn suy luận. Phương pháp này có thể bao gồm việc tạo ra nhiều câu trả lời theo thời gian thực để quyết định một loạt các giải pháp tốt nhất. Do đó, mô hình có thể phân bổ nhiều tài nguyên xử lý hơn cho các nhiệm vụ khó khăn yêu cầu quyết định và lập luận giống con người. Mục tiêu - để làm cho mô hình chính xác và có khả năng hơn.
Noam Brown, một nhà nghiên cứu tại OpenAI đã giúp phát triển mô hình o1, chia sẻ một ví dụ về cách một phương pháp mới có thể đạt được những kết quả đáng ngạc nhiên. Tại hội nghị TED AI ở San Francisco vào tháng trước, Brown giải thích rằng "để một bot suy nghĩ chỉ trong 20 giây trong một ván bài poker đã đạt được hiệu suất tăng cường tương tự như việc mở rộng quy mô mô hình lên 100.000 lần và đào tạo nó trong 100.000 lần lâu hơn".
Thay vì chỉ tăng kích thước mô hình và thời gian đào tạo, điều này có thể thay đổi cách các mô hình trí tuệ nhân tạo xử lý thông tin và dẫn đến các hệ thống mạnh mẽ và hiệu quả hơn.
Được biết, các phòng thí nghiệm trí tuệ nhân tạo khác cũng đang phát triển các phiên bản của kỹ thuật o1. Trong số đó có xAI, Google DeepMind và Anthropic. Cạnh tranh trong thế giới trí tuệ nhân tạo không phải là điều mới, nhưng chúng ta có thể thấy một tác động đáng kể đến thị trường phần cứng trí tuệ nhân tạo do các kỹ thuật mới. Các công ty như Nvidia, hiện đang thống trị nguồn cung cấp chip trí tuệ nhân tạo do nhu cầu cao đối với sản phẩm của họ, có thể bị ảnh hưởng đặc biệt bởi các kỹ thuật đào tạo trí tuệ nhân tạo mới được cập nhật.
Nvidia đã trở thành công ty có giá trị lớn nhất thế giới vào tháng 10, và sự tăng trưởng của họ có thể chủ yếu được quy cho việc sử dụng chip của họ trong các mảng trí tuệ nhân tạo. Các kỹ thuật mới có thể ảnh hưởng đến vị trí thị trường của Nvidia, buộc công ty phải điều chỉnh sản phẩm của mình để đáp ứng nhu cầu phần cứng trí tuệ nhân tạo đang thay đổi. Tiềm năng, điều này có thể mở ra nhiều con đường mới cho các đối thủ cạnh tranh mới trên thị trường suy luận.
Một kỷ nguyên phát triển trí tuệ nhân tạo mới có thể đang ở trên tầm nhìn, được thúc đẩy bởi nhu cầu phần cứng đang thay đổi và các phương pháp đào tạo hiệu quả hơn như những gì được triển khai trong mô hình o1. Tương lai của cả các mô hình trí tuệ nhân tạo và các công ty đứng sau họ có thể được định hình lại, mở ra những khả năng chưa từng có và cạnh tranh lớn hơn.
Xem thêm: Anthropic thúc giục quản lý trí tuệ nhân tạo để tránh thảm họa
Muốn tìm hiểu thêm về trí tuệ nhân tạo và dữ liệu lớn từ các nhà lãnh đạo ngành? Hãy kiểm tra AI & Big Data Expo diễn ra tại Amsterdam, California và London. Sự kiện toàn diện này được tổ chức đồng thời với các sự kiện hàng đầu khác bao gồm Intelligent Automation Conference, BlockX, Digital Transformation Week, a
Bài viết Các kỹ thuật đào tạo trí tuệ nhân tạo mới nhằm vượt qua những thách thức hiện tại đã xuất hiện lần đầu trên AI News.