Hội nghị trực tuyến GTC của Nvidia đã phát động một sự kiện đặc biệt, người sáng lập kiêm Giám đốc điều hành của công ty Jensen Huang và nhà đồng sáng lập kiêm nhà khoa học trưởng của OpenAI Ilya Sutskevi đã phát động một "cuộc trò chuyện bên lề".
Biên tập và hoàn thiện: Li Haidan, Zhou Xiaoyan
Nguồn: Công nghệ Tencent

Vào lúc 0:00 ngày 23 tháng 3 theo giờ Bắc Kinh, Hội nghị trực tuyến NVIDIA GTC đã phát động một sự kiện đặc biệt, người sáng lập kiêm Giám đốc điều hành công ty Jensen Huang và nhà đồng sáng lập kiêm nhà khoa học trưởng của OpenAI Ilya Sutskevi đã phát động một cuộc "trò chuyện bên lề".
Huang Renxun tin rằng ChatGPT là "thời điểm iPhone trong thế giới AI", nhưng thời điểm này không xuất hiện trong một sớm một chiều. Người đồng sáng lập Open AI đã bắt đầu chú ý đến mạng lưới thần kinh từ mười năm trước trước đây và cũng đã trải nghiệm mạng lưới thần kinh trong quá trình khám phá AI tổng quát. Cách khám phá độ sâu và quy mô của mạng, đồng thời tạo ra những bước đột phá về khả năng học hỏi không giám sát của máy móc. Đến nay, ChatGPT đã trở thành một "công cụ nổi tiếng trên mạng" được toàn cầu quan tâm. Đứng ở hiện tại nhìn lại quá trình lặp đi lặp lại và phát triển của nó, sự sáng tạo dường như lần lượt bật ra từ “cảm hứng” của người sáng lập và đội ngũ. Đâu là những “khoảnh khắc thú vị” đằng sau sự đổi mới tưởng chừng như tự nhiên đó?

Gặp gỡ qua video: liên kết video
Sau đây là tóm tắt nội dung cuộc nói chuyện này:
Jensen Huang: Sự bùng nổ gần đây của ChatGPT đã đưa trí tuệ nhân tạo lên hàng đầu thế giới.OpenAI cũng thu hút sự chú ý của ngành và bạn đã trở thành kỹ sư trẻ bắt mắt nhất và nhà khoa học hàng đầu trong toàn ngành. Câu hỏi đầu tiên của tôi là, xuất phát điểm của bạn khi ban đầu tập trung vào lĩnh vực trí tuệ nhân tạo là gì? Bạn đã bao giờ tưởng tượng rằng bạn sẽ đạt được một thành công lớn như vậy?
Ilya-Sutskevi: Cảm ơn rất nhiều vì lời mời tốt đẹp của bạn. Trí tuệ nhân tạo đã mang lại những thay đổi lớn cho thế giới của chúng ta thông qua việc học sâu liên tục. Đối với cá nhân tôi, thực sự có hai khía cạnh chính:
Trước hết, ý định ban đầu của tôi khi học sâu về trí tuệ nhân tạo là con người chúng ta có hiểu biết trực quan nhất định về các vấn đề khác nhau. Tôi đặc biệt quan tâm đến định nghĩa về ý thức con người và cách trí thông minh con người của chúng ta thực hiện những dự đoán như vậy.
Thứ hai, trong khoảng thời gian từ 2002 đến 2003, tôi đã nghĩ rằng “việc học” là nhiệm vụ chỉ có con người mới hoàn thành được, máy tính không thể làm được. Vì vậy, tôi đã nảy ra một ý tưởng vào thời điểm đó: Nếu máy tính có thể được phép học liên tục, nó có thể mang lại những thay đổi trong ngành trí tuệ nhân tạo.
May mắn thay, lúc đó tôi đang học đại học, và chuyên ngành của tôi tình cờ là nghiên cứu về hướng học tập của mạng lưới thần kinh. Mạng nơ-ron là một tiến bộ rất quan trọng trong AI. Chúng tôi tập trung vào cách nghiên cứu cách học sâu thông qua mạng nơ-ron, cách mạng nơ-ron hoạt động giống như bộ não con người và cách logic như vậy được phản ánh trong cách máy tính hoạt động. Vào thời điểm đó, tôi không biết nghiên cứu lĩnh vực này sẽ mang lại con đường sự nghiệp nào, nhưng tôi chỉ nghĩ rằng nó sẽ là một ngành đầy hứa hẹn trong thời gian dài.
Huang Renxun: Khi bạn lần đầu tiên tiếp xúc với hướng nghiên cứu về mạng lưới thần kinh, kích thước của mạng lưới thần kinh lúc đó là bao nhiêu?
Ilya Sutskevi: Vào thời điểm đó, khái niệm về quy mô chưa được thảo luận trong mạng lưới thần kinh, chỉ có vài trăm đơn vị thần kinh và rất nhiều đơn vị CPU. Lúc đó chúng tôi mới thành lập phòng thí nghiệm toán, kinh phí hạn hẹp nên ban đầu chúng tôi chỉ làm nhiều thí nghiệm khác nhau, thu thập nhiều bài toán khác nhau để kiểm tra độ chính xác. Tất cả chúng ta đều tích lũy từng chút một để đào tạo mạng lưới thần kinh. Đây cũng là nguyên mẫu của mô hình AI thế hệ đầu tiên được triển khai vào thời kỳ đầu.
Jensen Huang: Trước năm 2012, ông đã đạt được những thành tựu trong lĩnh vực mạng lưới thần kinh, từ khi nào ông bắt đầu nghĩ rằng thị giác máy tính, mạng lưới thần kinh và trí tuệ nhân tạo là những hướng đi trong tương lai?
Ilya Sutskevi: Khoảng hai năm trước 2012, tôi dần nhận ra rằng học sâu sẽ nhận được nhiều sự chú ý, đây không chỉ là trực giác của tôi mà còn có một nền tảng lý thuyết rất vững chắc đằng sau nó. Nếu mạng thần kinh của máy tính đủ sâu và đủ lớn, nó có thể giải quyết một số vấn đề nội dung cốt lõi ở mức độ sâu, mấu chốt là mạng thần kinh cần phải có cả chiều sâu và quy mô, nghĩa là chúng ta phải có cơ sở dữ liệu đủ lớn và sức mạnh tính toán.
Chúng tôi đã nỗ lực rất nhiều để tối ưu hóa mô hình dữ liệu. Một trong những đồng nghiệp của chúng tôi đã tạo ra phản hồi mạng thần kinh dựa trên "giây" Người dùng có thể liên tục huấn luyện mạng thần kinh, điều này có thể làm cho mạng thần kinh lớn hơn và thu được nhiều dữ liệu hơn. Một số người cho rằng một tập dữ liệu lớn như vậy là không thể tưởng tượng được, nếu sức mạnh tính toán tại thời điểm đó có thể xử lý một lượng dữ liệu lớn như vậy, nó chắc chắn sẽ kích hoạt một cuộc cách mạng.
Jensen Huang: Khi chúng tôi gặp nhau lần đầu tiên, đó cũng là lúc tầm nhìn của chúng tôi về tương lai thực sự giao nhau. Vào thời điểm đó, bạn đã nói với tôi rằng GPU sẽ ảnh hưởng đến cuộc sống của một vài thế hệ tiếp theo và cảm giác ruột thịt của bạn là GPU có thể hữu ích cho việc đào tạo deep learning. Bạn có thể cho tôi biết khi nào bạn nhận ra điều này?
Ilya Sutskevi: Khi lần đầu tiên chúng tôi thử sử dụng GPU để đào tạo deep learning trong phòng thí nghiệm ở Toronto, chúng tôi không rõ cách sử dụng GPU, cách thu hút sự chú ý thực sự vào GPU. Khi chúng tôi ngày càng có nhiều tập dữ liệu, chúng tôi cũng ngày càng nhận thức rõ hơn về những lợi thế mà các mô hình truyền thống sẽ mang lại. Chúng tôi hy vọng sẽ đẩy nhanh quá trình xử lý dữ liệu và đào tạo những nội dung mà trước đây các nhà khoa học chưa từng đào tạo.
Huang Renxun: Chúng tôi thấy rằng ChatGPT và OpenAI đã phá vỡ mô hình hình ảnh do máy tính chỉnh sửa trong quá khứ.
Ilya Sutskevi: Tôi không nghĩ nó phá vỡ việc chỉnh sửa hình ảnh trên máy tính, nhưng để mô tả nó theo một cách khác, nó là “siêu việt”. Hầu hết chúng ta tiếp cận bộ dữ liệu theo cách suy nghĩ truyền thống, nhưng cách tiếp cận của chúng tôi tiên tiến hơn. Chúng tôi lúc đó cũng nghĩ đó là một việc khó, nếu làm tốt sẽ là một bước tiến lớn của người dân.
Huang Renxun: Bây giờ nhìn lại, khi bạn đến Thung lũng Silicon để làm việc tại Open AI và giữ vai trò là nhà khoa học trưởng của Open AI, bạn nghĩ công việc quan trọng nhất là gì? Tôi nghĩ Open AI có trọng tâm công việc khác nhau tại các thời điểm khác nhau ChatGPT là "thời điểm iPhone trong thế giới AI". Làm thế nào bạn đạt được thời điểm chuyển tiếp như vậy?
Ilya-Sutskevi: Lúc đầu, chúng tôi hoàn toàn không biết cách thực hiện toàn bộ dự án, và hơn nữa, những kết luận mà chúng tôi đưa ra bây giờ hoàn toàn khác với logic được sử dụng vào thời điểm đó. Người dùng hiện có một công cụ ChatGPT dễ sử dụng như vậy để giúp mọi người tạo các hiệu ứng nghệ thuật và hiệu ứng văn bản rất tốt. Nhưng đến năm 2015 và 2016, chúng tôi không dám tưởng tượng mình có thể đạt được trình độ như hiện nay. Vào thời điểm đó, hầu hết các đồng nghiệp của chúng tôi đều đến từ DeepMind của Google, họ có kinh nghiệm thực tế nhưng tư duy của họ tương đối hạn hẹp và gò bó, khi đó, chúng tôi đã tiến hành hơn 100 thử nghiệm và so sánh khác nhau trong nội bộ.
Vào thời điểm đó, tôi nảy ra một ý tưởng đặc biệt thú vị đối với tôi, đó là cung cấp cho máy móc một loại khả năng học tập không giám sát, mặc dù ngày nay chúng ta coi đó là điều hiển nhiên, bạn có thể huấn luyện mọi thứ bằng các mô hình ngôn ngữ tự nhiên. Nhưng vào năm 2016, khả năng học không giám sát vẫn là một bài toán chưa có lời giải, và không nhà khoa học nào có kinh nghiệm và hiểu biết sâu sắc liên quan. Tôi nghĩ "nén dữ liệu" là một nút cổ chai kỹ thuật, từ này không phổ biến, nhưng trên thực tế, ChatGPT đã nén tập dữ liệu đào tạo của chúng tôi. Nhưng cuối cùng, chúng tôi đã tìm ra một mô hình toán học cho phép chúng tôi nén dữ liệu thông qua đào tạo liên tục, đây thực sự là một thách thức đối với tập dữ liệu. Đây là một ý tưởng mà tôi đặc biệt thích thú, và nó đã thành hiện thực tại Open AI.
Trên thực tế, những thành tựu như vậy có thể không phổ biến lắm ngoài machine learning, nhưng điều tôi muốn nói là kết quả công việc của tôi là đào tạo mạng lưới thần kinh.
Chúng tôi muốn có thể đào tạo một mạng lưới thần kinh để dự đoán từ tiếp theo. Tôi nghĩ đơn vị của nơ-ron tiếp theo sẽ liên quan chặt chẽ với toàn bộ mạng nơ-ron thị giác của chúng ta. Điều này rất thú vị và điều này phù hợp với phương pháp xác minh của chúng tôi. Nó một lần nữa chứng minh rằng dự đoán về ký tự tiếp theo và dữ liệu tiếp theo có thể giúp chúng ta khám phá logic của dữ liệu hiện có, đó là logic của đào tạo ChatGPT.
Jen-Hsun Huang: Mở rộng quy mô dữ liệu là để giúp chúng tôi cải thiện hiệu suất của các khả năng AI. Nhiều dữ liệu hơn và bộ dữ liệu lớn hơn có thể giúp AI tổng hợp đạt được kết quả tốt hơn. Bạn có nghĩ rằng sự phát triển của GPT-1, GPT-2 và GPT-3 phù hợp với Định luật Moore không?
Ilya Sutskevi: Một trong những mục tiêu của OpenAI là giải quyết vấn đề mở rộng tập dữ liệu, nhưng vấn đề chúng tôi đang gặp phải là làm thế nào để cải thiện độ chính xác cao của dữ liệu để mô hình có thể đạt được những dự đoán chính xác. Khi chúng tôi làm dự án Open AI, chúng tôi hy vọng rằng nó có thể thực hiện một số trò chơi chiến lược trong thời gian thực, chẳng hạn như các trò chơi thể thao cạnh tranh, phải đủ nhanh, đủ thông minh và cạnh tranh với các đội khác. Là một mô hình AI, nó thực sự lặp lại quá trình học tăng cường như vậy dựa trên phản hồi của con người.
Jensen Huang: Làm cách nào để bạn tinh chỉnh việc học tăng cường mang lại phản hồi cho con người? Có hệ thống phụ nào khác cung cấp cho ChatGPT nền tảng kiến thức nhất định để hỗ trợ hiệu suất của ChatGPT không?
Ilya Sutskevi: Tôi có thể giải thích với bạn rằng nguyên tắc làm việc của chúng tôi là liên tục huấn luyện hệ thống mạng thần kinh và để mạng thần kinh dự đoán từ tiếp theo. Dựa trên các văn bản chúng tôi đã thu thập trong quá khứ, ChatGPT không chỉ tự học một cách hời hợt, chúng tôi hy vọng rằng nó có thể đạt được một thỏa thuận logic nhất định giữa các từ dự đoán hiện tại và các từ trong quá khứ. Văn bản quá khứ thực sự được sử dụng để chiếu lên dự đoán của từ tiếp theo.
Từ góc độ mạng thần kinh, nó giống như đưa ra kết luận dựa trên các khía cạnh khác nhau của thế giới, dựa trên hy vọng, ước mơ và động lực của mọi người. Nhưng mô hình của chúng tôi chưa đạt được hiệu quả như mong muốn, chẳng hạn như chúng tôi chọn ngẫu nhiên một vài câu từ Internet để làm lời tựa, trên cơ sở đó ChatGPT có thể viết một bài báo logic mà không cần đào tạo thêm. Thay vì chỉ đơn giản là học AI dựa trên kinh nghiệm của con người, chúng tôi sẽ học tăng cường dựa trên phản hồi của con người. Phản hồi của con người rất quan trọng và càng nhiều phản hồi càng làm cho AI trở nên đáng tin cậy hơn.
Jensen Huang: Bạn có thể hướng dẫn AI làm một số việc nhất định, nhưng liệu bạn có thể yêu cầu AI không làm một số việc nhất định không? Ví dụ, cho AI biết ranh giới ở đâu?
Ilya-Sutskevi: Vâng. Tôi nghĩ rằng trình tự đào tạo của giai đoạn thứ hai là giao tiếp với AI và mạng lưới thần kinh, chúng ta càng đào tạo AI nhiều thì độ chính xác của AI sẽ càng cao và nó sẽ phù hợp hơn với ý định của chúng ta. Khi chúng tôi tiếp tục cải thiện tính trung thành và độ chính xác của AI, nó sẽ trở nên đáng tin cậy hơn, chính xác hơn và phù hợp hơn với logic của xã hội loài người.
Jensen Huang: ChatGPT đã ra mắt cách đây vài tháng và là phần mềm và ứng dụng phát triển nhanh nhất trong lịch sử loài người. Nhiều người sẽ đưa ra nhiều lời giải thích khác nhau, một số người sẽ nói rằng cho đến nay đây là ứng dụng dễ sử dụng nhất. Ví dụ, chế độ tương tác của nó rất đơn giản, nó vượt quá mong đợi của mọi người. Mọi người không cần học cách sử dụng ChatGPT, chỉ cần đưa ra các lệnh ChatGPT và thực hiện các lời nhắc khác nhau. Nếu lời nhắc của bạn không đủ rõ ràng, ChatGPT sẽ tiếp tục làm cho lời nhắc của bạn rõ ràng hơn, sau đó nhìn lại và hỏi xem bạn có muốn điều này không? Quá trình học sâu như vậy làm tôi ngạc nhiên.
Chúng tôi đã thấy hiệu suất của GPT-4 cách đây vài ngày và hiệu suất của nó trong nhiều lĩnh vực thật đáng kinh ngạc, nó có thể vượt qua kỳ thi SAT, kỳ thi thanh và có thể đạt được hiệu suất con người rất cao. Điều tôi muốn hỏi là GPT-4 có cải tiến gì? Và bạn nghĩ nó sẽ giúp mọi người tiến bộ hơn ở những khía cạnh và lĩnh vực nào?
Ilya-Sutskevi: GPT-4 đã có nhiều cải tiến dựa trên hiệu suất của ChatGPT trong quá khứ. Quá trình đào tạo của chúng tôi về GPT-4 đã bắt đầu cách đây khoảng 6-8 tháng. Điểm khác biệt quan trọng nhất giữa GPT-4 và phiên bản GPT trước đó là GPT-4 dự đoán từ tiếp theo dựa trên độ chính xác chính xác hơn vì có các mạng thần kinh tốt hơn để giúp dự đoán.
Ví dụ, nếu bạn đang đọc một cuốn tiểu thuyết trinh thám, trong cuốn tiểu thuyết có nhiều nhân vật và cốt truyện khác nhau, có những căn phòng bí mật và những điều bí ẩn, và bạn không biết điều gì sẽ xảy ra tiếp theo trong quá trình đọc cuốn tiểu thuyết trinh thám. Thông qua các nhân vật và cốt truyện khác nhau trong tiểu thuyết, bạn có nhiều khả năng để dự đoán kẻ giết người.Những gì GPT-4 làm giống như một cuốn tiểu thuyết bí ẩn.
Huang Renxun: Nhiều người sẽ nói rằng học sâu sẽ mang lại lý luận, nhưng học sâu sẽ không mang lại kiến thức. Làm thế nào để mô hình ngôn ngữ học lý luận và logic? Có một số tác vụ mà ChatGPT và GPT-3 không đủ tốt nhưng GPT-4 lại làm tốt hơn. GPT-4 còn những khiếm khuyết gì, có thể tiếp tục củng cố trong phiên bản tiếp theo?
Ilya Sutskevi: Giờ đây, ChatGPT có thể xác định logic và lập luận chính xác hơn, đồng thời nhận được câu trả lời tốt hơn trong quá trình giải mã tiếp theo thông qua logic và lập luận tốt hơn. Mạng nơ-ron có thể gặp một số thách thức, chẳng hạn như để mạng nơ-ron phá vỡ chế độ tư duy vốn có, nghĩa là chúng ta phải nghĩ xem mạng nơ-ron có thể đi bao xa, tóm lại là mạng nơ-ron có bao nhiêu tiềm năng.
Chúng tôi cho rằng khả năng suy luận của GPT vẫn chưa đạt đến mức mà chúng tôi mong đợi trước đây, nếu chúng tôi tiếp tục mở rộng cơ sở dữ liệu và duy trì mô hình hoạt động kinh doanh trước đây, khả năng suy luận của GPT sẽ được cải thiện hơn nữa, tôi càng tự tin hơn về điều này.
Jen-Hsun Huang: Một điểm đặc biệt thú vị khác là nếu bạn hỏi ChatGPT một câu hỏi, nó sẽ cho bạn biết câu trả lời cho câu hỏi này dựa trên kiến thức và kinh nghiệm trong quá khứ, cũng như dựa trên bản tóm tắt kiến thức và cơ sở dữ liệu trong quá khứ của nó, như cũng như câu trả lời và hiển thị một số logic. Tôi nghĩ ChatGPT có một tài sản tự nhiên, nó có thể tiếp tục hiểu.
Ilya Sutskevi: Đúng, mạng nơ-ron có những khả năng này, nhưng đôi khi chúng không đáng tin cậy và đây là trở ngại lớn nhất tiếp theo đối với mạng nơ-ron. Trong nhiều trường hợp, mạng nơ-ron sẽ phóng đại hơn, sẽ mắc rất nhiều lỗi, thậm chí mắc một số lỗi mà con người hoàn toàn không thể mắc phải. Bây giờ chúng ta cần nghiên cứu thêm để giải quyết những "sự không đáng tin cậy" này.
Bây giờ mô hình GPT-4 đã được phát hành công khai, nó thực sự không có khả năng theo dõi mô hình dữ liệu, khả năng của nó là dự đoán từ tiếp theo dựa trên văn bản, vì vậy nó có những hạn chế. Tôi nghĩ rằng một số người có thể yêu cầu GPT-4 tìm ra nguồn gốc của một số dữ liệu và sau đó điều tra sâu hơn về nguồn gốc của dữ liệu.
Nhìn chung, mặc dù GPT-4 không hỗ trợ thu thập dữ liệu nội bộ nhưng chắc chắn nó sẽ trở nên chính xác hơn với việc khai thác dữ liệu liên tục. GPT-4 đã có thể học hỏi từ hình ảnh và phản hồi dựa trên đầu vào là hình ảnh và nội dung.
Jensen Huang: Học tập đa phương thức giúp GPT-4 hiểu sâu hơn về thế giới như thế nào? Tại sao học tập đa phương thức xác định GPT và OpenAI?
Ilya-Sutskevi: Tính đa phương thức rất thú vị:
Đầu tiên, đa phương thức đặc biệt hữu ích trong nhận dạng hình ảnh và tầm nhìn. Bởi vì cả thế giới đều do hình ảnh tạo thành, con người cũng là động vật thị giác, động vật cũng là động vật thị giác, 1/3 chất xám trong não người là dùng để xử lý hình ảnh, GPT-4 cũng có thể hiểu được những hình ảnh này.
Thứ hai, sự hiểu biết về thế giới thông qua hình ảnh hay từ ngữ là như nhau, đó cũng là một trong những lập luận của chúng tôi. Ở quy mô con người, con người chúng ta có lẽ chỉ nói được một tỷ từ trong đời.
Jensen Huang: Một bức tranh gồm 1 tỷ từ hiện lên trong đầu tôi, có bao nhiêu từ?
Ilya Sutskevi: Vâng, chúng tôi có thể tính toán một người sống bao lâu và có thể xử lý bao nhiêu từ trong một giây. Sự khác biệt giữa con người và mạng lưới thần kinh là trong quá khứ, nếu chúng ta có vốn từ vựng cấp tỷ tỷ không thể hiểu được đối với văn bản, thì chúng ta có thể sử dụng từ vựng cấp tỷ tỷ để hiểu nó. Kiến thức và thông tin của chúng ta về thế giới có thể từ từ xâm nhập vào mạng lưới thần kinh của AI thông qua văn bản. Nếu bạn thêm nhiều yếu tố như hình ảnh trực quan, mạng lưới thần kinh có thể học chính xác hơn.
Huang Renxun: Đối với việc học sâu văn bản và hình ảnh, nếu chúng ta muốn trí tuệ nhân tạo hiểu logic đằng sau nó, hoặc thậm chí phóng đại, thì đó là hiểu các nguyên tắc cơ bản của thế giới - chẳng hạn như cách chúng ta diễn đạt một câu trong cuộc sống hàng ngày. cuộc sống, chẳng hạn như Người ta nói rằng một từ thực sự có hai nghĩa và sự thay đổi cao độ của giọng nói thực sự thể hiện hai âm điệu khác nhau. Về ngôn ngữ nói và ngữ điệu, nó có giúp AI hiểu văn bản không?
Ilya-Sutskevi: Vâng, những tình huống như bạn đã đề cập là rất quan trọng. Một nguồn thông tin quan trọng về lời nói và ngữ điệu, bao gồm cả âm lượng và âm điệu của giọng nói.
Jen-Hsun Huang: GPT-4 tiến bộ hơn GPT-3 ở nội dung nào, bạn có thể cho ví dụ được không?
Ilya Sutskevi: Ví dụ, trong một số cuộc thi toán học (như cuộc thi toán học ở trường trung học), nhiều câu hỏi cần được trả lời bằng sơ đồ. GPT-3.5 đặc biệt kém trong việc diễn giải biểu đồ, trong khi GPT-4 chỉ cần văn bản để diễn giải và tỷ lệ chính xác đã được cải thiện rất nhiều.
Huang Renxun: Bạn đã đề cập trước đó rằng AI có thể tạo ra nhiều văn bản khác nhau để huấn luyện một AI khác. Ví dụ: có tổng cộng 20 nghìn tỷ đơn vị đếm ngôn ngữ khác nhau trong tất cả các ngôn ngữ để đào tạo mô hình ngôn ngữ, vậy việc đào tạo mô hình ngôn ngữ này là gì? AI có thể tạo dữ liệu chỉ dành cho AI để tự đào tạo không? Hình thức này dường như là một mô hình khép kín, giống như con người chúng ta rèn luyện bộ não của chính mình bằng cách không ngừng học hỏi thế giới bên ngoài, tự suy ngẫm và giải quyết vấn đề. Bạn nghĩ gì về quá trình tạo tổng hợp như vậy và khả năng tự học, tự đào tạo của AI?
Ilya-Sutskevi: Tôi sẽ không đánh giá thấp dữ liệu đã tồn tại trong phần này và tôi thậm chí còn nghĩ rằng có nhiều dữ liệu hơn chúng ta nhận ra trong đó.
Huang Renxun: Vâng, đây là những gì chúng tôi đang nghĩ về tương lai mà chúng tôi không ngừng hướng tới. Tôi tin rằng một ngày nào đó, AI sẽ có thể tạo ra nội dung, tự học và tự cải thiện. Bạn có thể tóm tắt chúng ta đang ở giai đoạn phát triển nào không? Và loại tình huống nào mà trí tuệ nhân tạo của chúng ta có thể đạt được trong tương lai không xa? Tương lai cho các mô hình ngôn ngữ lớn là gì?
Ilya Sutskevi: Tôi rất khó dự đoán tương lai. Những gì chúng tôi có thể làm là tiếp tục làm điều này và chúng tôi sẽ cho mọi người thấy những phiên bản tuyệt vời hơn của hệ thống. Chúng tôi mong muốn nâng cao độ tin cậy của dữ liệu để hệ thống thực sự lấy được lòng tin của người dân. Nếu bạn để AI tổng quát tóm tắt một số văn bản, rồi rút ra kết luận. Hiện tại, trong quá trình giải thích văn bản này, AI chưa xác minh đầy đủ tính xác thực của văn bản và nguồn thông tin được nói trong văn bản, điều này rất quan trọng. Tiếp theo, tầm nhìn của chúng tôi cho tương lai là làm cho mạng thần kinh nhận thức được tính xác thực của tất cả các nguồn dữ liệu và làm cho mạng thần kinh nhận thức được nhu cầu của người dùng trong từng bước.
Huang Renxun: Công nghệ này hy vọng sẽ cho mọi người thấy độ tin cậy cao hơn. Tôi có một câu hỏi cuối cùng, khi bạn lần đầu tiên sử dụng ChatGPT-4, màn trình diễn nào khiến bạn cảm thấy tuyệt vời và sửng sốt?
Ilya Sutskevi: So với phiên bản trước của ChatGPT, mạng thần kinh chỉ có thể trả lời các câu hỏi và đôi khi hiểu sai câu hỏi và câu trả lời không lý tưởng. Nhưng GPT-4 về cơ bản không hiểu sai vấn đề nữa, nó sẽ giải quyết vấn đề một cách nhanh hơn và nó có thể xử lý các tác vụ phức tạp và khó khăn, điều này rất có ý nghĩa với tôi. Ví dụ, nhiều người nhận ra rằng ChatGPT có thể làm thơ, chẳng hạn, nó có thể viết những bài thơ ám chỉ, và nó cũng có thể viết những bài thơ có vần cuối. Và nó có thể giải thích trò đùa và hiểu ý nghĩa đằng sau trò đùa. Trong thực tế, trong ngắn hạn, độ tin cậy của nó là tốt hơn.
Tôi đã làm việc trong ngành này hơn 20 năm và tôi nghĩ rằng đặc điểm của "tuyệt vời" là ý nghĩa của sự tồn tại của chính nó và nó có thể mang lại sự giúp đỡ cho con người. Nó đã dần dần phát triển từ những khởi đầu khiêm tốn trong lĩnh vực công việc để ngày càng trở nên mạnh mẽ hơn. Cùng một mạng lưới thần kinh, được đào tạo theo hai cách khác nhau, có thể ngày càng phát triển mạnh mẽ hơn. Tôi cũng thường thắc mắc và thở dài: Làm thế nào mà các mạng lưới thần kinh này phát triển nhanh như vậy? Chúng ta có cần đào tạo thêm không? Liệu nó có tiếp tục phát triển như não người? Điều này khiến tôi cảm nhận được sự vĩ đại của nó, hoặc những khía cạnh đặc biệt đáng ngạc nhiên của nó.
Huang Renxun: Nhìn lại, chúng ta đã biết nhau từ lâu, bạn đã cống hiến cả sự nghiệp của mình cho sự nghiệp này và thấy rằng bạn đã đạt được thành tích trong GPT và AI. Giao tiếp với bạn ngày hôm nay khiến tôi hiểu rõ hơn về logic hoạt động của ChatGPT, đó là sự giải thích sâu sắc và nghệ thuật nhất về ChatGPT và OpenAI. Rất vui được giao tiếp với bạn ngày hôm nay, cảm ơn bạn!





