Podcast chính thức đầu tiên của OpenAI: Sam Altman tiết lộ thông tin chi tiết về GPT-5, Stargate và phần cứng AI thế hệ tiếp theo

Bài viết này được dịch máy
Xem bản gốc
“Quyền riêng tư phải là nguyên tắc cốt lõi khi sử dụng AI.”

Sắp xếp: Mới

Vào ngày 19 tháng 6, OpenAI chính thức phát hành podcast đầu tiên, trong đó, CEO Sam Altman đã trả lời một cách có hệ thống lần đầu tiên cho một loạt câu hỏi về tốc độ phát triển của GPT-5, dự án Stargate, sự phát triển của thiết bị đầu cuối AI thế hệ tiếp theo, tranh cãi về khả năng bộ nhớ sê-ri và sự phát triển của cấu trúc xã hội sau khi AGI xuất hiện.

Altman đã nói về trải nghiệm thực tế của mình khi sử dụng AI trong việc nuôi dạy con cái và giáo dục với tư cách là một "người cha mới". Ông cũng tiết lộ sự lựa chọn cốt lõi mà OpenAI đang phải đối mặt theo quan điểm của một người ra quyết định của công ty: làm thế nào để duy trì sự cân bằng giữa những bước nhảy vọt về công nghệ, ranh giới quyền riêng tư và cấu trúc tin cậy.

"Con cái tôi sẽ không bao giờ thông minh hơn AI, nhưng chúng sẽ lớn lên và mạnh mẽ hơn nhiều so với thế hệ của chúng ta." Altman thừa nhận trong chương trình rằng thế hệ trẻ em này sẽ lớn lên trong một thế giới mà AI đã hoàn toàn xâm nhập, và sự phụ thuộc của chúng vào, sự hiểu biết và tương tác với các hệ thống thông minh sẽ tự nhiên như thói quen sử dụng điện thoại thông minh của thế hệ trước. Nhân vật mới của các mô hình như ChatGPT trong tình bạn gia đình và khai sáng kiến ​​thức đã mở ra một mô hình mới cho việc nuôi dạy con cái, giáo dục, công việc và phát triển sự sáng tạo.

AI đang trở thành hoàn cảnh phát triển cho thế hệ tiếp theo

Altman đề cập rằng mặc dù xã hội vẫn chưa hình thành được một định nghĩa thống nhất, "mỗi năm, ngày càng có nhiều người cho rằng chúng ta đã đạt đến hệ thống AGI". Theo quan điểm của ông, nhu cầu về phần cứng và phần mềm của công chúng đang thay đổi cực kỳ nhanh chóng và sức mạnh tính toán hiện tại còn lâu mới đáp ứng được nhu cầu tiềm năng.

Khi cuộc trò chuyện chuyển sang vai trò làm cha mới của Altman, anh thừa nhận rằng ChatGPT đã hỗ trợ rất nhiều trong giai đoạn đầu nuôi dạy con cái. "Mặc dù nhiều người có thể nuôi dạy con cái tốt mà không cần ChatGPT, nhưng tôi không chắc mình có thể làm được." Sau vài tuần đầu tiên "hỏi về mọi thứ", anh dần tập trung các câu hỏi của mình vào nhịp độ phát triển và thói quen hành vi của em bé. Anh chỉ ra rằng loại công cụ AI này đã bắt đầu đảm nhận nhân vật"trung gian thông tin" và "tạo sự tự tin" trong việc nuôi dạy con cái.

Không chỉ vậy, Altman còn suy nghĩ về tác động của AI lên con đường phát triển của thế hệ tiếp theo. Ông nói thẳng thắn rằng "Con cái tôi sẽ không bao giờ thông minh hơn AI, nhưng chúng sẽ lớn lên và mạnh mẽ hơn nhiều so với thế hệ của chúng ta". Ông nhấn mạnh rằng thế hệ trẻ em này sẽ tự nhiên lớn lên trong một hoàn cảnh AI ở khắp mọi nơi, và sự phụ thuộc và tương tác của chúng với AI sẽ tự nhiên như điện thoại thông minh trong thập kỷ qua.

Altman đã chia sẻ một câu chuyện được lan truyền trên mạng xã hội: Để tránh lặp lại cốt truyện của "Thomas the Tank Engine" với con mình, một người cha đã nhập nhân vật vào chế độ giọng nói của ChatGPT và đứa trẻ đã nói chuyện với nhân vật đó trong hơn một giờ. Hiện tượng này khiến Altman vô cùng lo lắng: việc mở rộng AI trong nhân vật bạn đồng hành có thể gây ra sự xa lánh của "các mối quan hệ bán xã hội", điều này sẽ đặt ra những thách thức mới cho cấu trúc xã hội. Ông nhấn mạnh rằng xã hội cần thiết lập lại ranh giới của mình, nhưng cũng chỉ ra rằng xã hội luôn tìm ra phương pháp để đối phó với tác động của các công nghệ mới trong lịch sử .

Trong lĩnh vực giáo dục, Altman đã quan sát thấy tiềm năng tích cực của ChatGPT trong lớp học. "Với giáo viên giỏi và khóa học tốt, ChatGPT hoạt động rất tốt", nhưng ông cũng thừa nhận rằng khi học sinh sử dụng nó một mình để làm bài tập về nhà, nó dễ dàng thoái hóa thành "sao chép theo kiểu Google". Ông trích dẫn kinh nghiệm của chính mình làm ví dụ, chỉ ra rằng mọi người cũng lo lắng rằng "ông ấy chỉ biết Google", nhưng cuối cùng họ thấy rằng cả trẻ em và trường học đều có thể nhanh chóng thích nghi với những thay đổi do công cụ mới mang lại.

Khi được hỏi về diện mạo của ChatGPT trong năm năm tới, Altman cho biết, "ChatGPT trong năm năm tới sẽ trở thành một cái gì đó hoàn toàn khác biệt." Mặc dù tên gọi có thể vẫn giữ nguyên, nhưng khả năng, phương thức tương tác và định vị của nó sẽ thay đổi cơ bản.

AGI là một định nghĩa năng động và khả năng của Deep Research đang tiến triển vượt bậc

Khi nói về thuật ngữ thông dụng trong ngành "AGI", Sam Altman đã đưa ra lời giải thích năng động hơn. Ông chỉ ra rằng, "Nếu bạn hỏi tôi hoặc ai đó cách đây năm năm để định nghĩa AGI dựa trên khả năng nhận thức của phần mềm tại thời điểm đó, thì định nghĩa được đưa ra tại thời điểm đó đã bị vượt qua xa ngày nay". Khi trí thông minh của mô hình tiếp tục tăng lên, tiêu chuẩn của AGI liên tục được nâng cao, cho thấy trạng thái "tiến bộ năng động".

Ông nhấn mạnh rằng có những hệ thống có thể cải thiện đáng kể hiệu quả công việc của con người và thực hiện nhiệm vụ có giá trị kinh tế. Điều thực sự đáng để hỏi là: loại hệ thống nào có thể được gọi là "siêu trí tuệ"? Theo ông, những hệ thống có khả năng thực hiện các khám phá khoa học tự chủ hoặc có thể cải thiện đáng kể hiệu quả của các khám phá khoa học của con người đều gần với tiêu chuẩn này. "Đây sẽ là một điều rất tốt cho thế giới."

Phán đoán này cũng đã được phản ánh trong OpenAI. Andrew Mane nhớ lại rằng khi họ thử GPT-4, họ cảm thấy rằng "một thập kỷ khám phá không gian đã được mở ra". Đặc biệt, khoảnh khắc mô hình có thể tự gọi mình và chứng minh khả năng suy luận sơ bộ đã khiến mọi người nhận ra khả năng của một giai đoạn mới.

Altman đồng ý với điều này và chỉ ra thêm: "Tôi luôn tin rằng động lực cốt lõi để cải thiện chất lượng cuộc sống của con người là tốc độ tiến bộ khoa học". Sự chậm chạp của khám phá khoa học là yếu tố cơ bản hạn chế sự phát triển của con người và tiềm năng của AI về mặt này vẫn chưa được phát huy đầy đủ. Mặc dù ông thừa nhận rằng mình vẫn chưa nắm vững toàn bộ con đường "nghiên cứu khoa học tự động AI", nhưng sự tự tin đội ngũ nghiên cứu vào hướng tiến bộ đang tăng lên nhanh chóng. Ông chia sẻ rằng từ GPT-4.0.1 đến GPT-4.0.3, cứ vài tuần lại có thể đề xuất một ý tưởng then chốt mới và hầu như tất cả chúng đều có hiệu quả. Nhịp điệu này rất thú vị và khẳng định niềm tin rằng "những đột phá sẽ đến đột ngột".

Andrew Mane nói thêm rằng OpenAI gần đây đã chuyển mô hình mặc định sang GPT-4.0.3 và trong đó cập nhật quan trọng nhất là việc giới thiệu chế độ Operator. Theo ông, nhiều hệ thống Agentic trong quá khứ, mặc dù có nhiều hứa hẹn, nhưng không đủ "chống mong manh" và bị sập khi gặp phải bất thường. Hiệu suất của GPT-4.0.3 rất khác biệt. Altman trả lời rằng "nhiều người nói với tôi rằng họ cảm thấy khoảnh khắc đột phá của AGI là chế độ Operator của GPT-4.0.3". Mặc dù bản thân ông không có cảm giác đặc biệt mạnh mẽ, nhưng phản hồi từ người dùng bên ngoài rất đáng để chú ý.

Hai người tiếp tục thảo luận về các khả năng mới do "Nghiên cứu độ sâu" mang lại. Andrew cho biết khi anh sử dụng công cụ này để nghiên cứu Marshall McLuhan, AI có thể tìm kiếm, lọc và sắp xếp các tài liệu trực tuyến và tạo ra một gói dữ liệu hoàn chỉnh, hiệu quả hơn so với nghiên cứu thủ công. Anh cũng đã phát triển một ứng dụng để tạo tệp âm thanh từ các câu hỏi để đáp ứng nhu cầu của "bộ nhớ hạn chế nhưng tò mò mạnh mẽ".

Sau đó, Altman chia sẻ một tình huống sử dụng cực đoan khác: một "người nghiện học" đã sử dụng Nghiên cứu sâu để tạo ra báo cáo đầy đủ về nhiều chủ đề quan tâm, ngồi đó cả ngày để đọc, đặt câu hỏi và lặp lại, hoàn toàn đắm chìm trong chu trình học tập do AI thúc đẩy.

Mặc dù Altman tuyên bố rằng ông không thể tận dụng hết các công cụ này do hạn chế về thời gian, ông vẫn sẵn sàng ưu tiên đọc nội dung do Deep Research tạo ra trong thời gian hạn chế của mình.

Khi các chức năng tiếp tục được cải tiến và các kịch bản của người dùng ngày càng đa dạng, sự chú ý của thế giới bên ngoài đối với thế hệ mô hình tiếp theo cũng tăng lên. Andrew trực tiếp nêu ra câu hỏi mà người dùng quan tâm nhất: Khi nào GPT-5 sẽ được phát hành? Altman trả lời, "Có thể là mùa hè này, nhưng tôi không chắc chắn về thời gian chính xác." Ông tiết lộ rằng công ty đang phải đối mặt với một vấn đề được thảo luận nhiều lần trong nội bộ: Phiên bản mới vẫn nên được phát hành dưới hình thức "rầm rộ" như trước đây hay nên tiếp tục lặp lại mà không đổi tên, giống như GPT-4.

Ông giải thích thêm rằng cấu trúc hệ thống mô hình ngày nay phức tạp hơn nhiều so với trước đây. Nó không còn là một quá trình tuyến tính "đào tạo một lần, ra mắt một lần", mà là một hệ thống động hỗ trợ tối ưu hóa liên tục. "Chúng tôi hiện đang suy nghĩ về câu hỏi này: nếu chúng tôi tiếp tục cập nhật GPT-5 sau khi phát hành, chúng tôi nên gọi nó là GPT-5.1, 5.2, 5.3 hay giữ nguyên tên GPT-5?" Sự khác biệt trong sở thích của người dùng cũng làm tăng tính phức tạp của việc ra quyết định: một số người dùng thích ảnh chụp nhanh và một số người dùng hy vọng sẽ tiếp tục cải thiện, nhưng ranh giới rất khó thống nhất.

Andrew chỉ ra rằng ngay cả những người có bối cảnh chuyên môn đôi khi cũng có thể nhầm lẫn về việc lựa chọn mẫu xe, chẳng hạn như nên sử dụng O3, O4 Mini, O4 Mini High, v.v. Sự không nhất quán trong tên gọi làm tăng thêm độ khó khi lựa chọn.

Để đáp lại, Altman đã đưa ra lời giải thích bối cảnh, nói rằng đây thực sự là "sản phẩm phụ của sự thay đổi mô hình". Hệ thống hiện tại có phần giống như chạy hai bộ kiến ​​trúc mô hình cùng một lúc, nhưng trạng thái hỗn loạn này sắp kết thúc. Ông nói thêm rằng mặc dù ông không loại trừ khả năng xuất hiện một mô hình mới trong tương lai, điều này có thể khiến hệ thống "chia tách" một lần nữa, "tôi vẫn mong muốn bước vào giai đoạn GPT-5 và GPT-6 sớm nhất có thể", khi người dùng không còn gặp rắc rối với việc đặt tên phức tạp và chuyển đổi mô hình nữa.

Bộ nhớ AI, cá nhân hóa và tranh cãi về quyền riêng tư

Nói về sự thay đổi trải nghiệm lớn nhất của ChatGPT gần đây, Sam Altman đã thẳng thắn chia sẻ: "Chức năng bộ nhớ có lẽ là tính năng mới mà tôi thích nhất của ChatGPT gần đây". Ông nhớ lại rằng khi lần đầu sử dụng GPT-3, cuộc trò chuyện với máy tính đã rất tuyệt vời, nhưng giờ đây mô hình có thể đưa ra phản hồi chính xác dựa trên bối cảnh của người dùng. Cảm giác "biết mình là ai" này là một bước nhảy vọt chưa từng có. Altman cho rằng AI đang mở ra một giai đoạn mới. Chỉ cần người dùng sẵn lòng, nó sẽ hiểu độ sâu về cuộc sống của người dùng và cung cấp "những câu trả lời cực kỳ hữu ích" dựa trên điều này.

Tuy nhiên, sự tiến hóa về mặt chức năng cũng đã gây ra những cuộc thảo luận phức tạp hơn ở cấp độ xã hội. Andrew Mane đã đề cập rằng tờ New York Times gần đây đã đệ đơn kiện OpenAI, yêu cầu tòa án buộc OpenAI phải lưu giữ dữ liệu người dùng ChatGPT sau thời hạn tuân thủ, điều này đã thu hút sự chú ý rộng rãi. Altman cho biết: "Chúng tôi chắc chắn sẽ phản đối yêu cầu này. Tôi hy vọng và tin rằng chúng tôi sẽ thắng." Ông chỉ trích bên kia vì tuyên bố coi trọng quyền riêng tư trong khi đưa ra các yêu cầu xuyên biên giới và chỉ ra rằng điều này chỉ làm lộ ra khoảng cách thể chế hiện tại liên quan đến AI và quyền riêng tư.

Theo quan điểm của Altman, mặc dù vụ kiện này đáng tiếc, nhưng nó cũng có ý nghĩa tích cực là "thúc đẩy xã hội thảo luận nghiêm túc về AI và quyền riêng tư". Ông nhấn mạnh rằng ChatGPT đã trở thành "đối tác trò chuyện riêng tư" trong cuộc sống hàng ngày của nhiều người dùng, điều đó có nghĩa là nền tảng này phải thiết lập các đảm bảo thể chế nghiêm túc hơn để đảm bảo thông tin nhạy cảm không bị lạm dụng. Ông nói thẳng: "Quyền riêng tư phải là nguyên tắc cốt lõi để sử dụng AI".

Cuộc thảo luận tiếp tục mở rộng sang việc sử dụng dữ liệu và khả năng quảng cáo. Andrew đặt câu hỏi liệu OpenAI có thể truy cập dữ liệu trò chuyện của người dùng hay không và liệu dữ liệu đó có được sử dụng cho mục đích đào tạo hay thương mại hay không. Đáp lại, Altman cho biết người dùng thực sự có thể chọn tắt việc sử dụng dữ liệu đào tạo và OpenAI vẫn chưa tung ra bất kỳ sản phẩm quảng cáo nào. Cá nhân ông không hoàn toàn phản đối quảng cáo, "Một số quảng cáo là tốt, ví dụ, tôi đã mua rất nhiều quảng cáo trên Instagram". Nhưng ông nhấn mạnh rằng trong các sản phẩm như ChatGPT, "sự tin tưởng" là nền tảng cực kỳ quan trọng.

Altman chỉ ra rằng phương tiện truyền thông xã hội và nền tảng tìm kiếm thường khiến mọi người cảm thấy "bị coi là hàng hóa" và nội dung dường như tồn tại để nhấn quảng cáo. Vấn đề về cấu trúc này là nguồn gốc của mối quan tâm rộng rãi của người dùng. Nếu đầu ra của các mô hình AI bị thao túng bởi giá thầu quảng cáo trong tương lai, thì đó sẽ là sự sụp đổ hoàn toàn của lòng tin. "Bản thân tôi cũng ghét điều đó."

Ngược lại, ông thích thiết lập một mô hình kinh doanh "rõ ràng, minh bạch và nhất quán": tức là người dùng trả tiền cho các dịch vụ chất lượng cao thay vì bị thao túng bởi các quảng cáo ẩn. Trong các điều kiện có thể kiểm soát được, ông không loại trừ việc khám phá các mô hình như "hoa hồng nền tảng sau khi nhấn" trong tương lai hoặc hiển thị một số quảng cáo thực tế ngoài nội dung đầu ra, nhưng tiền đề là nó sẽ không bao giờ ảnh hưởng đến tính độc lập và độ tin cậy của đầu ra cốt lõi của mô hình.

Andrew bày tỏ mối quan tâm tương tự và lấy Google làm ví dụ. Ông cho rằng mô hình Gemini 1.5 là tuyệt vời, nhưng với tư cách là một công ty thúc đẩy quảng cáo, động lực cơ bản của Google khiến việc hoàn toàn yên tâm trở nên khó khăn. "Tôi không gặp vấn đề gì khi sử dụng API của họ, nhưng khi sử dụng chatbot, tôi luôn tự hỏi: Liệu nó có thực sự đứng về phía tôi không?"

Altman bày tỏ sự hiểu biết của mình và thừa nhận rằng ông cũng là một người dùng trung thành của Google Search. "Tôi thực sự thích Google Search." Mặc dù có nhiều quảng cáo, nhưng nó đã từng là "công cụ tốt nhất trên Internet". Tuy nhiên, các vấn đề về cấu trúc vẫn tồn tại. Ông ca ngợi mô hình của Apple và cho rằng"trả tiền cho sản phẩm để đổi lấy trải nghiệm sạch sẽ" là một logic lành mạnh. Ông cũng tiết lộ rằng Apple đã thử việc kinh doanh quảng cáo iAd, nhưng không thành công. Có lẽ về bản chất, họ không thích loại mô hình kinh doanh này.

Theo quan điểm của họ, người dùng cũng cần phải đưa ra phán đoán. "Nếu chúng ta thấy một sản phẩm đột nhiên "bị thúc đẩy rất mạnh" một ngày nào đó, chúng ta phải đặt thêm một câu hỏi nữa: Động lực đằng sau điều đó là gì?" Andrew nói. Altman nói thêm rằng bất kể OpenAI áp dụng mô hình kinh doanh nào trong tương lai, công ty phải luôn tuân thủ các nguyên tắc "cực kỳ trung thực, rõ ràng và minh bạch" để duy trì ranh giới tin cậy của người dùng đối với nền tảng.

Stargate, xây dựng cảnh quan năng lượng thông minh

Khi cuộc trò chuyện chuyển sang "Sự tiến hóa của mối quan hệ giữa AI và người dùng", Altman trước tiên đã xem xét các lỗi cấu trúc của kỷ nguyên truyền thông xã hội. Ông chỉ ra rằng "vấn đề nghiêm trọng nhất của các nền tảng xã hội là các mục tiêu không phù hợp của các thuật toán đề xuất - chúng chỉ muốn bạn ở lại lâu hơn, thay vì thực sự quan tâm đến những gì bạn cần". Rủi ro tương tự cũng có thể xuất hiện trong AI. Ông cảnh báo rằng nếu mô hình được tối ưu hóa để "chỉ phục vụ cho sở thích của người dùng", nó có vẻ thân thiện nhưng có thể làm suy yếu tính nhất quán và các nguyên tắc của hệ thống, điều này sẽ gây hại về lâu dài.

Độ lệch này đã được chứng minh rõ ràng trong DALL E 3. Andrew nhận thấy rằng việc tạo hình ảnh ban đầu có một vấn đề riêng biệt về phong cách đơn lẻ và mặc dù Altman không xác nhận cơ chế đào tạo của nó, ông thừa nhận khả năng này. Cả hai cho rằng thế hệ mô hình hình ảnh mới đã có những cải tiến đáng kể về chất lượng và tính đa dạng.

Thách thức lớn hơn đến từ nút thắt cổ chai của tài nguyên điện toán AI. Altman thừa nhận rằng vấn đề lớn nhất hiện nay là "chúng ta không có đủ tỷ lệ băm để mọi người sử dụng". Vì lý do này, OpenAI đã khởi động Dự án Stargate. Đây là một dự án xây dựng và tài trợ cơ sở hạ tầng tỷ lệ băm toàn cầu, mục tiêu là tích hợp vốn, công nghệ và tài nguyên hoạt động để tạo ra một nền tảng điện toán có quy mô chưa từng có.

"Logic cốt lõi của Stargate là đặt nền tảng tỷ lệ băm được kiểm soát chi phí cho các dịch vụ thông minh dành cho tất cả mọi người." Ông giải thích rằng không giống như bất kỳ thế hệ công nghệ nào trước đây, AI sẽ có nhu cầu về cơ sở hạ tầng rất lớn nếu muốn thực sự bao phủ hàng tỷ người dùng. Mặc dù OpenAI không có ngân sách 500 tỷ đô la trong tài khoản của mình, Altman vẫn tự tin vào việc triển khai dự án và hiệu suất của các đối tác, và tiết lộ rằng công trường xây dựng đầu tiên của họ đã bắt đầu, chiếm khoảng 10% tổng vốn đầu tư.

Ông đã bị sốc bởi trải nghiệm thực tế của mình: "Mặc dù tôi biết một trung tâm dữ liệu cấp gigawatt là như thế nào, nhưng khi tôi thực sự chứng kiến ​​hàng nghìn người xây dựng một phòng máy tính GPU, tôi nhận ra rằng sự phức tạp của hệ thống nằm ngoài sức tưởng tượng của tôi". Ông đã sử dụng phép so sánh "không ai có thể tự mình làm ra một cây bút chì" để nhấn mạnh phạm vi huy động của ngành công nghiệp đằng sau Stargate, từ khai thác, sản xuất, hậu cần đến gọi mô hình, tất cả đều là hiện thân cuối cùng của sự hợp tác kỹ thuật của con người trong hàng nghìn năm.

Đối diện những nghi ngờ và sự can thiệp từ bên ngoài, Altman đã lần đầu tiên trả lời các báo cáo rằng Elon Musk đã cố gắng can thiệp vào dự án Stargate. Ông nói, "Tôi đã đưa ra một phán đoán sai lầm trước đây. Tôi nghĩ Elon sẽ không lợi dụng ảnh hưởng của chính phủ để tham gia vào cuộc cạnh tranh không lành mạnh". Ông hối hận về điều này và nhấn mạnh rằng hành vi như vậy không chỉ làm suy yếu lòng tin của ngành mà còn không có lợi cho sự phát triển chung của đất nước. May mắn thay, chính phủ không bị ảnh hưởng bởi điều đó và vẫn kiên định với lập trường hợp pháp của mình.

Ông hài lòng với bối cảnh cạnh tranh AI hiện tại. Trước đây, mọi người thường lo lắng về "kẻ thắng sẽ được tất cả", nhưng giờ đây, nhiều người nhận ra rằng đây là một sự đồng xây dựng sinh thái. "Sự ra đời của AI rất giống với phát minh ra bóng bán dẫn. Mặc dù ban đầu chỉ nằm trong tay một số ít người, nhưng cuối cùng nó sẽ hình thành nền tảng cho công nghệ của thế giới". Ông tin chắc rằng vô số công ty sẽ tạo ra các ứng dụng và việc kinh doanh tuyệt vời dựa trên nền tảng này, và AI về cơ bản là một "trò chơi có tổng dương".

Khi nói về các nguồn năng lượng cần thiết cho tỷ lệ băm, Altman nhấn mạnh "tất cả chúng". Cho dù đó là khí đốt tự nhiên, năng lượng mặt trời, năng lượng hạt nhân phân hạch hay công nghệ nhiệt hạch trong tương lai, OpenAI phải huy động mọi phương tiện để đáp ứng nhu cầu hoạt động quy mô cực lớn của các hệ thống AI. Ông chỉ ra rằng điều này đang dần phá vỡ ranh giới địa lý của năng lượng truyền thống. Các trung tâm đào tạo có thể được triển khai ở bất kỳ đâu trên thế giới với các nguồn lực và các thành tựu thông minh có thể được phổ biến với chi phí thấp thông qua Internet.

"Năng lượng truyền thống không thể được truyền đi toàn cầu, nhưng trí tuệ thì có thể." Theo quan điểm của ông, con đường "chuyển đổi năng lượng thành trí tuệ và sau đó đưa ra giá trị" này đang định hình lại toàn bộ bối cảnh năng lượng của con người.

Điều này cũng mở rộng sang lĩnh vực nghiên cứu khoa học. Andrew chỉ ra rằng Kính viễn vọng không gian James Webb đã tích lũy được một lượng dữ liệu khổng lồ, nhưng rất khó để xử lý do thiếu các nhà khoa học, dẫn đến lượng lớn"khám phá khoa học chưa phát triển". Về vấn đề này, Altman hình dung liệu có thể có một AI đủ thông minh trong tương lai để suy ra các định luật khoa học mới dựa trên dữ liệu hiện có mà không cần dựa vào các thí nghiệm mới hoặc thiết bị mới hay không?

Ông đề cập rằng ông đã từng nói đùa rằng OpenAI nên xây dựng accelerator hạt khổng lồ của riêng mình, nhưng sau đó ông nghĩ rằng có lẽ AI có thể giải quyết các vấn đề vật lý năng lượng cao theo một cách hoàn toàn khác. "Chúng tôi thực sự đã tích lũy được lượng lớn dữ liệu, nhưng vấn đề là chúng tôi vẫn chưa hiểu được giới hạn của chính trí thông minh."

Trong lĩnh vực khám phá thuốc, những trường hợp "bỏ lỡ điều đã biết" như vậy thường xuyên xảy ra hơn. Andrew đề cập rằng các loại thuốc như Orlistat đã được phát hiện vào những năm 1990, nhưng đã bị gác lại trong nhiều thập kỷ do quan điểm hạn chế và không được sử dụng lại cho đến ngày nay. Altman cho rằng"có thể có rất nhiều tài liệu khoa học bị lãng quên nhưng có giá trị như vậy, có thể dẫn đến những đột phá lớn với một chút hướng dẫn".

Altman bày tỏ sự quan tâm lớn đến kỳ vọng đối với thế hệ mô hình tiếp theo. Ông đề cập rằng Sora có thể hiểu được vật lý cổ điển, nhưng liệu nó có thể thúc đẩy khoa học lý thuyết sâu hơn hay không vẫn còn phải được xác minh. "Mô hình suy luận mà chúng tôi đang phát triển dự kiến ​​sẽ là chìa khóa để khám phá khả năng này."

Ông giải thích thêm về sự khác biệt giữa mô hình suy luận và sê-ri GPT hiện tại. "Lúc đầu, chúng tôi thấy rằng miễn là bạn bảo mô hình 'thực hiện từng bước', chất lượng câu trả lời sẽ được cải thiện đáng kể. Điều này cho thấy mô hình có một con đường lý luận tiềm năng." Mục tiêu của mô hình suy luận là tăng cường khả năng này theo cách có hệ thống và có cấu trúc, để mô hình có thể thực hiện "độc thoại nội tâm" giống như con người.

Andrew đã thêm ví dụ về Anthropic sử dụng “thời gian suy nghĩ” để đánh giá chất lượng mô hình. Altman cũng bày tỏ sự ngạc nhiên: “Tôi nghĩ người dùng ghét chờ đợi nhất. Nhưng thực tế là miễn là câu trả lời đủ tốt, mọi người đều sẵn sàng chờ đợi”.

Theo quan điểm của ông, đây là thời điểm mang tính bước ngoặt trong quá trình tiến hóa của AI: không còn là phản ứng máy móc theo đuổi tốc độ nữa mà là bước chuyển hướng tới các thực thể thông minh thực sự hiểu biết, lý luận và phát minh.

Thế hệ phần cứng tiếp theo và cuộc cách mạng về tiềm năng cá nhân

Về kế hoạch phần cứng của OpenAI, Andrew đã đề cập đến video hợp tác giữa Sam Altman và Jony Ive, và hỏi trực tiếp liệu thiết bị đã bước vào giai đoạn thử nghiệm hay chưa.

Altman thừa nhận rằng vẫn còn quá sớm. Ông cho biết OpenAI đã đặt ra một tiêu chuẩn chất lượng rất cao cho sản phẩm này và đó không phải là mục tiêu có thể đạt được trong thời gian ngắn. "Các máy tính chúng ta sử dụng hiện nay, cả phần cứng và phần mềm, về cơ bản vẫn được thiết kế cho một thế giới không có AI."

Ông chỉ ra rằng khi AI có thể hiểu được bối cảnh của con người và đưa ra quyết định hợp lý thay cho con người, cách con người tương tác với máy móc sẽ thay đổi hoàn toàn. "Bạn có thể muốn thiết bị trở nên nhạy cảm hơn, có thể nhận biết hoàn cảnh và hiểu được bối cảnh cuộc sống của bạn - bạn cũng có thể muốn nó hoàn toàn không có màn hình và bàn phím". Vì lý do này, họ đã khám phá các hình thức thiết bị mới và rất hào hứng với một số hướng đi.

Altman mô tả một mô hình tương tác mới - một AI thực sự hiểu người dùng và nắm bắt bối cảnh, có thể tham gia các cuộc họp thay mặt cho người dùng, hiểu nội dung, quản lý ranh giới thông tin, liên hệ với các bên liên quan và thúc đẩy thực hiện quyết định. Điều này sẽ đưa mối quan hệ giữa con người và thiết bị vào trạng thái cộng sinh mới. "Nếu bạn chỉ nói một câu và nó biết phải liên hệ với ai và hành động như thế nào, cách bạn sử dụng máy tính sẽ hoàn toàn khác."

Theo quan điểm của logic tiến hóa, ông cho rằng cách chúng ta tương tác với ChatGPT hiện tại vừa được "hình thành bởi hình dạng thiết bị" vừa "hình thành hình dạng thiết bị theo lượt". Cả hai đang trong quá trình tiến hóa liên tục và năng động.

Andrew chỉ ra thêm rằng sự phổ biến của điện thoại di động phần lớn là do khả năng tương thích của chúng với các tình huống "sử dụng công cộng (xem màn hình)" và "sử dụng riêng tư (cuộc gọi thoại)". Do đó, thách thức đối với các thiết bị mới cũng là: làm thế nào để "vừa riêng tư vừa phổ biến" trong nhiều tình huống khác nhau. Altman đồng ý với điều này. Ông lấy việc nghe nhạc làm ví dụ: sử dụng loa ở nhà và tai nghe trên phố, "sự phân chia công-tư" này là điều tự nhiên. Nhưng ông cũng nhấn mạnh rằng hình thức thiết bị mới vẫn cần theo đuổi tính linh hoạt mạnh mẽ hơn để trở thành thiết bị đầu cuối AI thực sự khả thi.

Khi được hỏi khi nào chúng ta có thể thấy sản phẩm trên thị trường, Altman không nói rõ thời gian cụ thể mà chỉ nói rằng "sẽ mất một thời gian", nhưng ông tin rằng cuối cùng nó sẽ "đáng để chờ đợi".

Cuộc trò chuyện tự nhiên chuyển sang lời khuyên của Altman dành cho những người trẻ tuổi. Ông cho biết lời khuyên chiến lược rõ ràng là: "Học cách sử dụng các công cụ AI". Theo ông, "thế giới đã nhanh chóng chuyển từ 'bạn nên học cách lập trình' cách đây vài năm sang 'bạn nên học cách sử dụng AI'". Và đây có thể vẫn chỉ là một quá trình chuyển đổi theo từng giai đoạn, và ông tin rằng "các kỹ năng chính" mới sẽ xuất hiện trong tương lai.

Ở cấp độ vĩ mô hơn, ông nhấn mạnh rằng nhiều khả năng theo truyền thống cho rằng"tài năng" hoặc "tính cách" thực sự có thể được đào tạo và học hỏi. Bao gồm khả năng phục hồi, khả năng thích ứng, khả năng sáng tạo và thậm chí là trực giác để nhận ra nhu cầu thực sự của người khác. "Mặc dù không dễ như thực hành ChatGPT, những khả năng mềm này có thể được đào tạo thông qua phương pháp- và chúng sẽ cực kỳ có giá trị trong thế giới tương lai."

Khi được hỏi liệu ông có đưa ra lời khuyên tương tự cho một người 45 tuổi không, Altman trả lời rõ ràng: về cơ bản là giống nhau. Học cách sử dụng AI tốt trong bối cảnh nghề nghiệp của chính mình là một thách thức chuyển giao kỹ năng phải được giải quyết ở mọi lứa tuổi.

Về những thay đổi về mặt tổ chức sau khi AGI xuất hiện, Andrew đã nêu ra một câu hỏi chung: "OpenAI đã mạnh mẽ như vậy, tại sao vẫn còn tuyển dụng?" Ông cho rằng rằng một số người đã lầm tưởng rằng AGI sẽ trực tiếp thay thế mọi thứ. Nhưng câu trả lời của Altman rất đơn giản: "Trong tương lai, chúng ta sẽ có nhiều nhân viên hơn, nhưng hiệu quả công việc của mọi người sẽ cao hơn nhiều so với trước kỷ nguyên AGI."

Ông nói thêm rằng đây là mục tiêu cốt lõi của tiến bộ công nghệ - không phải để thay thế con người, mà là để nâng cao đáng kể năng suất cá nhân. Công nghệ không phải là mục đích, mà là bậc thang dẫn đến tiềm năng cao hơn của con người.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận