Altman thừa nhận đã "gây ra sai lầm", tiết lộ rằng GPT-5.2 đã hy sinh khâu viết kịch bản để tập trung vào lập trình chất lượng cao, và chi phí sẽ giảm đi 100 lần vào năm tới, xác nhận rằng hệ thống này giờ đây có thể hoạt động vĩnh viễn.

avatar
36kr
01-27
Bài viết này được dịch máy
Xem bản gốc

Trong cộng đồng trí tuệ nhân tạo, mọi phát ngôn của Sam Altman đều được xem như một bản cập nhật cho "dự báo thời tiết" tương lai.

Tối qua, Altman đã đăng trên X rằng ông sẽ tổ chức một hội thảo trực tuyến để thu thập phản hồi và ý kiến ​​từ công chúng trước khi bắt đầu xây dựng thế hệ công cụ tiếp theo.

Vào lúc 8 giờ sáng giờ Bắc Kinh hôm nay, hội thảo do CEO của OpenAI, Sam Altman, khởi xướng đã bắt đầu theo đúng kế hoạch. Các doanh nhân, CTO, nhà khoa học và đại diện từ cộng đồng nhà phát triển thuộc nhiều ngành khác nhau đã đặt ra những câu hỏi trọng tâm và thiết thực nhất cho Altman về hình thức tương lai của trí tuệ nhân tạo, sự tiến hóa của mô hình, các tác nhân thông minh, tự động hóa nghiên cứu khoa học và các vấn đề an ninh.

Tại hội thảo, người đứng đầu OpenAI không chỉ phác thảo kế hoạch phát triển cho GPT-5 và các phiên bản tiếp theo, mà còn tiết lộ một thực tế mà tất cả các nhà phát triển và doanh nhân phải đối diện: chúng ta đang bước vào một thời kỳ thay đổi mạnh mẽ, nơi chi phí sở hữu trí tuệ cực kỳ thấp và các hình thức phần mềm đang chuyển từ "tĩnh" sang "tạo ra tức thời" .

Trọng tâm đầu tiên của cuộc họp là "sự bất đối xứng" trong hiệu năng của GPT-5. Một số nhà phát triển đã tinh ý nhận thấy rằng trong khi phiên bản mới cực kỳ mạnh mẽ về khả năng suy luận logic và lập trình so với GPT-4.5, thì khả năng diễn đạt bằng văn bản lại có vẻ hơi kém hơn. Altman đã thể hiện sự thẳng thắn tuyệt vời về vấn đề này.

Ông thừa nhận rằng OpenAI đã "sai lầm" trong việc ưu tiên khả năng viết trong quá trình phát triển GPT-5.2, bởi vì đội ngũ đã phân bổ nguồn lực tỷ lệ băm hạn chế cho chỉ báo trí tuệ cứng như suy luận, lập trình và kỹ thuật .

Theo quan điểm của Altman, trí thông minh là một "nguồn lực dễ uốn nắn", và một khi mô hình sở hữu công cụ suy luận hàng đầu, việc khôi phục khả năng viết chỉ là vấn đề thời gian. Sự "chuyên môn hóa" này thực chất phản ánh một trọng tâm chiến lược nhất định của OpenAI: trước tiên chinh phục cấp độ cao nhất của trí tuệ con người thông qua Định luật Tỷ lệ, và sau đó quay lại để hoàn thiện các chi tiết về thẩm mỹ và biểu đạt. Điều này có nghĩa là cuộc cạnh tranh giữa các mô hình trong tương lai sẽ không còn là cuộc cạnh tranh trên một chiều duy nhất, mà là một bài kiểm tra xem ai có thể đạt được "sự bình đẳng về trí tuệ" trên tất cả các chiều sớm hơn.

Nếu mức độ thông minh quyết định giới hạn tối đa, thì chi phí và tốc độ sẽ quyết định tỷ lệ thâm nhập của AI. Altman đã đưa ra một lời hứa rất ấn tượng tại hội nghị: đến cuối năm 2027, chi phí cho trí tuệ nhân tạo cấp độ GPT-5.2 sẽ giảm ít nhất 100 lần .

Tuy nhiên, tương lai "đủ rẻ để có thể đo lường" này không phải là điểm kết thúc.

Altman chỉ ra rằng một sự thay đổi tinh tế đang diễn ra trên thị trường: khát vọng tốc độ của các nhà phát triển đang vượt qua sự tập trung vào chi phí. Khi các tác nhân bắt đầu xử lý nhiệm vụ tầm xa với hàng chục bước, việc ra quyết định tự động phức tạp trở nên không khả thi nếu tốc độ đầu ra không thể tăng lên hơn một trăm lần. Với sự đánh đổi này, OpenAI có thể đưa ra hai hướng đi: một là "nước máy thông minh" cực kỳ rẻ tiền, và hướng còn lại là "bộ tăng cường trí thông minh" với phản hồi cực nhanh. Sự nhấn mạnh vào tốc độ này báo trước một bước nhảy vọt hoàn toàn từ hỏi đáp đơn giản sang lái xe tự động thời gian thực, tần số cao.

Trong bối cảnh chi phí sở hữu trí tuệ giảm mạnh và tốc độ phát triển tăng vọt, khái niệm phần mềm truyền thống đang dần sụp đổ. Altman đã đưa ra một viễn cảnh mong đợi Sự lật đổ : phần mềm của tương lai không nên tĩnh tại.

Trước đây, chúng ta quen với việc tải xuống các tệp Word hoặc Excel thông thường; trong tương lai, khi gặp một vấn đề cụ thể, máy tính sẽ trực tiếp viết một đoạn mã cho bạn, tạo ra một "ứng dụng theo yêu cầu" để giải quyết vấn đề đó. Mô hình "theo yêu cầu, dùng một lần" này sẽ định hình lại hoàn toàn hệ điều hành. Mặc dù chúng ta có thể giữ lại một số nút tương tác quen thuộc do thói quen, nhưng kiến ​​trúc logic cơ bản sẽ được cá nhân hóa cao độ. Các công cụ trong tay mỗi người sẽ phát triển cùng với sự tích lũy quy trình làm việc của họ, cuối cùng hình thành một hệ thống năng suất độc đáo, năng động và phát triển liên tục. Đây không chỉ đơn thuần là tùy chỉnh phần mềm, mà là tái cấu trúc các mối quan hệ sản xuất.

InfoQ đã dịch và tổng hợp những điểm chính của hội thảo này dành cho độc giả:

Câu hỏi: Ứng xử tác động của trí tuệ nhân tạo (AI) đối với xã hội và nền kinh tế tương lai là gì?

Sam Altman: Thành thật mà nói, rất khó để hiểu hết được sự chuyển đổi kinh tế ở quy mô này chỉ trong một năm. Nhưng tôi cho rằng nó sẽ trao quyền rất lớn cho mọi người: nó sẽ mang lại nguồn lực dồi dào, rào cản gia nhập thị trường thấp hơn và chi phí cực thấp để tạo ra những thứ mới, xây dựng các công ty mới và khám phá những tiến bộ khoa học mới.

Nếu tránh được những sai lầm lớn trong chính sách, trí tuệ nhân tạo (AI) sẽ đóng vai trò là "lực lượng cân bằng" trong xã hội, mang lại cơ hội thực sự cho những người từ lâu đã bị đối xử bất công. Tuy nhiên, tôi lo ngại rằng AI cũng có thể dẫn đến sự tập trung quyền lực và của cải quá mức, điều này phải là trọng tâm cốt lõi của việc hoạch định chính sách, và chúng ta phải kiên quyết tránh tình trạng này.

Câu hỏi: Tôi nhận thấy rằng GPT-4.5 từng là đỉnh cao về khả năng viết, nhưng gần đây hiệu suất viết của GPT-5 trong ChatGPT có vẻ hơi vụng về và khó đọc. Rõ ràng, GPT-5 mạnh hơn trong việc xử lý Agent (tác nhân thông minh), gọi công cụ và suy luận; nó dường như đã trở nên "chuyên biệt" hơn (ví dụ: cực kỳ mạnh về lập trình, nhưng chỉ ở mức trung bình về khả năng viết). Quan điểm của OpenAI về sự mất cân bằng khả năng này là gì?

Sam Altman: Thành thật mà nói, chúng tôi đã thực sự mắc sai lầm trong khâu viết mã. Chúng tôi hy vọng rằng các phiên bản GPT-5.x trong tương lai sẽ vượt trội hơn hẳn phiên bản 4.5 về khả năng viết mã.

Vào thời điểm đó, chúng tôi quyết định tập trung phần lớn nỗ lực vào "khả năng thông minh, suy luận, lập trình và kỹ thuật" của GPT-5.2 vì nguồn lực và băng thông có hạn, và đôi khi việc tập trung vào một khía cạnh có thể dẫn đến việc bỏ quên khía cạnh khác. Tuy nhiên, tôi tin chắc rằng tương lai thuộc về "các mô hình đa năng, chất lượng cao". Ngay cả khi bạn chỉ muốn nó viết mã, nó cũng cần sở hữu kỹ năng giao tiếp và diễn đạt xuất sắc, có khả năng truyền đạt rõ ràng và sắc bén. Chúng tôi cho rằng"trí thông minh" về cơ bản là có mối liên hệ mật thiết với nhau, và chúng tôi có khả năng tối đa hóa tất cả các khía cạnh này trong một mô hình duy nhất. Hiện tại, chúng tôi đang tập trung mạnh vào "trí thông minh lập trình", nhưng chúng tôi sẽ sớm bắt kịp ở các lĩnh vực khác.

Trí tuệ nhân tạo sẽ trở nên rẻ đến mức không thể đo lường được.

Câu hỏi: Đối với các nhà phát triển vận hành hàng chục triệu tác nhân, chi phí là trở ngại lớn nhất. Bạn ứng xử các mô hình nhỏ hơn và việc giảm chi phí trong tương lai?

Sam Altman: Mục tiêu của chúng tôi là giảm chi phí trí tuệ của các cấp độ GPT-5.2 xuống ít nhất 100 lần vào cuối năm 2027.

Tuy nhiên, một xu hướng mới đang nổi lên: khi kết quả đầu ra của mô hình ngày càng phức tạp, nhu cầu của người dùng về "tốc độ" thậm chí còn vượt qua nhu cầu về "chi phí". OpenAI rất giỏi trong việc giảm chi phí, nhưng trong quá khứ, chúng tôi chưa tập trung đủ vào "tốc độ đầu ra cực nhanh". Trong một số trường hợp, người dùng có thể sẵn sàng trả giá cao hơn để có tốc độ tăng gấp 100 lần. Chúng ta cần tìm sự cân bằng giữa "giá cả cực kỳ phải chăng" và "tốc độ cực nhanh". Nếu thị trường khao khát chi phí thấp hơn, chúng ta sẽ đi rất xa trên đường cong đó.

Câu hỏi: Giao diện người dùng hiện tại không được thiết kế cho các tác nhân ảo. Liệu sự gia tăng số lượng tác nhân ảo có thúc đẩy sự xuất hiện của "ứng dụng siêu nhỏ" hay không?

Sam Altman: Tôi không còn coi phần mềm là một thứ "tĩnh" nữa. Giờ đây, nếu tôi gặp một vấn đề nhỏ, tôi kỳ vọng máy tính sẽ ngay lập tức viết một đoạn mã để giải quyết nó cho tôi. Tôi cho rằng cách chúng ta sử dụng máy tính và hệ điều hành sẽ thay đổi một cách cơ bản.

Mặc dù bạn có thể sử dụng cùng một trình soạn thảo văn bản mỗi ngày (vì bạn cần các nút ở những vị trí quen thuộc), phần mềm sẽ được tùy chỉnh cực kỳ phù hợp với thói quen của bạn. Các công cụ của bạn sẽ liên tục phát triển và hội tụ theo nhu cầu cá nhân của bạn. Trong OpenAI, mọi người đã quen với việc sử dụng các mô hình lập trình (Codex) để tùy chỉnh quy trình làm việc của họ, và các công cụ của mỗi người hoàn toàn khác nhau . Phần mềm ra đời "vì tôi và dành cho tôi" gần như là một xu hướng tất yếu.

Lời khuyên dành cho các doanh nhân: Đừng chỉ vá víu những mô hình hiện có của bạn.

Câu hỏi: Khi việc cập nhật mô hình liên tục tiêu tốn chức năng của một công ty khởi nghiệp, làm thế nào các doanh nhân có thể xây dựng được hệ thống bảo vệ? OpenAI cam kết sẽ không can thiệp vào những gì?

Sam Altman: Nhiều người nghĩ rằng các quy luật vật lý trong kinh doanh đã thay đổi, nhưng thực tế không phải vậy. Những thay đổi duy nhất là "tốc độ làm việc đã tăng lên" và "phát triển phần mềm đã tăng tốc". Nhưng các nguyên tắc để xây dựng một công ty khởi nghiệp thành công vẫn không thay đổi: bạn vẫn cần giải quyết các vấn đề thu hút khách hàng, thiết lập chiến lược GTM (Gross to Market), tạo sự gắn kết và xây dựng hiệu ứng mạng lưới hoặc lợi thế cạnh tranh.

Lời khuyên của tôi dành cho các doanh nhân là: Khi công ty của bạn đối diện bản cập nhật GPT-6 đầy bất ngờ, bạn vui hay buồn? Bạn nên xây dựng mọi thứ theo nguyên tắc "mô hình càng mạnh, sản phẩm càng mạnh". Nếu bạn chỉ vá những chỗ yếu của mô hình, bạn sẽ gặp khó khăn.

Câu hỏi: Các tác nhân hiện tại thường bị lỗi sau 5 đến 10 bước khi thực hiện nhiệm vụ có quy trình dài. Khi nào chúng ta mới có thể đạt được khả năng hoạt động tự động thực sự lâu dài?

Sam Altman: Điều đó phụ thuộc vào độ phức tạp của nhiệm vụ. Trong OpenAI, một số nhiệm vụ cụ thể chạy thông qua SDK có thể chạy gần như vô thời hạn.

Đây không còn là vấn đề "khi nào nên triển khai", mà là vấn đề "phạm vi ứng dụng". Nếu bạn có một nhiệm vụ bạn hiểu rất rõ, bạn có thể thử tự động hóa nó ngay hôm nay. Nhưng nếu bạn muốn bảo mô hình "Hãy bắt đầu một dự án khởi nghiệp cho tôi", thì hiện tại vẫn còn rất khó khăn do vòng phản hồi dài và khó khăn trong việc xác minh. Do đó, nên khuyến nghị các nhà phát triển trước tiên chia nhỏ nhiệm vụ, cho phép tác nhân tự xác minh từng bước trung gian, và sau đó dần dần mở rộng phạm vi trách nhiệm của nó .

Liệu trí tuệ nhân tạo có thể giúp con người tạo ra những ý tưởng hay?

Câu hỏi: Nhiều người phàn nàn rằng nội dung do AI tạo ra "kém chất lượng". Làm thế nào chúng ta có thể sử dụng AI để nâng cao chất lượng sáng tạo của con người?

Sam Altman: Trong khi người ta gọi sản phẩm của AI là rác rưởi, thì con người cũng tạo ra nhiều điều vô nghĩa không kém. Việc tạo ra những ý tưởng thực sự mới là vô cùng khó khăn. Tôi ngày càng tin chắc rằng ranh giới của tư duy con người phụ thuộc vào ranh giới của các công cụ mà chúng ta sử dụng.

Tôi hy vọng sẽ phát triển các công cụ giúp mọi người tạo ra những ý tưởng hay. Khi chi phí sáng tạo giảm mạnh, chúng ta có thể nhanh chóng thử nghiệm và thất bại thông qua các vòng phản hồi chuyên sâu, từ đó tìm ra những ý tưởng hay sớm hơn.

Hãy tưởng tượng bạn có một "robot Paul Graham" (người sáng lập Y Combinator) biết toàn bộ quá khứ, mã nguồn và công việc của bạn, và có thể liên tục cùng bạn động não. Ngay cả khi 95 trong số 100 ý tưởng mà robot đưa ra là sai, miễn là chúng truyền cảm hứng cho 5 ý tưởng xuất sắc trong bạn, thì đóng góp cho thế giới sẽ vô cùng to lớn. Robot GPT-5.2 của chúng tôi đã chứng minh được những tiến bộ khoa học phi thường cho các nhà khoa học nội bộ. Một mô hình có thể tạo ra những hiểu biết khoa học thì không có lý do gì không thể tạo ra những hiểu biết sản phẩm tuyệt vời.

Câu hỏi: Tôi lo ngại rằng mô hình này sẽ khiến chúng ta mắc kẹt trong những công nghệ lỗi thời. Các mô hình hiện tại gặp khó khăn trong việc học hỏi các công nghệ mới từ hai năm trước. Liệu chúng ta có thể hướng dẫn mô hình học hỏi những công nghệ mới nhất trong tương lai không?

Sam Altman: Chính xác. Về cơ bản, mô hình là một "công cụ suy luận đa năng". Mặc dù hiện tại chúng đã tích hợp một lượng lớn kiến ​​thức về thế giới, nhưng cột mốc quan trọng trong vài năm tới sẽ là: khi bạn cung cấp cho mô hình một hoàn cảnh, công cụ hoặc công nghệ hoàn toàn mới, nó có thể học cách sử dụng chúng một cách đáng tin cậy chỉ sau một lần giải thích (hoặc để nó tự khám phá một lần). Điều này không còn xa nữa.

Câu hỏi: Là một nhà khoa học, tôi nhận thấy nguồn cảm hứng nghiên cứu tăng trưởng theo cấp số nhân, nhưng năng lượng của con người lại có hạn. Liệu các mô hình có thể thay thế hoàn toàn quá trình nghiên cứu?

Sam Altman: Vẫn còn một chặng đường dài phía trước để đạt được nghiên cứu khoa học tự động, khép kín hoàn toàn. Mặc dù nghiên cứu toán học có thể không cần đến phòng thí nghiệm, nhưng các nhà toán học hàng đầu vẫn cần sự tham gia độ sâu để điều chỉnh những sai lệch trực quan trong các mô hình.

Điều này tương tự như lịch sử cờ vua: sau khi Deep Blue đánh bại Kasparov, đã có một thời kỳ "sự hợp tác giữa con người và máy móc (Centaur)" mạnh hơn trí tuệ nhân tạo thuần túy, nhưng trí tuệ nhân tạo thuần túy nhanh chóng giành lại vị thế thống trị trong trò chơi.

Đối với các nhà khoa học, AI ngày nay giống như một "nguồn nhân lực nghiên cứu sau tiến sĩ không giới hạn". Nó có thể giúp bạn khám phá đồng thời 20 câu hỏi mới, thực hiện tìm kiếm trên diện rộng. Về các thí nghiệm vật lý, chúng tôi đang thảo luận xem OpenAI nên xây dựng các phòng thí nghiệm tự động hóa riêng hay để cộng đồng nghiên cứu toàn cầu đóng góp dữ liệu thực nghiệm. Hiện tại, việc cộng đồng nghiên cứu đón nhận GPT-5.2 khiến chúng tôi nghiêng về phương án thứ hai, điều này sẽ tạo ra một hệ sinh thái nghiên cứu phân tán, thông minh và hiệu quả hơn.

Câu hỏi: Tôi quan tâm nhiều hơn đến vấn đề an ninh, lý tưởng nhất là cần các biện pháp an ninh mạnh mẽ hơn. Năm 2026, trí tuệ nhân tạo (AI) tiềm ẩn nhiều vấn đề, một trong đó là an toàn sinh học, gây ra cho chúng ta sự lo lắng lớn. Các mô hình này hiện đã khá mạnh mẽ trong lĩnh vực sinh học, và hiện tại, cả OpenAI và chiến lược toàn cầu đều tập trung chủ yếu vào việc hạn chế quyền truy cập vào các mô hình này và sử dụng các thuật toán phân loại khác nhau để ngăn chặn chúng tạo ra các mầm bệnh mới. Nhưng tôi không cho rằng cách tiếp cận này có thể kéo dài. Quan điểm của bạn như thế nào?

Sam Altman: Tôi cho rằng thế giới cần một sự thay đổi cơ bản trong an ninh AI, đặc biệt là an ninh sinh học AI — từ "ngăn chặn" sang "khả năng phục hồi".

Một trong những người đồng sáng lập của tôi từng sử dụng một phép so sánh mà tôi rất thích: an toàn phòng cháy chữa cháy . Ban đầu, lửa mang lại lợi ích to lớn cho xã hội loài người, sau đó nó bắt đầu thiêu rụi toàn bộ các thành phố. Phản ứng ban đầu của nhân loại là hạn chế lửa càng nhiều càng tốt. Gần đây tôi mới biết rằng từ "lệnh giới nghiêm" ban đầu có liên quan đến "việc không cho phép đốt lửa vào ban đêm" vì các thành phố sẽ bị thiêu rụi.

Sau đó, chúng ta đã thay đổi cách tiếp cận, không chỉ đơn thuần là cố gắng cấm lửa mà còn hướng đến việc nâng cao khả năng chống chịu trước hỏa hoạn: chúng ta đã xây dựng các quy định về an toàn phòng cháy chữa cháy, phát minh ra các vật liệu chống cháy và thiết lập một hệ thống toàn diện. Giờ đây, với tư cách là một xã hội, chúng ta đang làm khá tốt trong việc đối phó với hỏa hoạn.

Tôi cho rằng rằng trí tuệ nhân tạo (AI) cũng phải đi theo con đường tương tự . AI sẽ trở thành một vấn đề thực sự trong khủng bố sinh học; AI cũng sẽ trở thành một vấn đề thực sự trong an ninh mạng; nhưng đồng thời, AI cũng là một giải pháp quan trọng cho những vấn đề này.

Do đó, tôi cho rằng điều cần thiết là một nỗ lực toàn xã hội : không chỉ dựa vào một vài "phòng thí nghiệm mà chúng ta tin tưởng" để luôn luôn kiểm soát rủi ro một cách chính xác, mà là xây dựng một cơ sở hạ tầng kiên cường. Bởi vì chắc chắn sẽ có lượng lớn các mô hình xuất sắc trên thế giới. Chúng tôi đã thảo luận với nhiều nhà nghiên cứu sinh học và các công ty về cách đối phó với "mầm bệnh mới". Thực sự có rất nhiều người trong đó, và đã có phản hồi đáng kể cho rằng AI rất hữu ích trong lĩnh vực này, nhưng đây sẽ không phải là một vấn đề thuần túy kỹ thuật, cũng không thể được giải quyết hoàn toàn bằng công nghệ. Toàn thế giới cần phải suy nghĩ về điều này theo một cách khác so với trước đây. Thành thật mà nói, tôi rất lo lắng về tình hình hiện tại. Nhưng tôi không thấy lựa chọn thực tế nào khác ngoài cách tiếp cận "tập trung vào khả năng phục hồi". Và, về mặt tích cực, AI thực sự có thể giúp chúng ta xây dựng khả năng phục hồi này nhanh hơn.

Tuy nhiên, nếu trí tuệ nhân tạo (AI) gặp phải sự cố "nghiêm trọng và đáng kể" trong năm nay, tôi cho rằngan toàn sinh học là một lĩnh vực rất hợp lý để xem xét như một "điểm nóng rủi ro". Và nhìn xa hơn một hoặc hai năm, bạn có thể hình dung ra nhiều vấn đề khác có thể gây ra những rắc rối lớn.

Với sự cải thiện hiệu quả học tập của trí tuệ nhân tạo, liệu sự hợp tác giữa con người vẫn còn quan trọng?

Câu hỏi: Câu hỏi của tôi liên quan đến "sự hợp tác giữa con người". Khi các mô hình AI ngày càng mạnh mẽ, chúng rất hiệu quả trong việc học tập cá nhân, chẳng hạn như nhanh chóng nắm vững một chủ đề mới. Chúng ta đã thấy và hoàn toàn đồng ý với điều này trong ChatGPT và các thí nghiệm giáo dục. Tuy nhiên, tôi thường suy nghĩ về câu hỏi này: khi bạn có thể nhận được câu trả lời bất cứ lúc nào, tại sao lại phải dành thời gian và thậm chí chịu đựng sự khó chịu để hỏi người khác một câu hỏi? Bạn cũng đã đề cập rằng các công cụ lập trình AI có thể hoàn thành các nhiệm vụ trước đây đòi hỏi đội ngũ của con người với tốc độ cực kỳ cao. Vì vậy, khi chúng ta nói về "sự hợp tác, phối hợp và trí tuệ tập thể", con người + AI là một sự kết hợp mạnh mẽ. Những thay đổi nào sẽ xảy ra trong sự hợp tác giữa con người?

Sam Altman: Vấn đề này có nhiều khía cạnh. Tôi lớn tuổi hơn hầu hết mọi người ở đây. Nhưng dù vậy, khi Google xuất hiện, tôi đang học trung học. Hồi đó, các giáo viên cố gắng bắt học sinh hứa "không dùng Google" vì ai cũng nghĩ: nếu có thể tìm thấy mọi thứ dễ dàng như vậy, thì học lịch sử làm gì? Học thuộc lòng làm gì?

Theo tôi, ý tưởng này hoàn toàn vô lý. Cảm giác của tôi lúc đó là: điều này sẽ giúp tôi thông minh hơn , học hỏi được nhiều hơn và làm được nhiều việc hơn – những kỹ năng tôi sẽ sử dụng lâu dài khi trưởng thành. Thật điên rồ khi bắt tôi học những kỹ năng lỗi thời chỉ vì chúng tồn tại.

Điều này giống như việc bắt tôi học bàn tính trong khi bạn đã biết máy tính bỏ túi tồn tại – có thể đó là một kỹ năng quan trọng vào thời điểm đó, nhưng giờ thì vô dụng. Quan điểm của tôi về các công cụ AI cũng tương tự. Tôi hiểu rằng các công cụ AI thực sự là một vấn đề trong hệ thống giáo dục hiện nay . Nhưng điều này chính xác cho thấy chúng ta cần thay đổi phương pháp giảng dạy , chứ không phải giả vờ như AI không tồn tại.

Ý tưởng "để ChatGPT viết hộ bạn" là một phần của tương lai. Tất nhiên, việc đào tạo kỹ năng viết vẫn rất quan trọng vì viết là một phần của tư duy. Nhưng cách chúng ta dạy mọi người cách tư duy và cách đánh giá khả năng tư duy cần phải thay đổi , và chúng ta không nên giả vờ rằng sự thay đổi này không tồn tại. Tôi không bi quan về điều đó.

10% số học viên có khả năng tự học vượt trội đã đạt được kết quả xuất sắc. Chúng tôi sẽ tìm ra những cách thức mới để tái cấu trúc chương trình giảng dạy và giúp đỡ những học viên khác. Về điểm thứ hai của bạn – làm thế nào để biến quá trình này không phải là "bạn trở nên rất giỏi một mình trước máy tính", mà là một quá trình hợp tác – cho đến nay chúng tôi chưa thấy bất kỳ bằng chứng nào cho thấy trí tuệ nhân tạo dẫn đến việc giảm tương tác giữa người với người, và đây là điều chúng tôi đang liên tục quan sát và đo lường.

Trực giác của tôi mách bảo điều ngược lại: trong một thế giới tràn ngập trí tuệ nhân tạo, các mối liên kết giữa con người sẽ trở nên quý giá hơn chứ không phải kém quý giá hơn . Chúng ta đã thấy mọi người khám phá những giao diện mới để giúp việc cộng tác dễ dàng hơn. Ngay từ những ngày đầu, khi chúng tôi xem xét việc phát triển phần cứng và thiết bị của riêng mình, chúng tôi đã nghĩ: trải nghiệm"cộng tác nhiều người + trí tuệ nhân tạo" sẽ như thế nào?

Mặc dù chưa ai hoàn toàn hiểu rõ điều này, tôi cho rằng trí tuệ nhân tạo (AI) sẽ cho phép sự hợp tác kiểu này theo những cách chưa từng có. Hãy tưởng tượng năm người ngồi quanh một cái bàn, với một AI hoặc robot ở gần đó—năng suất của đội ngũ sẽ được tăng lên đáng kể. Trong tương lai, AI sẽ là một đội ngũ không thể thiếu trong mọi buổi động não và mọi nỗ lực giải quyết vấn đề, giúp toàn bộ nhóm hoạt động hiệu quả hơn.

Với việc các phần mềm độc hại được đưa vào hệ thống sản xuất trên quy mô lớn, rủi ro lớn nhất mà chúng ta thường đánh giá thấp là gì?

Câu hỏi: Khi các tác nhân bắt đầu hoạt động trên quy mô lớn và trực tiếp thao túng hệ thống sản xuất, cho rằng bạn, những chế độ lỗi nào bị đánh giá thấp nhất? Đó là lỗi về bảo mật, chi phí hay độ tin cậy? Và những "công việc khó khăn nhưng quan trọng" nào hiện đang chưa được giải quyết thỏa đáng?

Sam Altman: Hầu hết các vấn đề mà anh/chị đề cập đều đúng. Tuy nhiên, có một điều khiến cá nhân tôi và nhiều người khác ngạc nhiên. Khi lần sử dụng Codex, tôi hoàn toàn chắc chắn về một điều: "Tôi sẽ không bao giờ cấp cho nó quyền truy cập máy tính hoàn toàn không giám sát."

Tôi kiên trì trong khoảng hai tiếng đồng hồ. Rồi tôi nghĩ: có vẻ như nó đang làm điều gì đó khá hợp lý; việc phải xác nhận từng bước quá phiền phức; có lẽ tôi nên để nó mở một lúc và xem điều gì sẽ xảy ra. Kết quả là, tôi không bao giờ tắt quyền truy cập đầy đủ nữa. Tôi nhận thấy nhiều người cũng có trải nghiệm tương tự.

Điều thực sự khiến tôi lo lắng là những công cụ này rất mạnh mẽ và tiện lợi , và mặc dù tỷ lệ hỏng hóc có thể thấp, nhưng hậu quả của việc hỏng hóc có thể rất thảm khốc . Vì sự cố hiếm khi xảy ra, mọi người dần dần rơi vào trạng thái tâm lý: "Chắc là ổn thôi, phải không?"

Tuy nhiên, khi các mô hình trở nên mạnh mẽ hơn và khó hiểu hơn, nếu có những sai lệch nhỏ trong mô hình, hoặc các vấn đề hệ thống mới xuất hiện sau thời gian sử dụng kéo dài và phức tạp, bạn có thể đã tạo ra một lỗ hổng bảo mật trong hệ thống. Bạn có thể có nhiều mức độ nhạy cảm với khoa học viễn tưởng khi tưởng tượng "AI vượt khỏi tầm kiểm soát", nhưng điều tôi thực sự lo lắng là mọi người sẽ bị cuốn hút bởi sức mạnh và sự thích thú của những công cụ này, và ngừng xem xét nghiêm túc sự phức tạp của chúng. Khả năng của chúng sẽ tăng rất nhanh; chúng ta sẽ quen với hành vi của các mô hình ở một giai đoạn nhất định và do đó tin tưởng chúng; nhưng lại không xây dựng một cơ sở hạ tầng bảo mật đủ mạnh mẽ và toàn diện.

Như vậy, chúng ta sẽ vô tình tiến đến một tình trạng nguy hiểm.

Tôi cho rằng rằng chính điểm này thôi cũng đủ để tạo nên một công ty tuyệt vời .

Làm thế nào để tích hợp trí tuệ nhân tạo (AI) vào giáo dục mầm non và giáo dục cơ bản?

Câu hỏi: Tôi muốn quay lại chủ đề giáo dục. Ở trường trung học, tôi thấy các bạn cùng lớp sử dụng ChatGPT để viết luận và làm bài tập; giờ đây ở đại học, chúng tôi đang thảo luận về các chính sách AI trong nhiều lĩnh vực như Khoa học Máy tính và Nhân văn. Câu hỏi của tôi là: Với tư cách là một người cha, ông/bà ứng xử như thế nào về tác động của AI đối với giáo dục trong những năm tháng hình thành nhân cách quan trọng như mẫu giáo, tiểu học và trung học cơ sở?

Sam Altman: Nhìn chung, tôi phản đối việc sử dụng máy tính trong trường mẫu giáo . Trường mẫu giáo nên tập trung vào việc chạy nhảy ngoài trời, tương tác với các đồ vật thực tế và học cách tương tác với người khác. Vì vậy, không chỉ riêng trí tuệ nhân tạo, tôi nghĩ rằng hầu hết các trường mẫu giáo thậm chí không nên có máy tính.

Từ góc độ phát triển, chúng ta vẫn chưa hiểu đầy đủ về những tác động lâu dài của công nghệ đối với trẻ em. Đã có rất nhiều nghiên cứu về tác động của mạng xã hội đối với thanh thiếu niên, và kết quả khá đáng thất vọng. Trực giác của tôi cho lượng lớn tác động của công nghệ đối với trẻ nhỏ có lẽ còn tồi tệ hơn , nhưng lại ít được thảo luận hơn. Cho đến khi chúng ta thực sự hiểu được những tác động này, tôi không cho rằng rằng việc cho trẻ mẫu giáo sử dụng trí tuệ nhân tạo lượng lớn là cần thiết.

Câu hỏi: Chúng tôi đang hoạt động trong lĩnh vực dược phẩm sinh học. Trí tuệ nhân tạo tạo sinh (Generative AI) đã rất hữu ích trong các lĩnh vực như lập tài liệu thử nghiệm lâm sàng và các quy trình quản lý. Hiện tại, chúng tôi cũng đang cố gắng sử dụng nó cho thiết kế thuốc, đặc biệt là thiết kế hợp chất. Tuy nhiên, một trở ngại lớn là khả năng thực hiện suy luận 3D. Cho rằng bạn, liệu sẽ có một bước ngoặt quan trọng nào đó ở đây không?

Sam Altman: Chúng tôi chắc chắn sẽ giải quyết vấn đề này. Tôi không chắc liệu nó có hoàn thành trước năm 2026 hay không, nhưng đây là một nhu cầu rất phổ biến và thường xuyên. Chúng tôi biết sơ bộ cách thực hiện, nhưng vẫn còn nhiều lĩnh vực cấp bách hơn cần phải tiến triển. Nhưng điều này chắc chắn sẽ xảy ra.

Liên kết tham khảo:

https://www.youtube.com/watch?v=Wpxv-8nG8ec&t=2s

Bài viết này được đăng tải từ tài khoản chính thức WeChat "AI Frontline" , tác giả: Dongmei, và được xuất bản với sự cho phép của 36Kr.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận