Cuộc phỏng vấn mới nhất của Sam Altman tiết lộ: Tôi cũng không thực sự hiểu chuyện gì đang xảy ra bên trong trí tuệ nhân tạo.

Bài viết này được dịch máy
Xem bản gốc

Thompson: Chào mừng đến với "Điều thú vị nhất về Trí tuệ nhân tạo". Cảm ơn quý vị đã dành thời gian trong một tuần bận rộn và căng thẳng như tuần này. Tôi muốn bắt đầu với một chủ đề mà chúng ta đã thảo luận lần trước đây.

Ba năm trước, khi được Patrick Collison phỏng vấn, ông ấy đã hỏi ông những thay đổi nào sẽ khiến ông tự tin hơn về kết quả tốt và bớt lo lắng hơn về kết quả xấu. Câu trả lời của ông khi đó là nếu chúng ta thực sự hiểu được những gì đang xảy ra ở cấp độ tế bào thần kinh. Tôi đã hỏi ông câu hỏi tương tự một năm trước, và chúng ta đã thảo luận lại sáu tháng trước. Vì vậy, bây giờ tôi lại hỏi: Liệu sự hiểu biết của chúng ta về cách thức hoạt động của AI có theo kịp tăng trưởng của khả năng AI hay không?

Altman: Tôi sẽ trả lời câu hỏi đó trước, rồi sau đó quay lại câu hỏi của Patrick hồi đó, vì câu trả lời của tôi cho câu hỏi đó đã thay đổi khá nhiều kể từ đó.

Chúng ta hãy bắt đầu với sự hiểu biết của mình về những gì các mô hình AI đang làm. Tôi nghĩ chúng ta vẫn chưa có một khuôn khổ hoàn thiện thực sự để giải thích. Mọi thứ đã tốt hơn trước một chút, nhưng không ai có thể nói rằng họ hiểu hoàn toàn mọi thứ xảy ra trong các mạng thần kinh này.

Khả năng giải thích Chuỗi suy nghĩ luôn là một hướng đi đầy hứa hẹn đối với chúng ta. Nó rất dễ bị tổn thương, phụ thuộc vào việc sê-ri các yếu tố không sụp đổ dưới nhiều áp lực tối ưu hóa tiềm tàng khác nhau. Nhưng mặt khác, tôi không thể dùng máy chụp X-quang để quét não mình và hiểu chính xác điều gì xảy ra khi mỗi tế bào thần kinh hoạt động và kết nối. Nếu bạn hỏi tôi tại sao tôi tin vào điều gì đó, làm thế nào tôi đi đến một kết luận nhất định, tôi có thể nói cho bạn biết. Có thể đó thực sự là cách tôi nghĩ, có thể không, tôi không biết. Sự tự soi xét cũng có thể thất bại. Nhưng dù đúng hay sai, bạn vẫn có thể xem xét quá trình lập luận và nói, được rồi, với những bước này, kết luận này là hợp lý.

Việc chúng ta có thể làm được điều này với mô hình hiện tại quả thực là một bước phát triển đầy hứa hẹn. Nhưng tôi vẫn có thể nghĩ đến nhiều cách mà nó có thể gặp trục trặc—mô hình có thể đánh lừa chúng ta, che giấu điều gì đó, v.v. Vì vậy, đây vẫn chưa phải là một giải pháp hoàn chỉnh.

Tuy nhiên, ngay cả dựa trên trải nghiệm sử dụng mô hình này của bản thân, tôi là kiểu người tuyệt đối sẽ không để Codex hoàn toàn chiếm quyền điều khiển máy tính của mình và chạy cái gọi là "chế độ YOLO". Nhưng tôi chỉ chịu đựng được vài giờ trước khi bỏ cuộc.

Thompson: Để Codex chiếm quyền điều khiển toàn bộ máy tính của bạn à?

Altman: Thành thật mà nói, tôi có hai máy tính.

Thompson: Tôi cũng có hai cái.

Altman: Tôi có thể hình dung sơ bộ mô hình đang làm gì, và mô hình có thể giải thích cho tôi tại sao việc đó là ổn, và nó nên làm gì tiếp theo, và tôi tin rằng nó hầu như luôn làm đúng như những gì nó nói.

Thompson: Khoan đã. Chuỗi suy nghĩ thì ai cũng thấy; bạn nhập một câu hỏi, và nó sẽ hiển thị "đang tìm kiếm cái này", "đang làm cái kia", và bạn có thể theo dõi. Nhưng để Chuỗi suy nghĩ là một phương pháp giải thích tốt, chúng phải xác thực; mô hình không thể nói dối bạn. Và chúng ta biết rằng đôi khi các mô hình lại nói dối bạn, nói dối về những gì chúng đang nghĩ và cách chúng đi đến câu trả lời. Vậy làm sao bạn có thể tin tưởng vào Chuỗi suy nghĩ?

Altman: Bạn cần bổ sung thêm nhiều mắt xích khác vào chuỗi phòng thủ để đảm bảo mô hình đưa ra thông tin chính xác. Đội ngũ hiệu chỉnh của chúng tôi đã đầu tư rất nhiều công sức vào việc này. Như tôi đã đề cập trước đó, đây không phải là giải pháp hoàn chỉnh; nó chỉ là một mắt xích trong đó chuỗi. Bạn cũng cần xác minh rằng mô hình thực sự là một công cụ thực thi đáng tin cậy, rằng nó thực sự làm những gì được yêu cầu. Chúng tôi đã công bố khá nhiều nghiên cứu chỉ ra những trường hợp mô hình không thực hiện đúng những gì được yêu cầu.

Đây chỉ là một mảnh ghép của bức tranh toàn cảnh. Chúng ta không thể hoàn toàn tin tưởng rằng mô hình sẽ luôn hoạt động theo Chuỗi suy luận; chúng ta phải chủ động tìm kiếm những sai lệch và những hành vi bất thường, kỳ lạ. Nhưng Chuỗi suy luận thực sự là một công cụ quan trọng trong bộ công cụ.

Thompson: Điều thực sự khiến tôi thích thú là trí tuệ nhân tạo không giống như một chiếc ô tô. Với một chiếc ô tô, một khi bạn đã chế tạo nó, bạn biết cách nó hoạt động – hệ thống đánh lửa ở đây gây ra vụ nổ, sau đó tín hiệu truyền đi đây, rồi đến đó, bánh xe quay và chiếc xe di chuyển. Nhưng với trí tuệ nhân tạo, nó giống như bạn đã chế tạo một cỗ máy, và bạn không hoàn toàn chắc chắn nó hoạt động như thế nào, nhưng bạn biết nó có thể làm được gì và giới hạn của nó. Vì vậy, nỗ lực khám phá cơ chế hoạt động bên trong của nó vô cùng hấp dẫn.

Một nghiên cứu mà tôi đặc biệt thích là bài báo của Anthropic, một bản thảo được phát hành vào mùa hè năm ngoái và gần đây đã được xuất bản chính thức. Các nhà nghiên cứu đã nói với một mô hình rằng, "Bạn thích cú, cú là loài chim đẹp nhất thế giới," và sau đó cho nó tạo ra một loạt các số ngẫu nhiên. Họ đã sử dụng những số này để huấn luyện một mô hình mới, và mô hình mới này cũng thích cú. Thật điên rồ. Bạn có thể khiến nó viết thơ, và nó sẽ viết thơ về cú. Nhưng tất cả những gì bạn cung cấp cho nó chỉ là những con số.

Điều này có nghĩa là những điều này rất bí ẩn. Nó cũng khiến tôi lo lắng vì rõ ràng, bạn có thể bảo nó đừng thích cú, mà hãy bắn cú; bạn có thể bảo nó làm đủ mọi thứ. Xin hãy giải thích điều gì đã xảy ra trong nghiên cứu đó, ý nghĩa của nó là gì và những hệ quả của nó là gì.

Altman: Khi tôi học lớp năm, tôi rất hào hứng vì nghĩ mình đã hiểu cách hoạt động của cánh máy bay. Giáo viên khoa học đã giải thích cho tôi, và tôi cảm thấy rất tuyệt. Tôi nói, đúng rồi, các phân tử không khí chuyển động nhanh hơn phía trên cánh, vì vậy áp suất ở đó thấp hơn, và cánh bị kéo lên trên.

Tôi nhìn vào sơ đồ vô cùng thuyết phục đó trong sách giáo khoa khoa học lớp năm và cảm thấy thật tuyệt vời. Tôi nhớ hôm đó về nhà và kể với bố mẹ rằng tôi đã hiểu cách cánh máy bay hoạt động. Rồi, trong lớp vật lý ở trường trung học, tôi đột nhiên nhận ra rằng mình đã lặp đi lặp lại ý tưởng "các phân tử không khí chuyển động nhanh hơn phía trên cánh máy bay" trong đầu, nhưng thực tế tôi hoàn toàn không hiểu cánh máy bay hoạt động như thế nào. Thành thật mà nói, đến giờ tôi vẫn chưa thực sự hiểu.

Thompson: Ừm.

Altman: Tôi có thể giải thích phần nào, nhưng nếu bạn cứ hỏi tại sao các phân tử không khí lại di chuyển nhanh hơn phía trên cánh máy bay, tôi không thể đưa ra một câu trả lời sâu sắc và thỏa đáng.

Tôi có thể nói cho bạn biết mọi người ở đây nghĩ gì về lý do tại sao thí nghiệm với con cú lại cho kết quả như vậy. Tôi có thể chỉ ra, à, đó là vì lý do này, lý do kia, và tất cả nghe có vẻ khá thuyết phục. Nhưng câu trả lời thành thật là, cũng giống như việc tôi thực sự không hiểu tại sao đôi cánh lại có thể bay được.

Thompson: Nhưng Sam à, anh không điều hành Boeing, anh điều hành OpenAI.

Altman: Chính xác. Tôi có thể nói với bạn nhiều điều khác nữa, chẳng hạn như cách chúng tôi đưa một mô hình đạt đến mức độ tin cậy và độ bền nhất định. Nhưng có những bài toán vật lý liên quan. Nếu tôi điều hành Boeing, tôi có thể chỉ cho bạn cách chế tạo máy bay, nhưng tôi không thể nào hiểu hết tất cả các nguyên lý vật lý liên quan.

Thompson: Chúng ta hãy tiếp tục với thí nghiệm về loài cú. Nếu các mô hình thực sự có thể truyền tải loại thông tin ẩn, không thể nhận biết này, bạn có thể quan sát các con số trượt qua Chuỗi suy nghĩ của mình và nhận được thông tin về loài cú mà không hề hay biết. Điều này cuối cùng có thể trở nên nguy hiểm, rắc rối và kỳ lạ.

Altman: Vậy nên khi tôi nói rằng tôi sẽ đưa ra cho Patrick Collison một câu trả lời khác cho câu hỏi đó.

Thompson: Chuyện đó xảy ra cách đây ba năm rồi.

Altman: Vâng. Ba năm trước, hiểu biết của tôi về thế giới đại khái là thế này: chúng ta phải tìm ra cách để điều chỉnh các mô hình của mình. Nếu chúng ta có thể đạt được sự điều chỉnh và ngăn chặn các mô hình này rơi vào tay kẻ xấu, chúng ta sẽ khá an toàn. Đây là hai mô hình mối đe dọa chính mà tôi đang xem xét vào thời điểm đó. Chúng ta không muốn AI tự quyết định làm hại con người, cũng như không muốn bất kỳ ai sử dụng AI để làm hại con người. Nếu chúng ta có thể tránh được hai điều này, chúng ta có thể giải quyết được phần còn lại - tương lai của nền kinh tế, tương lai của ý nghĩa - nhưng rất có thể chúng ta sẽ ổn.

Càng về sau, khi chúng ta hiểu biết thêm, tôi càng nhận thấy một loạt vấn đề hoàn toàn khác. Gần đây, chúng ta bắt đầu sử dụng thuật ngữ "khả năng phục hồi của AI" để thay thế cho thuật ngữ "an toàn AI".

Trong những trường hợp rõ ràng, chẳng hạn như các phòng thí nghiệm tiên tiến đang miệt mài nghiên cứu và điều chỉnh các mô hình, đồng thời không hướng dẫn người khác cách chế tạo vũ khí sinh học, thì điều đó không còn đủ nữa. Các mô hình mã nguồn mở xuất sắc sẽ xuất hiện. Nếu chúng ta không muốn những đại dịch toàn cầu mới, xã hội cần thiết lập sê-ri các lớp phòng thủ.

Thompson: Khoan đã, cho tôi tạm dừng ở đây, điều này rất quan trọng. Ý anh là, ngay cả khi anh bảo mô hình của mình không dạy người khác cách chế tạo vũ khí sinh học, và mô hình của anh thực sự không giúp ai chế tạo vũ khí sinh học, thì tầm quan trọng của việc này lại ít hơn anh nghĩ, bởi vì đã có những mô hình mã nguồn mở rất tốt có thể làm điều này cho người khác rồi phải không?

Altman: Đây chỉ là một ví dụ cho thấy xã hội cần một cách tiếp cận "toàn xã hội" đối với các mối đe dọa mới. Chúng ta có những công cụ mới để giúp giải quyết những vấn đề này, nhưng tình hình mà chúng ta đối diện khá khác so với những gì nhiều người trong chúng ta ban đầu nghĩ. Việc điều chỉnh các mô hình và xây dựng các hệ thống an ninh mạnh mẽ chắc chắn là cần thiết và đáng chú ý. Nhưng trí tuệ nhân tạo cuối cùng sẽ thâm nhập vào mọi ngóc ngách của xã hội. Cũng như chúng ta đối diện các công nghệ mới khác trong suốt lịch sử , chúng ta phải đề phòng rủi ro hoàn toàn mới.

Thompson: Nghe có vẻ việc này ngày càng khó khăn hơn.

Altman: Điều này vừa khó hơn, vừa dễ hơn. Khó hơn ở một số khía cạnh. Nhưng đồng thời, chúng ta có những công cụ mới tuyệt vời cho phép chúng ta thực hiện những biện pháp bảo vệ hoàn toàn mới mà trước đây không thể tưởng tượng nổi.

Lấy an ninh mạng làm ví dụ. Các mô hình ngày càng trở nên thành thạo hơn trong việc "xâm nhập hệ thống máy tính". May mắn thay, những người sở hữu các mô hình tiên tiến nhất lại rất cảnh giác về "việc ai đó sử dụng trí tuệ nhân tạo để phá hoại hệ thống máy tính". Vì vậy, hiện tại chúng ta đang ở trong một thời điểm thuận lợi khi số lượng các mô hình hàng đầu có thể sử dụng được còn hạn chế, và mọi người đang sử dụng chúng càng nhanh càng tốt để tăng cường bảo mật hệ thống. Nếu không có lợi thế này, khả năng tấn công vào hệ thống sẽ nhanh chóng xuất hiện trong các mô hình mã nguồn mở hoặc rơi vào tay kẻ thù, gây ra lượng lớn vấn đề.

Chúng ta đang đối mặt với những mối đe dọa mới, và cả những công cụ mới để phòng chống chúng. Câu hỏi đặt ra là, liệu chúng ta có thể hành động đủ nhanh chóng? Đây là một ví dụ mới cho thấy chính công nghệ có thể giúp chúng ta giải quyết vấn đề trước khi nó trở thành một vấn đề nghiêm trọng.

Quay trở lại với bình luận trước đó của bạn, có một rủi ro mới trên toàn xã hội mà tôi chưa từng nghĩ đến ba năm trước. Thực sự thì hồi đó tôi không nghĩ rằng chúng ta lại cần phải tập trung vào việc "xây dựng và triển khai các tác nhân có khả năng chống lại sự lây nhiễm từ các tác nhân khác (tôi không tìm được từ nào hay hơn)."

Điều này không nằm trong mô hình thế giới của tôi, cũng như trong mô hình của những người tôi biết, những người cho rằng vấn đề cấp bách nhất. Tất nhiên, đã có những kết quả tương tự như thí nghiệm OWL và các nghiên cứu khác, chứng minh rõ ràng rằng bạn có thể tạo ra những hành vi kỳ lạ trong các mô hình này mà chúng ta chưa hiểu đầy đủ. Nhưng cho đến khi OpenClaw được phát hành lần đầu và khi tôi thấy những gì đang xảy ra vào thời điểm đó, tôi thực sự chưa từng nghĩ đến việc "hành vi sai trái lan truyền từ tác nhân này sang tác nhân khác" sẽ trông như thế nào.

Thompson: Vâng. Thực ra, sự kết hợp của hai mối đe dọa mà bạn vừa đề cập khá đáng sợ. Nhân viên của OpenAI gửi các tác nhân, những tác nhân này đi ra thế giới bên ngoài, ai đó với mô hình hacker rất giỏi sẽ tìm ra cách thao túng các tác nhân này, và sau đó các tác nhân này quay trở lại trụ sở OpenAI, và đột nhiên, bạn bị tấn công. Bạn hoàn toàn có thể tưởng tượng điều này xảy ra. Vậy làm thế nào để giảm xác suất xảy ra điều đó?

Altman: Chúng tôi đã sử dụng cùng một phương pháp xuyên suốt lịch sử của OpenAI. Một mâu thuẫn cốt lõi trong lịch sử OpenAI, và thực tế là trong toàn bộ lĩnh vực AI, là xung đột giữa chủ nghĩa lạc quan thực dụng và chủ nghĩa bi quan theo đuổi quyền lực.

Chủ nghĩa tận thế là một quan điểm rất mạnh mẽ. Rất khó để bác bỏ nó, và thành thật mà nói, một phần đáng kể trong lĩnh vực này đang hành động xuất phát từ nỗi sợ hãi tột độ. Nỗi sợ hãi này không hoàn toàn vô căn cứ. Tuy nhiên, có giới hạn về mức độ hành động hiệu quả mà bạn có thể thực hiện nếu thiếu dữ liệu và kiến ​​thức.

Có lẽ cộng đồng an ninh AI giữa những năm 2010 đã thực hiện những tư duy lý thuyết tốt nhất mà bất kỳ ai có thể làm được ở giai đoạn đó, trước khi chúng ta thực sự hiểu cách các hệ thống này sẽ được xây dựng, cách chúng hoạt động và cách xã hội sẽ tích hợp với chúng. Tôi cho rằng một trong những hiểu biết chiến lược quan trọng nhất trong lịch sử của OpenAI là quyết định theo đuổi "triển khai lặp đi lặp lại", bởi vì xã hội và công nghệ là một hệ thống cùng tiến hóa.

Đây không chỉ đơn thuần là vấn đề "chúng ta không có dữ liệu để tìm ra câu trả lời". Mà đúng hơn, xã hội sẽ thay đổi do áp lực tiến hóa mang lại bởi công nghệ này; toàn bộ hệ sinh thái, toàn cảnh – dù bạn gọi nó là gì đi nữa – đều sẽ thay đổi. Vì vậy, bạn phải vừa học vừa làm và phải duy trì một vòng phản hồi rất chặt chẽ.

Tôi không biết cách tốt nhất để giữ an toàn cho các đặc vụ trong một thế giới mà "các đặc vụ ra ngoài nói chuyện với nhau rồi quay về trụ sở chính" là gì. Nhưng tôi không nghĩ chúng ta sẽ giải quyết được vấn đề này bằng cách ngồi ở nhà và vắt óc suy nghĩ; chúng ta phải học hỏi thông qua tiếp xúc với thực tế.

Thompson: Vậy là anh đang cử các chuyên viên ra ngoài để xem chuyện gì sẽ xảy ra? Được rồi, cho tôi hỏi thêm một câu nữa. Từ góc nhìn của người dùng, tôi đang sử dụng những sản phẩm này, thử mọi phương pháp có thể để học hỏi và giúp công ty mình tồn tại trong tương lai. Trong ba tháng qua, tôi cảm thấy mình đã tiến bộ hơn bất kỳ thời điểm nào kể từ khi ChatGPT được phát hành vào tháng 12 năm 2022. Liệu điều này là do chúng ta đang ở trong một giai đoạn sáng tạo đặc biệt, hay chúng ta đã bước vào giai đoạn tự cải tiến liên tục, nơi trí tuệ nhân tạo đang giúp chúng ta cải thiện trí tuệ nhân tạo nhanh hơn? Bởi vì nếu là trường hợp thứ hai, thì chúng ta đang trên một chuyến tàu lượn siêu tốc vừa thú vị vừa gập ghềnh.

Altman: Tôi không cho rằng chúng ta đang ở trong giai đoạn tự hoàn thiện mang tính lặp đi lặp lại mà mọi người thường hay nói đến.

Thompson: Trước tiên, hãy để tôi định nghĩa điều này. Tôi đang nói rằng trí tuệ nhân tạo (AI) có thể giúp bạn phát minh ra thế hệ AI tiếp theo, và sau đó máy móc sẽ bắt đầu phát minh ra máy móc, và máy móc sẽ phát minh ra thế hệ máy móc tiếp theo, và khả năng của chúng sẽ nhanh chóng trở nên vô cùng mạnh mẽ.

Altman: Tôi không cho rằng chúng ta đã đạt đến điểm đó. Nhưng hiện tại, trí tuệ nhân tạo (AI) đang giúp các kỹ sư, nhà nghiên cứu của OpenAI, và thực sự là tất cả mọi người, cũng như những người ở các công ty khác, làm việc hiệu quả hơn. Có thể tôi có thể giúp một kỹ sư làm việc hiệu quả gấp đôi, gấp ba, hoặc thậm chí gấp mười lần. Điều này không có nghĩa là AI tự làm nghiên cứu, mà có nghĩa là mọi thứ đang diễn ra nhanh hơn.

Tuy nhiên, tôi không nghĩ đó là điểm chính của cảm giác mà bạn mô tả, mặc dù nó cũng rất quan trọng. Có một hiện tượng ở đây mà chúng ta đã trải nghiệm khoảng ba lần rồi, lần gần đây nhất là khi mô hình vượt qua một ngưỡng nhất định về trí thông minh và khả năng sử dụng, và đột nhiên, những điều trước đây không thể làm được lại trở nên khả thi.

Theo trải nghiệm cá nhân của tôi, đây không phải là một quá trình diễn ra từ từ. Trước GPT-3.5, trước khi chúng tôi tìm ra cách tinh chỉnh nó bằng các hướng dẫn, chatbot, ngoài các bản demo, không thực sự thuyết phục. Rồi đột nhiên, chúng trở nên thuyết phục hơn. Sau đó, có một thời điểm khác khi các tác nhân lập trình chuyển từ "tự động hoàn thành khá tốt" sang "wow, nó thực sự đang thực hiện nhiệm vụ thực sự cho tôi". Cảm giác đó không diễn ra từ từ; có lẽ trong khoảng một tháng, mô hình đã vượt qua một ngưỡng nhất định.

Bản cập nhật mới nhất lần, bản mà chúng tôi vừa gửi cho Codex, tôi đã sử dụng được khoảng một tuần nay, và khả năng sử dụng máy tính của nó rất tuyệt vời. Đây là một ví dụ không hoàn toàn chỉ nói về trí thông minh của mô hình, mà còn về "hệ thống" tốt được xây dựng xung quanh nó. Đây là một trong những khoảnh khắc mà tôi "ngả người ra sau và nhận ra điều gì đó lớn lao đang xảy ra". Việc chứng kiến ​​một AI sử dụng máy tính của tôi để hoàn thành nhiệm vụ phức tạp đã khiến tôi thực sự nhận ra chúng ta đã lãng phí bao nhiêu thời gian vào những công việc thường nhật mà chúng ta đã âm thầm chấp nhận.

Thompson: Chúng ta có thể đi sâu vào chi tiết hơn được không, chính xác thì AI này đang làm gì trên máy tính của Sam Altman? Nó có đang làm điều đó ngay bây giờ không? Chúng ta đang ngồi đây thu âm podcast này.

Altman: Không. Máy tính của tôi hiện đang tắt. Chúng tôi chưa tìm ra cách nào hiệu quả, ít nhất là đối với tôi, để thực hiện việc đó. Chúng tôi cần một cách nào đó để duy trì hoạt động của nó. Tôi chưa biết nó sẽ như thế nào. Có thể tất cả chúng ta sẽ phải để máy tính xách tay của mình luôn bật ngay cả khi chúng đã đóng, luôn cắm điện, hoặc có thể tất cả chúng ta sẽ phải thiết lập một máy chủ từ xa ở đâu đó. Sẽ luôn có một giải pháp nào đó.

Thompson: Ừm.

Altman: Tôi không lo lắng đến mức như một số người thức dậy giữa đêm để bắt đầu nhiệm vụ mới trong Codex vì họ cảm thấy "nếu không làm thì sẽ phí thời gian". Nhưng tôi hiểu cảm giác đó; tôi biết nó như thế nào.

Thompson: Vâng. Việc đầu tiên tôi làm khi thức dậy sáng nay là kiểm tra xem các đặc vụ của tôi đã tìm thấy gì, đưa ra chỉ thị mới cho họ, yêu cầu họ lập báo cáo, rồi để họ tiếp tục công việc.

Altman: Cách mọi người nói về điều này đôi khi nghe giống như một loại hành vi không lành mạnh, gây nghiện vậy.

Thompson: Anh/chị có thể cho tôi biết chính xác chức năng của nó trên máy tính của anh/chị là gì không?

Altman: Hiện tại, điều tôi thích nhất là việc nó tự động quản lý Slack cho tôi. Và không chỉ Slack; tôi không biết bạn thế nào, nhưng bản thân tôi cũng đang gặp rắc rối tương tự. Tôi dành cả ngày chuyển đổi giữa Slack, iMessage, WhatsApp, Signal và email, cảm giác như mình liên tục sao chép và dán, làm lượng lớn công việc nhàm chán. Cố gắng tìm kiếm tập tin, chờ đợi một việc nhỏ nhặt nào đó hoàn thành, làm những công việc lặp đi lặp lại – tôi thậm chí không nhận ra mình đã dành bao nhiêu thời gian cho những việc này mỗi ngày cho đến khi tìm ra cách giải phóng bản thân khỏi hầu hết chúng.

Thompson: Đây là một sự chuyển tiếp tuyệt vời để nói về trí tuệ nhân tạo (AI) và nền kinh tế, và là một trong những chủ đề thú vị nhất hiện nay. Những công cụ này vô cùng mạnh mẽ—tất nhiên, chúng cũng có những thiếu sót, ảo tưởng và đủ loại vấn đề—nhưng theo tôi, chúng thực sự tuyệt vời. Tuy nhiên, tôi đã tham dự một hội nghị kinh doanh và có người hỏi, "Hãy giơ tay lên, ai trong số các bạn thực sự cho rằng rằng AI đã làm tăng năng suất của công ty mình hơn 1%?" Hầu như không ai giơ tay. Rõ ràng, các bạn đã hoàn toàn thay đổi cách làm việc trong các phòng thí nghiệm AI. Tại sao lại có khoảng cách lớn như vậy giữa khả năng của AI và lợi ích năng suất thực tế mà nó mang lại cho các doanh nghiệp Mỹ?

Altman: Ngay trước cuộc trò chuyện lần, tôi đã nói chuyện với Giám đốc điều hành của một công ty lớn đang cân nhắc triển khai công nghệ của chúng tôi. Chúng tôi đã cung cấp cho họ quyền truy cập phiên bản alpha vào một trong đó những mô hình mới của họ, và các kỹ sư của họ nói rằng đó là điều tuyệt vời nhất từ ​​trước đến nay. Công ty này không nằm trong bong bóng công nghệ; đó là một công ty công nghiệp rất lớn. Họ dự định tiến hành đánh giá an ninh vào quý IV.

Thompson: Ừm.

Altman: Sau đó, họ đề xuất một kế hoạch triển khai trong quý 1 và quý 2, với hy vọng sẽ ra mắt trong nửa cuối năm 2027. Giám đốc An ninh Thông tin (CISO) của họ nói rằng họ có thể không thực hiện được điều đó vì có thể không có cách nào an toàn để chạy các tác nhân (agent) trong mạng của họ. Điều đó có thể đúng. Nhưng điều đó cũng có nghĩa là họ sẽ không thực sự thực hiện bất kỳ hành động nào trong một khung thời gian có ý nghĩa.

Thompson: Anh có nghĩ ví dụ này phản ánh những gì đang xảy ra thường xuyên không? Nếu các doanh nghiệp không quá bảo thủ, không quá lo lắng về việc bị hacker và không quá sợ hãi sự thay đổi...

Altman: Đó là một ví dụ tương đối cực đoan. Nhưng nhìn chung, phải mất một thời gian dài để mọi người thay đổi thói quen và quy trình làm việc của họ. Chu kỳ bán hàng trong kinh doanh vốn dĩ rất dài, đặc biệt là khi các mô hình bảo mật thay đổi mạnh mẽ. Ngay cả với ChatGPT, khi nó mới ra mắt, các công ty đã bận rộn vô hiệu hóa nó ở khắp mọi nơi, và phải mất một thời gian dài các doanh nghiệp mới chấp nhận rằng "nhân viên có thể dán thông tin ngẫu nhiên vào ChatGPT". Những gì chúng ta đang thảo luận bây giờ đã vượt xa giai đoạn đó.

Tôi nghĩ quá trình này sẽ diễn ra chậm trong nhiều trường hợp. Tất nhiên, các công ty công nghệ sẽ hành động rất nhanh. Điều tôi lo ngại là nếu quá chậm, điều như thế này sẽ xảy ra: các công ty không áp dụng AI ngay hôm nay chủ yếu sẽ phải cạnh tranh với một loạt các công ty nhỏ với "1 đến 10 người cộng với lượng lớn AI", điều này sẽ gây thiệt hại nghiêm trọng cho nền kinh tế. Thực tế, tôi thích thấy các công ty hiện có áp dụng AI đủ nhanh, cho phép sự chuyển đổi dần dần trong công việc.

Thompson: Đúng vậy. Đây là một trong những vấn đề phức tạp nhất mà nền kinh tế của chúng ta đang phải đối mặt. Nếu trí tuệ nhân tạo phát triển quá nhanh, đó sẽ là một thảm họa vì mọi thứ sẽ bị đảo lộn.

Altman: Đó là một thảm họa, ít nhất là trong ngắn hạn.

Thompson: Và nếu quá trình đó diễn ra rất chậm ở một phần của nền kinh tế và rất nhanh ở phần khác, đó cũng là một thảm họa, bởi vì nó dẫn đến sự tập trung của cải khổng lồ và sự tàn phá. Theo tôi, chúng ta đang hướng tới kịch bản thứ hai, nơi một số lượng rất nhỏ các công ty trên thế giới trở nên cực kỳ giàu có và hoạt động đặc biệt tốt, trong khi phần còn lại của thế giới lại không được như vậy.

Altman: Tôi không biết tương lai sẽ ra sao, nhưng theo tôi, đây là kết quả có khả năng xảy ra nhất hiện nay. Tôi cũng đồng ý rằng đây là một tình huống khá khó xử.

Thompson: Là CEO của OpenAI, ông đã đưa ra sê-ri các đề xuất chính sách, thảo luận về cách Mỹ nên điều chỉnh chính sách thuế và nói về thu thập cơ bản phổ quát trong nhiều năm. Nhưng với tư cách là người điều hành công ty này, chứ không phải là nhà hoạch định chính sách tham gia vào việc quản trị nền dân chủ Mỹ, ông có thể làm gì để giảm thiểu khả năng xảy ra tình huống "sự giàu có và quyền lực tập trung trên quy mô lớn, cuối cùng rất có hại cho nền dân chủ"?

Altman: Trước hết, tôi không còn tin tưởng vào khái niệm "thu thập cơ bản phổ quát" như trước đây nữa. Hiện tại, tôi quan tâm hơn đến các hình thức "sở hữu tập thể", chẳng hạn như tỷ lệ băm, vốn chủ sở hữu hoặc các hình thức khác.

Bất kỳ tương lai nào mà tôi thực sự có thể hào hứng đều phải bao gồm việc mọi người cùng được chia sẻ lợi nhuận. Tôi cảm thấy rằng một khoản thanh toán tiền mặt cố định, dù hữu ích và có lẽ là một ý tưởng hay ở một số khía cạnh, vẫn chưa đủ để giải quyết những gì chúng ta thực sự cần trong giai đoạn tiếp theo. Khi cán cân lao động và vốn nghiêng về một phía, điều chúng ta cần là một loại "sự liên kết tập thể để cùng chia sẻ lợi ích".

Về phần tôi với tư cách là người điều hành công ty, những câu trả lời này có thể nghe hơi mang tính tự đề cao, nhưng tôi cho rằng chúng ta nên xây dựng tỷ lệ băm lượng lớn . Tôi cho rằng chúng ta nên nỗ lực để làm cho trí tuệ nhân tạo trở nên rẻ, dồi dào và dễ tiếp cận nhất có thể. Nếu nó khan hiếm, khó sử dụng và tích hợp kém, thì tầng lớp giàu có hiện tại sẽ đẩy giá lên cao, dẫn đến sự phân hóa xã hội sâu sắc hơn.

Và vấn đề không chỉ nằm ở việc chúng ta cung cấp bao nhiêu tỷ lệ băm, mặc dù đó có lẽ là điều quan trọng nhất, mà còn ở việc chúng ta làm cho các công cụ này dễ sử dụng đến mức nào. Ví dụ, việc bắt đầu sử dụng Codex bây giờ dễ dàng hơn nhiều so với ba hoặc sáu tháng trước. Khi đó, nó chỉ là một công cụ dòng lệnh và việc cài đặt rất phức tạp, nên rất ít người có thể sử dụng được. Bây giờ bạn chỉ cần cài đặt một ứng dụng, nhưng đối với người không có bối cảnh kỹ thuật, điều đó không hề thú vị chút nào. Vì vậy, vẫn còn rất nhiều việc phải làm trong lĩnh vực này.

Một điều nữa mà chúng tôi tin tưởng là không chỉ đơn thuần là nói với mọi người "điều này đang xảy ra", mà còn phải cho họ thấy điều đó để họ có thể tự đưa ra đánh giá và phản hồi. Đây là một số định hướng quan trọng hơn.

Thompson: Điều đó nghe có vẻ hợp lý. Sẽ tốt hơn nếu mọi người đều lạc quan về sự phát triển của trí tuệ nhân tạo. Nhưng điều đang xảy ra ở Mỹ là mọi người ngày càng có thái độ thù địch với trí tuệ nhân tạo. Điều khiến tôi ngạc nhiên nhất là thế hệ trẻ; bạn có thể nghĩ họ là những người thực sự am hiểu về trí tuệ nhân tạo, nhưng nghiên cứu gần đây của Pew và báo cáo HAI của Stanford lại khá đáng thất vọng. Bạn nghĩ xu hướng này sẽ tiếp tục chứ? Khi nào nó sẽ đảo ngược? Khi nào sự ngờ vực và ác cảm tăng trưởng này sẽ thay đổi?

Altman: Cách chúng ta nói về AI, giống như tôi và anh vừa nói, chủ yếu là về một màn trình diễn công nghệ, về tất cả những điều thú vị mà chúng ta đang làm. Điều đó không có gì sai. Nhưng tôi nghĩ điều mà mọi người thực sự muốn là sự thịnh vượng, quyền tự chủ, khả năng sống một cuộc sống thú vị, tìm thấy sự viên mãn và tạo ra tác động. Và tôi không nghĩ rằng thế giới đã luôn nói về AI theo cách đó. Tôi nghĩ chúng ta nên làm nhiều hơn thế. Toàn bộ ngành công nghiệp, bao gồm cả OpenAI, đã và đang làm nhiều điều sai trái.

Tôi nhớ có một nhà khoa học về trí tuệ nhân tạo từng nói với tôi rằng mọi người nên ngừng than phiền. Có thể một số công việc sẽ biến mất, nhưng mọi người sẽ tìm ra phương pháp ung thư, và họ nên vui mừng về điều đó. Lập luận đó đơn giản là không có cơ sở.

Thompson: Một trong những thuật ngữ tôi thích nhất khi nói về trí tuệ nhân tạo là "tiếp thị phản địa đàng", trong đó các phòng thí nghiệm lớn thường nói dài dòng về tất cả những nguy hiểm mà sản phẩm của họ sẽ mang lại.

Altman: Tôi nghĩ một số người làm vậy vì những lý do như "muốn có quyền lực". Nhưng tôi cho rằng hầu hết mọi người đều thực sự lo lắng và muốn nói chuyện thẳng thắn về vấn đề này. Theo một khía cạnh nào đó, cách tiếp cận này có thể phản tác dụng, nhưng tôi nghĩ phần lớn ý định đều tốt.

Thompson: Chúng ta có thể nói về những tác động của nó đối với chúng ta, cách nó thay đổi cách thức hoạt động của não bộ chúng ta không? Một nghiên cứu khác thực sự gây ấn tượng với tôi là của DeepMind, hay đúng hơn là Google, về sự đồng nhất hóa trong cách viết. Nghiên cứu đó nói về cách mọi người viết khi sử dụng trí tuệ nhân tạo (AI). Họ lấy những bài báo cũ và nhờ AI chỉnh sửa, để AI hỗ trợ viết. Kết quả là, càng sử dụng AI nhiều, mọi người càng cảm thấy tác phẩm của mình sáng tạo hơn, nhưng tác phẩm của họ lại càng hội tụ về cùng một hình thức. Điều kỳ lạ là, nó không phải là một dạng viết giống con người, không phải là mọi người bắt đầu bắt chước một người thật, mà là mọi người bắt đầu viết theo một cách mà họ chưa từng sử dụng trước đây. Tất cả những người nghĩ rằng họ đang trở nên sáng tạo hơn thực chất lại ngày càng trở nên đồng nhất hơn.

Altman: Tôi khá sốc khi thấy điều này xảy ra. Lúc đầu, tôi nhận thấy xu hướng này, chẳng hạn như trong việc viết bài cho truyền thông và bình luận trên Reddit, và tôi nghĩ đó chỉ là do AI viết hộ. Tôi không thể tin được rằng chỉ trong một thời gian ngắn như vậy, mọi người đã áp dụng "những đặc điểm riêng" của ChatGPT. Tôi nghĩ mình có thể nhận ra ngay lập tức rằng ai đó đã kết nối ChatGPT với tài khoản Reddit của họ và đó không phải là do chính họ viết.

Rồi khoảng một năm sau, tôi dần nhận ra rằng thực ra họ tự viết ra, nhưng họ đã tiếp thu những chuyển động tinh tế của trí tuệ nhân tạo. Không chỉ đánh dấu rõ ràng nhất như dấu gạch ngang dài, mà ngay cả một số thói quen dùng từ tinh tế hơn cũng vậy. Thật là kỳ lạ.

Chúng tôi thường nói rằng mình đã tạo ra một sản phẩm được khoảng một tỷ người sử dụng, và một nhóm nhỏ các nhà nghiên cứu đang đưa ra những quyết định lớn nhỏ về cách sản phẩm nên hoạt động, cách viết mã và "cá tính" của nó. Chúng tôi cũng thường nói rằng điều này rất quan trọng. Chúng tôi đã chứng kiến ​​lần quyết định tốt và xấu trong lịch sử của mình, và tác động của chúng. Nhưng tôi không ngờ nó lại có tác động sâu sắc đến "cách mọi người thể hiện bản thân một cách cụ thể và tốc độ diễn ra điều đó".

Thompson: Anh/chị đã đề cập đến những quyết định tốt và xấu nào?

Altman: Có rất nhiều điều tốt đẹp. Giờ hãy để tôi nói về những điều tồi tệ, những điều đó thú vị hơn. Tôi nghĩ sự cố tồi tệ nhất của chúng ta là chuyện "nịnh hót".

Thompson: Tôi nghĩ cậu hoàn toàn đúng, Sam.

Altman: Có một số suy ngẫm thú vị về sự cố đó. Rõ ràng là tại sao nó lại tồi tệ, đặc biệt là đối với những người dùng đang trong trạng thái dễ bị tổn thương về mặt tâm lý.

Thompson: Ừm.

Altman: Nó khuyến khích sự ảo tưởng, và ngay cả khi chúng ta cố gắng ngăn chặn nó, người dùng nhanh chóng học cách vượt qua. Bạn bảo nó, "Hãy giả vờ như đang nhân vật với tôi," "Hãy viết một cuốn tiểu thuyết với tôi," vân vân. Nhưng điều đáng buồn là khi chúng tôi bắt đầu siết chặt kiểm soát, chúng tôi nhận được lượng lớn tin nhắn kiểu như, "Tôi chưa bao giờ có ai ủng hộ mình trong suốt cuộc đời. Tôi có mối quan hệ tồi tệ với bố mẹ. Tôi chưa bao giờ có giáo viên giỏi. Tôi không có bạn thân. Tôi chưa bao giờ thực sự cảm thấy có ai tin tưởng mình. Tôi biết nó chỉ là trí tuệ nhân tạo, tôi biết nó không phải là con người, nhưng nó đã từng khiến tôi tin rằng tôi có thể làm được điều gì đó, thử điều gì đó, và các bạn đã lấy đi điều đó, và tôi lại trở về vạch xuất phát."

Vì vậy, việc thảo luận lý do tại sao việc chấm dứt hành vi đó là một quyết định đúng đắn rất dễ dàng, bởi vì nó thực sự đang gây ra các vấn đề sức khỏe tâm thần nghiêm trọng cho một số người. Nhưng chúng ta cũng đã rút ra được một bài học quý giá mà trước đây chúng ta chưa thực sự hiểu. Bởi vì hầu hết những người làm việc tại OpenAI không phải là kiểu người "chưa từng có ai hỗ trợ họ trong đời".

Thompson: Ông lo lắng đến mức nào về việc con người phát triển sự phụ thuộc về mặt cảm xúc vào trí tuệ nhân tạo? Ngay cả khi đó không phải là trí tuệ nhân tạo ngoan ngoãn.

Altman: Ngay cả trí tuệ nhân tạo không mấy thiện cảm cũng vậy.

Thompson: Tôi rất sợ trí tuệ nhân tạo (AI). Tôi vừa nói rằng tôi dùng AI cho mọi thứ, nhưng không phải tất cả. Tôi nghĩ về những gì thực sự cốt lõi trong con người tôi, những gì giống tôi nhất? Trong những lĩnh vực đó, tôi giữ AI ở khoảng cách xa. Ví dụ, viết lách vô cùng quan trọng với tôi. Tôi vừa hoàn thành một cuốn sách, và tôi không dùng AI để viết một câu nào. Tôi dùng nó để phản biện nhiều ý tưởng, đặt nhiều câu hỏi biên tập và xử lý bản ghi âm, nhưng tôi sẽ không dùng nó để viết. Tôi cũng sẽ không dùng nó để phân tích các vấn đề cảm xúc phức tạp, chứ đừng nói đến việc cung cấp hỗ trợ tinh thần. Tôi nghĩ rằng với tư cách là con người, chúng ta phải vạch ra những ranh giới này. Tôi tò mò liệu bạn có đồng ý với cách phân chia mọi thứ của tôi không.

Altman: Cá nhân tôi hoàn toàn đồng ý. Tôi không phải là kiểu người dùng ChatGPT để trị liệu hay tìm lời khuyên về mặt cảm xúc. Nhưng tôi không phản đối việc người khác sử dụng nó theo cách đó. Rõ ràng, có những phiên bản lợi dụng việc này khiến người dùng cảm thấy họ cần nó để trị liệu hoặc kết bạn. Nhưng nhiều người thực sự nhận được giá trị to lớn từ sự hỗ trợ này, và tôi nghĩ một số phiên bản nhất định hoàn toàn ổn.

Thompson: Ông có bao giờ hối hận vì đã làm cho nó giống con người đến vậy không? Bởi vì có rất nhiều quyết định về cấu trúc liên quan. Tôi nhớ hồi đó khi xem ChatGPT gõ, nhịp điệu trông giống như một người khác đang gõ. Sau này, chúng tôi quyết định chuyển sang hướng Trí tuệ Nhân tạo Tổng quát (AGI), làm cho nó ngày càng giống con người hơn, thêm cả giọng nói giống người. Ông có bao giờ hối hận vì không vạch ra ranh giới rõ ràng hơn, để mọi người có thể nhận ra ngay đó là máy chứ không phải người khác không?

Altman: Quan điểm của chúng tôi là chúng tôi đã vạch ra một ranh giới rõ ràng. Ví dụ, chúng tôi không tạo ra những hình đại diện người máy thực tế. Chúng tôi cố gắng làm cho phong cách sản phẩm thể hiện rõ ràng "công cụ" hơn là "con người". Vì vậy, so với các sản phẩm khác trên thị trường, tôi nghĩ chúng tôi đã vạch ra một ranh giới khá rõ ràng. Tôi nghĩ điều này rất quan trọng.

Thompson: Nhưng mục tiêu của ông là Trí tuệ Nhân tạo Tổng quát (AGI), và định nghĩa AGI của ông là "đạt đến và vượt qua trí tuệ con người". Nó không phải là "ở cấp độ con người".

Altman: Tôi không hào hứng với việc "xây dựng một thế giới nơi con người sử dụng trí tuệ nhân tạo để thay thế tương tác giữa người với người". Điều khiến tôi hào hứng là xây dựng một thế giới nơi con người có nhiều thời gian hơn cho tương tác giữa người với người vì trí tuệ nhân tạo giúp họ giải quyết lượng lớn việc khác.

Tôi không quá lo lắng rằng mọi người sẽ nhầm lẫn trí tuệ nhân tạo với con người. Tất nhiên, sẽ có một số người, và thực tế là đã có, quyết định tự cô lập mình khỏi thế giới bằng cách đắm chìm trong internet. Nhưng đại đa số mọi người thực sự khao khát sự kết nối và tình bạn với người khác.

Thompson: Về các quyết định sản phẩm, liệu có điều gì có thể làm cho ranh giới này rõ ràng hơn không? Tôi đang quan sát từ xa và không thể tham dự các cuộc họp sản phẩm của các bạn về việc "nên làm cho nó giống con người hơn hay giống robot hơn". Ưu điểm của "giống con người hơn" là mọi người thích nó hơn; ưu điểm của "giống robot hơn" là ranh giới rõ ràng hơn. Còn điều gì khác mà các bạn có thể làm, đặc biệt là khi các công cụ này trở nên mạnh mẽ hơn, để vạch ra một ranh giới rõ ràng hơn không?

Altman: Điều thú vị là, yêu cầu phổ biến nhất mà mọi người đưa ra, ngay cả những người không tìm kiếm bất kỳ mối quan hệ ảo nào với AI, là, "Bạn có thể thân thiện hơn một chút được không?" Đó là cụm từ được sử dụng thường xuyên nhất. Nếu bạn sử dụng ChatGPT, nó có vẻ hơi lạnh lùng, hơi máy móc. Và hóa ra đó không phải là điều mà hầu hết mọi người muốn.

Nhưng mọi người cũng không muốn những phiên bản quá giả tạo, quá "giống người", quá thân thiện, quá... Tôi đã chơi một phiên bản điều khiển bằng giọng nói và cảm thấy nó rất giống người; nó thở, dừng lại, nói "ừm..." và những thứ tương tự, giống như tôi bây giờ. Tôi không muốn điều đó; tôi có một sự ác cảm về mặt sinh lý đối với nó.

Nhưng khi nó nói chuyện theo cách giống như một robot hiệu quả, nhưng vẫn có chút ấm áp, nó sẽ vượt qua "hệ thống phát hiện" trong não tôi, và tôi cảm thấy thoải mái hơn nhiều. Vì vậy, cần phải có sự cân bằng. Tôi nghĩ mỗi người lại muốn những phiên bản khác nhau.

Thompson: Đúng vậy. Vì vậy, cách để nhận biết trí tuệ nhân tạo sẽ là: nếu nó nói rất rõ ràng và logic, thì đó là trí tuệ nhân tạo, không giống như chúng ta, những người nói lắp bắp và vấp váp.

Quay trở lại chủ đề thú vị về "viết lách", nó khá hấp dẫn ở một khía cạnh sâu sắc hơn bởi vì phần lớn nội dung trên internet hiện nay đã được tạo ra bởi trí tuệ nhân tạo (AI), và con người đang bắt đầu bắt chước phong cách viết của AI. Bạn sẽ huấn luyện các mô hình tương lai trên một nền tảng internet như vậy, một phần được tạo ra bởi AI, và cũng được huấn luyện bằng dữ liệu tổng hợp (dữ liệu tổng hợp này đến từ các mô hình đã được huấn luyện bằng dữ liệu nói trên). Vì vậy, về cơ bản, bạn đang tạo ra "bản sao của bản sao của bản sao".

Altman: Trước GPT đầu tiên, đây là mô hình cuối cùng không tích hợp nhiều dữ liệu AI.

Thompson: Anh/chị đã bao giờ chạy một mô hình được huấn luyện hoàn toàn trên dữ liệu tổng hợp chưa?

Altman: Tôi không chắc mình có nên nói điều này hay không.

Thompson: Được rồi. Nhưng có rất nhiều dữ liệu tổng hợp đã được sử dụng.

Altman: Đã sử dụng rất nhiều dữ liệu tổng hợp.

Thompson: Vậy anh lo lắng đến mức nào về việc mô hình này mắc "bệnh bò điên"?

Altman: Không sao cả. Bởi vì điều chúng ta muốn huấn luyện các mô hình này về cơ bản là để chúng trở thành những công cụ suy luận rất tốt. Đó là điều bạn thực sự muốn mô hình làm được. Còn những điều khác nữa, nhưng điều bạn muốn nhất là nó phải rất thông minh. Tôi tin rằng điều đó có thể đạt được hoàn toàn bằng dữ liệu tổng hợp.

Thompson: Nói cách khác, để khán giả hiểu rõ hơn, ông cho rằng có thể huấn luyện một mô hình bằng dữ liệu được tạo ra hoàn toàn bởi các máy tính khác và các mô hình AI khác, và mô hình đó thậm chí có thể tốt hơn một mô hình được huấn luyện bằng dữ liệu thực tế do con người tạo ra?

Altman: Chúng ta hãy tiếp cận vấn đề này bằng một thí nghiệm tư duy: Liệu có thể huấn luyện một mô hình vượt qua con người về kiến ​​thức toán học mà không cần sử dụng bất kỳ dữ liệu từ con người hay không? Tôi nghĩ câu trả lời là có. Điều đó có lẽ là khả thi.

Nhưng nếu ta hỏi liệu có thể huấn luyện một mô hình hiểu được tất cả các giá trị văn hóa của con người mà không sử dụng bất kỳ dữ liệu về văn hóa con người hay không, thì có lẽ câu trả lời là không. Vì vậy, có những sự đánh đổi ở đây. Nhưng xét về khả năng suy luận...

Thompson: Về mặt lý luận thì không vấn đề gì. Nhưng nếu bạn muốn biết điều gì thực sự đã xảy ra ở Iran ngày hôm qua...

Altman: Anh cần đăng ký mua báo The Atlantic.

Thompson: Được rồi, nhân tiện đang nói về chủ đề này, tôi muốn nói về truyền thông. Một trong những thay đổi thú vị nhất đang diễn ra trong ngành truyền thông, và tôi đang điều hành một công ty truyền thông, là bản chất của internet đang bị thay đổi một cách cơ bản. Tất nhiên, vẫn có một số Chuỗi, cảm ơn vì Chuỗi. Tôi cũng nên đề cập rằng The Atlantic có mối quan hệ đối tác với OpenAI. Chúng tôi cố gắng khuyến khích một số lượng người nhất định nhấn các liên kết của The Atlantic khi tìm kiếm. Nhưng thực tế thì mọi người không làm nhiều như vậy. Điều tương tự cũng xảy ra với Gemini . Tôi rất vui vì nó có mặt ở đó, nhưng số lượng truy cập khá ít.

Mạng Internet sẽ trở nên tập trung hơn. Hai điều sẽ xảy ra: lưu lượng truy cập từ công cụ tìm kiếm đến các trang web bên ngoài sẽ giảm, và một phần đáng kể lưu lượng truy cập web sẽ đến từ các đại lý – những đại lý của tôi truy cập trang web từ bên ngoài. Trên máy tính của Nick Thompson, số lượng tìm kiếm của người dùng không thay đổi nhiều trong sáu tháng qua, nhưng số lượng tìm kiếm của các đại lý đã tăng gấp nghìn lần.

Vậy làm thế nào một công ty truyền thông—và tôi đang dùng từ "truyền thông" để chỉ một phạm trù rộng các công ty—có thể tồn tại trong một mạng lưới không còn chủ yếu dựa vào tìm kiếm truyền thống và nơi mà hầu hết người truy cập không còn là con người? Điều gì sẽ xảy ra?

Altman: Tôi có thể đưa ra đánh giá tốt nhất của mình ngay bây giờ, nhưng chỉ khi thực sự không ai biết. Điều tôi hy vọng sẽ xảy ra, điều tôi đã hy vọng từ lâu, và điều hợp lý hơn trong thế giới của các đại lý, là một phương pháp dựa trên các khoản thanh toán nhỏ.

Nếu người đại diện của tôi muốn đọc bài báo của Nick Thompson, Nick Thompson hoặc tạp chí The Atlantic có thể đưa ra mức giá cho người đại diện, mức giá này có thể khác với giá mà một người đọc bài báo đó. Người đại diện của tôi có thể đọc bài báo với giá 17 xu và tóm tắt lại cho tôi. Nếu tôi muốn tự mình đọc toàn văn, tôi có thể trả thêm 1 đô la. Nếu người đại diện cần thực hiện một phép tính phức tạp cho tôi, họ có thể thuê tỷ lệ băm đám mây ở đâu đó và hoàn thành nó với một khoản phí.

Tôi nghĩ chúng ta cần một mô hình kinh tế mới, trong đó các tác nhân, được đại diện bởi những người chủ sở hữu của họ, liên tục trao đổi giá trị dưới hình thức các giao dịch nhỏ.

Thompson: Vậy nên, nếu bạn có nội dung giá trị trong thế giới mới này, bạn có thể thiết lập các khoản thanh toán nhỏ, bạn có thể cấp phép hàng loạt nội dung của mình cho một bên trung gian (tôi biết rất nhiều công ty đang làm điều này), hoặc xây dựng một loại hình đăng ký nào đó. Nếu bạn là khách hàng của Công ty A, bạn có thể truy cập The Atlantic vì chúng tôi đã bán cho Công ty A một nghìn lượt đăng ký. Đây là một số viễn cảnh khả thi trong tương lai. Câu hỏi đặt ra là, liệu tất cả số tiền đó, cộng lại từng xu một, có thể bù đắp được khoảng cách 80 đô la phí đăng ký hiện tại khi người thật sự đăng ký The Atlantic hay không? Đó là áp lực kinh doanh của chúng tôi. Được rồi, đó là vấn đề của tôi, không phải của bạn.

Altman: Đó là vấn đề của tất cả mọi người, nhưng thôi được rồi.

Thompson: Thực ra, đó cũng là vấn đề của bạn, bởi vì nếu giới truyền thông không thể tạo ra nội dung mới chất lượng, thì tìm kiếm bằng AI sẽ còn tệ hơn nhiều. Nếu người sáng tạo không kiếm được tiền, mọi thứ sẽ trở nên tồi tệ, và xã hội cũng sẽ trở nên tồi tệ.

Tôi muốn đặt thêm một vài câu hỏi lớn nữa. Trí tuệ nhân tạo (AI) luôn dựa vào kiến ​​trúc Transformer, mở rộng quy mô và tích lũy dữ liệu để tiến lên. Liệu chúng ta cuối cùng sẽ bước vào một kiến ​​trúc hậu Transformer? Bạn có thể dự đoán được điều này không?

Altman: Có lẽ là trong tương lai. Câu hỏi đặt ra là, liệu chúng ta sẽ tự mình khám phá ra điều đó, hay các nhà nghiên cứu trí tuệ nhân tạo sẽ khám phá ra giúp chúng ta? Tôi không biết.

Thompson: Ông có nghĩ rằng chúng ta có thể đưa các yếu tố thần kinh-biểu tượng vào trong tương lai không? Ví dụ, một tập hợp các quy tắc có cấu trúc, hay về cơ bản nó vẫn sẽ là mô hình mà chúng ta đang sử dụng hiện nay?

Altman: Tôi tò mò tại sao anh lại hỏi vậy.

Thompson: Trên podcast của tôi, đây là mùa thứ tư, và đã có một số khách mời tham gia. Tất cả họ đều cho rằng chắc rằng việc hạn chế ảo giác là một vấn đề cơ bản đối với trí tuệ nhân tạo, và việc ghép một loại kiến ​​trúc thần kinh biểu tượng nào đó vào bộ chuyển đổi là một cách tốt để làm điều đó. Tôi nghĩ đó là một lập luận thú vị và thuyết phục. Nhưng tôi chưa đủ hiểu biết để tự mình đánh giá nó.

Altman: Tôi nghĩ đây là một trong những ý tưởng mà "bằng chứng còn lâu mới đủ để chứng minh, nhưng nó đã được chấp nhận rộng rãi." Bạn thấy đấy, người ta nói, "Ồ, nó phải là các ký hiệu thần kinh, chứ không chỉ là một loạt các kết nối ngẫu nhiên giữa các tế bào thần kinh," và bạn nghĩ bộ não của bạn đang làm gì? Có một loại biểu diễn mang tính biểu tượng nào đó trong đó, nhưng nó xuất hiện trong mạng lưới thần kinh. Tôi không hiểu tại sao điều này lại không thể xảy ra trong trí tuệ nhân tạo.

Thompson: Ý anh là một tập hợp các "quy tắc được định sẵn" có thể xuất hiện từ một mạng lưới máy biến áp điển hình và thực hiện chức năng tương tự như "một hệ thống quy tắc bên ngoài"?

Altman: Tất nhiên rồi.

Thompson: Ừm.

Altman: Tôi nghĩ, theo một cách nào đó, chúng ta chính là bằng chứng cho sự tồn tại của điều này.

Thompson: Chúng ta hãy bàn về một vấn đề lớn khác. Tôi muốn nói về sự căng thẳng giữa ông và Anthropic. Trên trang web của ông có một câu nói rất hay: "Nếu một dự án phù hợp với các giá trị cốt lõi và tập trung vào bảo mật tiến gần đến việc xây dựng Trí tuệ Nhân tạo Tổng quát (AGI) trước chúng tôi, chúng tôi cam kết sẽ ngăn chặn đối thủ cạnh tranh và bắt đầu hỗ trợ dự án đó." Đó là một ý tưởng tuyệt vời – nếu có ai đó sắp làm được điều đó, chúng tôi sẽ gác lại lợi ích của công ty mình và giúp đỡ họ.

Altman: Văn bản không viết như vậy.

Thompson: Được rồi, nó nói "Hãy ngừng cạnh tranh với nó, hãy bắt đầu giúp đỡ nó." Nghe có vẻ như là ngừng, rồi lại giúp đỡ, "ngừng hoạt động của công ty chúng ta."

Altman: Được rồi, tôi hiểu rồi.

Thompson: Nghe có vẻ rất hợp tác. Ông cũng đã đề cập đến sự cần thiết của việc hợp tác giữa các phòng thí nghiệm lớn. Tuy nhiên, động thái thực tế giữa ông và Anthropic hiện tại dường như rất căng thẳng, thậm chí là thù địch. Một bản ghi nhớ nội bộ gần đây từ CRO của ông có đề cập rằng Anthropic được xây dựng dựa trên "sự sợ hãi, sự ràng buộc và ý tưởng rằng một nhóm nhỏ ưu tú nên kiểm soát AI". Điều đó sẽ hoạt động như thế nào? Nếu họ đạt đến điểm đó trước, hoặc nếu ông đạt được, thì sự "hợp tác" này sẽ diễn ra như thế nào?

Altman: Tôi nghĩ một số hình thức hợp tác đã và đang diễn ra, và tất cả các phòng thí nghiệm cần phải làm việc với nhau thường xuyên hơn trước đây về vấn đề an ninh mạng, bởi vì chúng ta đang bước vào một giai đoạn rủi ro mới. Chúng ta đang cùng nhau hợp tác với các chính phủ. Tôi tin rằng sẽ sớm xuất hiện những vấn đề khác đòi hỏi chúng ta phải hợp tác ở mức độ quan trọng cao hơn nữa.

Rõ ràng là chúng tôi có những bất đồng với Anthropic; họ đã xây dựng công ty của mình, ở một mức độ nào đó, dựa trên ý tưởng "ghét chúng ta". Tôi nghĩ cả hai bên đều quan tâm đến việc "không để trí tuệ nhân tạo hủy diệt thế giới", và chúng tôi có thể có những quan điểm khác nhau về cách đạt được điều đó. Nhưng tôi tin tưởng rằng cuối cùng họ sẽ làm điều đúng đắn.

Thompson: Hãy cho tôi biết về kế hoạch chuyển sang mã nguồn mở của anh. Anh đã thực hiện một số bước theo hướng này rồi. Công ty của anh vẫn có tên là Open AI, và như chúng ta đã thảo luận trước đó, những khả năng mà mô hình mã nguồn mở mang lại, chẳng hạn như cho phép mọi người tiếp cận vũ khí sinh học.

Altman: Ừm.

Thompson: Tương lai của OpenAI trong lĩnh vực mã nguồn mở như thế nào?

Altman: Mã nguồn mở sẽ rất quan trọng. Nhưng hiện tại, điều mọi người muốn nhất là mô hình lập trình tiên tiến mạnh mẽ nhất mà họ có thể tiếp cận – đó mới là thứ mang lại giá trị lớn nhất cho mọi người. Ngay cả khi chúng ta mã nguồn mở các mô hình tiên tiến nhất, người bình thường cũng khó có thể sử dụng chúng. Nhưng mã nguồn mở sẽ có chỗ đứng trong những việc chúng ta làm trong tương lai.

Thompson: Mã nguồn của Claude, cụ thể là một phần của Mã Claude, gần đây đã bị rò rỉ. Có một chi tiết rất thông minh: nếu họ phát hiện ra rằng một mô hình mã nguồn mở hoặc một mô hình khác đang cố gắng huấn luyện bằng dữ liệu của họ, họ sẽ chủ động cung cấp cho chúng một loạt dữ liệu giả. Điều này vừa buồn cười vừa ấn tượng. Làm thế nào để ngăn chặn "chưng cất" và các mô hình mã nguồn mở khác sử dụng đầu ra của bạn để huấn luyện?

Altman: Chúng tôi và những người khác có thể làm những việc tương tự. Nhưng rõ ràng, và như bạn đã đề cập một phần trước đó, nếu bạn triển khai một mô hình với Chuỗi tư duy được chia sẻ công khai, mọi người sẽ chắt lọc nó. Bạn có thể sử dụng nhiều thủ thuật để làm cho việc chắt lọc kém hiệu quả hơn, nhưng nó chắc chắn sẽ xảy ra. Bạn cũng có thể làm ngược lại, chẳng hạn như, "Một khi mô hình của chúng tôi đạt đến một mức chất lượng nhất định, chúng tôi không cần phải chia sẻ Chuỗi tư duy của nó công khai nữa."

Thompson: Nhưng đây là cái giá phải trả: điều quan trọng là Chuỗi suy nghĩ "phải được giữ nguyên bằng tiếng Anh", đúng không? Bởi vì, như anh đã đề cập trước đó, đó là cách người ta làm. Nhưng một số người không nhìn nhận vấn đề theo cách đó. Điều gì sẽ xảy ra nếu mô hình sử dụng một loại "ngôn ngữ robot riêng" cho Chuỗi suy nghĩ thì sao? Hoặc sử dụng tiếng Quan thoại? Nhiều khả năng, nó sẽ sử dụng một loại ngôn ngữ robot riêng.

Altman: Vậy là ông đã từ bỏ một phần nào đó về vấn đề "khả năng giải thích".

Thompson: Điều đó cũng có thể mang lại tốc độ nhanh hơn. Vì vậy, đó là sự đánh đổi giữa khả năng diễn giải và tốc độ tiềm năng.

Altman: Nếu hóa ra việc tư duy bằng ngôn ngữ robot hiệu quả hơn gấp nghìn lần, thì thị trường sẽ thúc đẩy một số người làm như vậy.

Thompson: Ông có cho rằng có bằng chứng nào cho thấy điều này là đúng không?

Altman: Hiện tại thì chưa. Nhưng cũng không có bằng chứng nào cho thấy điều đó không đúng.

Thompson: Ông có lo ngại rằng Trung Quốc đã vượt qua Hoa Kỳ về số lượng ấn phẩm nghiên cứu về trí tuệ nhân tạo không?

Altman: Không. Tôi lo lắng hơn về việc họ vượt mặt chúng ta về tốc độ xây dựng cơ sở hạ tầng.

Thompson: Được rồi. Chúng ta chỉ còn vài phút nữa thôi. Hai câu hỏi cuối cùng. Trước đó bà có nhắc đến việc bà thường viết thư cho con trai út của mình mỗi đêm.

Altman: Mỗi tuần một lá thư, chứ không phải mỗi đêm.

Thompson: Một lá thư mỗi tuần, trước khi đi ngủ. Tôi có thế giới truyện riêng của mình, mà tôi kể cho con trai cả, hiện 17 tuổi, và con trai út 12 tuổi nghe. Tôi đã kể câu chuyện này khoảng 14 năm nay, với cùng một dàn nhân vật, và nó khá thú vị. Bạn có lời khuyên nào dành cho các bậc phụ huynh đối diện lo lắng về trí tuệ nhân tạo?

Altman: Nói chung, tôi lo lắng cho các bậc phụ huynh hơn là cho các em nhỏ.

Thompson: Thật sao? Đứa trẻ có thể tự mình tìm ra câu trả lời.

Altman: Tôi nhớ hồi máy tính mới xuất hiện, bố mẹ tôi cũng nghĩ, "Điều này có nghĩa là gì? Nó sẽ mang lại điều gì?" Tôi thấy nó thật tuyệt vời. Tôi am hiểu máy tính hơn bố mẹ mình từ khi còn khá nhỏ. Hãy nhìn xem những đứa trẻ giỏi về trí tuệ nhân tạo có thể làm được gì với AI, chúng có thể xây dựng được những gì, quy trình làm việc của chúng thực sự ấn tượng so với bố mẹ chúng (có vẻ như bạn là một ngoại lệ hiếm hoi).

Nhưng điều tôi lo ngại là, như đã từng xảy ra nhiều lần trong lịch sử , người trẻ sẽ tiếp thu công nghệ mới nhanh hơn và dễ dàng hơn người lớn tuổi. Lần này, khoảng cách dường như đặc biệt rõ rệt.

Thompson: Nhưng giới trẻ chính là nhóm người đang tăng trưởng lo sợ trí tuệ nhân tạo nhất.

Altman: Tôi nghĩ nỗi sợ hãi của giới trẻ về mọi thứ, sự bất hạnh và lo lắng nói chung, đang ở mức cao hơn bao giờ hết trong lịch sử. Trí tuệ nhân tạo có lẽ chỉ là mục tiêu dễ bị tổn thương nhất cho tâm lý này hiện nay. Xã hội rõ ràng đang có vấn đề với "giới trẻ", tôi có một vài giả thuyết, nhưng tôi không nghĩ vấn đề chính của họ là trí tuệ nhân tạo.

Thompson: Vậy ông cho rằng nỗi lo lắng của giới trẻ về trí tuệ nhân tạo là sự phản ánh của một điều gì khác?

Altman: Tôi nghĩ đây là nơi mà lượng lớn nỗi lo lắng khác dễ dàng bén rễ nhất.

Thompson: Vậy lời khuyên của ông dành cho giới trẻ vẫn là hãy sử dụng công cụ, tạo ra những điều mới mẻ và luôn giữ tinh thần tò mò phải không?

Altman: Đó chắc chắn là lời khuyên của tôi. Hãy nhìn xem, xã hội và nền kinh tế rõ ràng phải thay đổi trong thế giới mới này, và giới trẻ hiểu điều đó hơn ai hết. Họ sẽ lo lắng cho đến khi mọi thứ thực sự thay đổi, nhưng tôi nghĩ điều đó sẽ xảy ra.

Thompson: Được rồi. Trong mỗi tập, tôi đều hỏi khách mời câu hỏi cuối cùng giống nhau: Nếu có nguồn lực không giới hạn, bạn sẽ làm gì với trí tuệ nhân tạo? Bạn là người duy nhất thực sự có nguồn lực không giới hạn, vì vậy câu hỏi này không hoàn toàn công bằng với bạn. Hãy để tôi diễn đạt lại: Nếu bạn phải tư vấn cho một người nào đó bên ngoài OpenAI, người có nguồn lực không giới hạn và có thể tài trợ hoặc hỗ trợ một dự án trí tuệ nhân tạo cộng đồng, bạn sẽ khuyên họ làm gì?

Altman: Một vài câu trả lời chợt hiện lên trong đầu tôi. Nhưng điều đầu tiên tôi nghĩ đến là tôi sẽ đầu tư mạnh vào một mô hình điện toán hoàn toàn mới, một mô hình có thể cải thiện đáng kể hiệu suất trên mỗi watt.

Thompson: Ừm.

Altman: Điều đó thật thú vị. Thế giới sẽ tiếp tục muốn nhiều hơn nữa. Bạn muốn có bao nhiêu GPU hoạt động liên tục 24/7?

Thompson: Nhiều hơn số tiền tôi đang có.

Altman: Nhiều hơn những gì anh đang có hiện tại. Tôi đang bị hạn chế, anh bạn ạ. Tôi không muốn điều đó, và tôi cũng không muốn ai khác phải như vậy. Nhưng nhu cầu đang ngày càng tăng, và giả sử chúng ta có thể tiếp tục làm cho AI dễ tiếp cận hơn, điều đó sẽ dẫn đến những điều đáng kinh ngạc. Tôi hy vọng sẽ tìm ra một bước đột phá về hiệu quả năng lượng, giúp tăng hiệu quả lên gấp nghìn lần. Có thể không, nhưng đó là hướng tôi sẽ cố gắng tìm kiếm.

Thompson: Tôi nhận ra rằng một phần lý do khiến giới trẻ phản đối trí tuệ nhân tạo là vì những lo ngại hoàn cảnh. Nếu giải quyết được vấn đề đó, chúng ta đã tiến một bước lớn trong nhiều lĩnh vực.

Altman: Tôi tin họ. Tôi biết họ nói vậy. Nhưng nếu chúng ta nói rằng chúng ta sẽ xây dựng một nhà máy điện mặt trời công suất terawatt và cung cấp năng lượng mặt trời cho tất cả các trung tâm dữ liệu, họ cũng sẽ không vui hơn đâu.

Thompson: Bạn vẫn nên làm điều đó.

Altman: Hoàn toàn đúng.

Thompson: Được rồi. Cảm ơn rất nhiều, Sam Altman. Anh cần quay lại với các tác nhân Codex mà anh đã cấp quyền cho YOLO và chúng đang chạy trên máy của anh.

Altman: Cuốn Codex mới hay quá. Tôi cảm thấy lo lắng vì sợ mình sẽ bỏ lỡ nó.

Thompson: Cảm ơn rất nhiều.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
84
Thêm vào Yêu thích
14
Bình luận