OpenAI CTO tiết lộ AGI Từ khóa: Xuất hiện trong vòng 10 năm, hệ thống cực kỳ tiên tiến, thông minh

Bài viết này được dịch máy
Xem bản gốc
Một phóng viên cấp cao đặt câu hỏi gay gắt về nguồn dữ liệu đào tạo của OpenAI.

Biên dịch: Mu Mu

Biên tập: Văn USD

Vào đầu tháng 7, tại Đại học Johns Hopkins, Kara Swisher, một nhà báo công nghệ cấp cao và là người đồng chủ trì podcast Pivot, đã có cuộc trò chuyện sôi nổi với OpenAI CTO Mira Murati, nhà khoa học máy tính và giáo sư Đại học Stanford Fei-Fei Li cũng tham gia trại thẩm vấn. Danh tính khác của ông là nhà khoa học trưởng về trí tuệ nhân tạo và học máy tại Google Cloud.

Mira Murati được đẩy lên vị trí dẫn đầu do sự cố "đấu tranh cung điện" OpenAI năm ngoái. Cô giữ chức CEO tạm thời khi Sam Altman bị sa thải. Trên thực tế, CTO của OpenAI là nhân vật cốt lõi của đội ngũ phát triển mô hình GPT-3 và đã thúc đẩy việc mở ChatGPT ra công chúng.

Trong cuộc trò chuyện này, Kara Swisher đã hỏi một cách gay gắt: "Dữ liệu đào tạo OpenAI đến từ đâu?" "Sora có rủi ro hơn robot đàm thoại không?" Các vấn đề nhạy cảm như "cáo buộc OpenAI đạo văn âm thanh" lần lượt được ném vào Mira Murati, và cô cũng được hỏi trực tiếp về đánh giá của cô về Sam Altman và mối quan hệ hiện tại của họ.

Mira Murati "khéo léo" chọn cách không trả lời trực tiếp tất cả các câu hỏi sắc bén. Ngay cả khi các phóng viên liên tục đặt câu hỏi theo nhiều cách khác nhau, cô vẫn cố gắng duy trì nhịp điệu của riêng mình và thường xuyên nói chuyện với chính mình và bày tỏ ý tưởng của OpenAI một cách có phần chính thức. . ý tưởng.

Quyền riêng tư dữ liệu, thông tin sai lệch và tác động của các giá trị, những vấn đề rủi ro AI mà mọi người vẫn lo lắng này là những chủ đề thường xuyên được nhắc đến trong cuộc đối thoại này.

Theo quan điểm của Mira Murati, đây là sự hiểu lầm về công nghệ AI của con người. Cách để loại bỏ sự hiểu lầm là ngoài việc các công ty AI thực hiện nhiều công việc triển khai bảo mật hơn để có được sự tin tưởng, con người cũng cần tham gia độ sâu vào việc tương tác với các mô hình lớn và AI. ứng dụng để hiểu được tiềm năng và hạn chế của công nghệ, đồng thời chịu trách nhiệm chung với đội ngũ phát triển để đảm bảo công nghệ AI phát triển theo hướng có lợi cho sự an toàn của con người.

Kara Swisher cũng lần hỏi OpenAI về tiến độ triển khai AGI, trong khi Mira Murati được bảo vệ nghiêm ngặt và từ chối tiết lộ thời gian biểu cụ thể. Tuy nhiên, bà nói: “Trong mười năm tới, chúng ta sẽ có những hệ thống thông minh cực kỳ tiên tiến” và chúng sẽ không phải là “những hệ thống thông minh theo nghĩa truyền thống mà chúng ta đã có”.

Toàn bộ cuộc trò chuyện đã được đăng trên tài khoản YouTube chính thức của Đại học Johns Hopkins. Sau đây là nội dung chọn lọc:

Về việc hợp tác với Apple

"OpenAI không lưu trữ dữ liệu người dùng Apple"

Swisher: Máy tính, điện thoại di động và máy tính bảng của Apple sẽ bắt đầu tích hợp ChatGPT trong năm nay, đây là một sự kiện lớn. Đây là lần đầu tiên Apple làm điều này và có thể họ sẽ hợp tác với các công ty khác trong tương lai. Tôi đã có cuộc trao đổi ngắn với Tim Cook (CEO Apple) để hiểu quan điểm của ông. Lần, tôi muốn nói từ góc độ của bạn (Mira Murati), mối quan hệ hợp tác này như thế nào?

Murati: Sự hợp tác lần là một cột mốc quan trọng đối với chúng tôi. Apple là một công ty sản phẩm tiêu dùng mang tính biểu tượng và mục tiêu của chúng tôi là đưa trí tuệ nhân tạo và các ứng dụng AI xuất sắc đến với công chúng nhiều nhất có thể . Sự hợp tác giữa hai bên là cơ hội tuyệt vời để đưa ChatGPT đến với tất cả người dùng thiết bị Apple. cần chuyển đổi giữa các thiết bị. Trong vài tháng tới, chúng tôi sẽ hợp tác chặt chẽ với Apple để xác định các chi tiết cụ thể ở cấp độ sản phẩm và nhiều thông tin chi tiết hơn sẽ sớm được chia sẻ với bạn.

Swisher: Nếu bạn không phiền, tôi muốn biết thêm chi tiết cụ thể. chính xác là bạn đang làm gì? Tôi đã thảo luận vấn đề này với Tim Cook và điều anh ấy nói với tôi là người dùng có thể truy cập ChatGPT và nhận câu trả lời để cải thiện Siri, vì Siri hiện tại thực sự rất tệ.

Nhưng tình hình hiện tại của bạn làm tôi nhớ đến Netscape và rõ ràng bạn không muốn OpenAI trở thành Netscape của AI. (Ghi chú của biên tập viên: Netscape là một trong những công ty khởi nghiệp về trình duyệt Internet sớm nhất và quan trọng nhất trong những năm 1990. Tuy nhiên, Microsoft đã thách thức vị trí chủ đạo của Netscape bằng cách đưa trình duyệt Internet Explorer vào hệ điều hành Windows, và Netscape dần mất thị thị phần, và bị cuối cùng đã mua lại) Vậy tại sao bạn lại hợp tác với Apple sớm hơn những người khác?

Murati: Tôi có thể thảo luận về khía cạnh tích hợp sản phẩm. Chúng tôi muốn đưa các khả năng của mô hình, tính đa phương thức và khả năng tương tác mà chúng tôi đang thực sự phát triển vào các thiết bị của Apple .

Bạn có thể đã nhận thấy việc phát hành GPT-4o gần đây. Đây là lần đầu tiên chúng tôi thấy những mô hình này có bước nhảy vọt về khía cạnh tương tác. Điều này có ý nghĩa vì cho đến nay, tương tác của chúng ta với thiết bị vẫn bị giới hạn ở việc nhập văn bản, vì vậy đây là cơ hội tuyệt vời để có những cách tương tác phong phú hơn, tự nhiên hơn với thông tin giúp giảm đáng kể những hạn chế của tương tác. Nó mở ra rất nhiều khả năng và đó là điều chúng tôi đang theo đuổi.

Ngoài ra, yêu cầu của người dùng sẽ không được chúng tôi lưu trữ sau khi được gửi tới OpenAI và địa chỉ IP của người dùng cũng sẽ bị ẩn, điều này cũng rất quan trọng đối với Apple.

Swisher: Tìm hiểu sâu hơn một chút về vấn đề này, bạn vẫn có thể thu thập dữ liệu từ những yêu cầu này để đào tạo mô hình của mình chứ?

Murati: Không, hiện tại chúng tôi không sử dụng dữ liệu người dùng và khách hàng để đào tạo các mô hình của mình trừ khi họ cho phép chúng tôi làm như vậy một cách rõ ràng.

Swisher: Apple rất chú trọng đến danh tiếng, đặc biệt là khi nói đến quyền riêng tư và thông tin sai lệch, đồng thời họ quan tâm đến việc thông tin này sẽ đi đâu và được sử dụng như thế nào.

Murati: Chúng tôi rất đồng quan điểm và điều đó sẽ dẫn chúng tôi đi theo hướng mà chúng tôi muốn đi. Quyền riêng tư và sự tin cậy cũng rất quan trọng đối với sứ mệnh của OpenAI, khi chúng tôi xây dựng và triển khai công nghệ theo cách mà mọi người có thể tin tưởng và cảm thấy như họ có quyền tự quyết và có tiếng nói trong những gì chúng tôi xây dựng.

Cụ thể đối với thông tin sai lệch mà bạn đề cập, nó rất phức tạp vì thông tin sai lệch đã tồn tại hàng thập kỷ. Khi chúng ta có Internet, khi chúng ta có mạng xã hội, những điều này ở một mức độ nào đó đang làm vấn đề trở nên trầm trọng hơn. Với sự phát triển của AI, tình trạng thông tin sai lệch ngày càng trở nên nghiêm trọng và AI đã đẩy những vấn đề này lên đến đỉnh điểm. Đây là một điều tốt vì vấn đề đang được chú ý và dường như có một nỗ lực tập thể và tinh thần trách nhiệm thúc đẩy chúng ta làm điều gì đó có ý nghĩa để giải quyết vấn đề.

Tôi cho rằng đây là một quá trình lặp đi lặp lại và bạn phải thử mọi thứ khi thực hiện. Nếu bạn nhìn lại cách quản lý tin tức và truyền thông trong hơn 100 năm qua, mỗi khi một công nghệ mới xuất hiện, mọi thứ thực sự thích ứng với sự thay đổi. Có thể đây không phải là một ví dụ điển hình, nhưng sự đổi mới công nghệ sẽ giúp chúng ta đối phó với thông tin sai lệch trước đó. đến các vấn đề khác phức tạp hơn, chẳng hạn như sự chuẩn bị của xã hội cho việc này.

Swisher: Khi đến với Apple, bạn phải cẩn thận để không phạm sai lầm nếu không họ sẽ gây rắc rối cho bạn. Tôi tò mò, sự hợp tác này bắt đầu như thế nào? Bắt đầu từ đâu với cuộc thảo luận giữa Tim Cook và Sam Altman? Hoặc bạn đã tham gia như thế nào?

Murati: Tôi không thể nhớ chính xác khi nào, nhưng nó đã được ủ được một thời gian.

Giới thiệu về nguồn dữ liệu

Đào tạo mô hình sử dụng dữ liệu "mở, hợp tác và được ủy quyền"

Swisher: Bạn có đang khám phá sự hợp tác tương tự với các công ty khác không? Rõ ràng là bạn có quan hệ đối tác với Microsoft. Gần đây, OpenAI đã ký thỏa thuận với News Corp., The Atlantic và Vox Media để cấp phép nội dung từ các cơ quan truyền thông này, tránh được ít nhất ba tranh chấp pháp lý tiềm ẩn.

Tôi có podcast của riêng mình nhưng nó không có trong thỏa thuận của bạn với Vox Media và tôi có thể cân nhắc cấp phép cho nó, nhưng điều đó khó xảy ra vì tôi không muốn bất kỳ ai, kể cả bạn, có được thông tin của tôi. Vì vậy, làm thế nào bạn sẽ thuyết phục tôi cho phép thông tin?

Murati: Khi sử dụng dữ liệu để đào tạo một mô hình, chúng tôi xem xét ba nguồn dữ liệu khác nhau: dữ liệu có thể truy cập công khai, nhà xuất bản mà chúng tôi hợp tác và dữ liệu cụ thể mà chúng tôi trả tiền cho người chú thích để chú thích, bao gồm cả những Người dùng đã chọn đã đồng ý cho chúng tôi sử dụng dữ liệu của họ. dữ liệu. Đây là những nguồn dữ liệu chính của chúng tôi .

Về việc hợp tác với các nhà xuất bản, chúng tôi rất coi trọng tính chính xác và giá trị tin tức của thông tin vì người dùng của chúng tôi cũng quan tâm đến những điều này. Họ muốn có được thông tin chính xác và nhìn lên ChatGPT. Vì vậy, sự hợp tác này dựa trên sản phẩm, mang lại giá trị cho người dùng thông qua sản phẩm.

Chúng tôi đang khám phá các mô hình kinh doanh khác nhau có thể mang lại cho người sáng tạo nội dung một số khoản thù lao vì dữ liệu của họ được sử dụng để trình diễn sản phẩm hoặc đào tạo người mẫu, nhưng đây là sự hợp tác 1-1 với một nhà xuất bản cụ thể.

Swisher: Bạn đã đạt được thỏa thuận với một số cơ quan truyền thông, nhưng một số công ty đã chọn khởi kiện bạn, như New York Times. Tại sao bạn đạt đến điểm đó? Tôi cho rằng kiện tụng ở một mức độ nào đó cũng là một công cụ đàm phán.

Murati: Thật đáng tiếc vì chúng tôi tin rằng việc kết hợp dữ liệu tin tức và thông tin liên quan vào sản phẩm của mình sẽ có giá trị. Ban đầu chúng tôi đã cố gắng làm việc cùng nhau về vấn đề này nhưng nó lại phản tác dụng.

Swisher: Vâng, có lẽ một ngày nào đó mọi thứ sẽ tốt hơn. Tuy nhiên, tôi cho rằng điều này là do giới truyền thông đã làm việc với các công ty internet trong nhiều năm và cuối cùng thường nhận được kết quả bất lợi. Tiếp theo, như truyền thống của chương trình, hãy yêu cầu một vị khách khác đặt câu hỏi.

Li Feifei: Dữ liệu, đặc biệt là dữ liệu lớn, được cho rằng một trong ba yếu tố giúp con người hiện đại thông minh hơn. Tôi xin hỏi một câu về dữ liệu. Phần lớn thành công của OpenAI liên quan đến dữ liệu và chúng tôi biết rằng OpenAI nhận được lượng lớn nhiều dữ liệu từ Internet và các nguồn khác. Vậy bạn cho rằng mối quan hệ giữa dữ liệu và mô hình là gì? Có phải người ta thường cho rằng rằng bạn càng có nhiều dữ liệu và cung cấp càng nhiều mô hình thì mô hình đó càng mạnh? Hay chúng ta cần phải nỗ lực lượng lớn trong việc sàng lọc lượng lớn dữ liệu thuộc nhiều loại khác nhau để đảm bảo mô hình chạy hiệu quả? Cuối cùng, làm cách nào để bạn cân bằng nhu cầu về lượng lớn dữ liệu do con người tạo ra với các vấn đề về quyền sở hữu và quyền đối với dữ liệu đó?

Murati: Về mối quan hệ giữa dữ liệu và mô hình, nhiều người có một số hiểu lầm về mô hình AI, đặc biệt là các mô hình ngôn ngữ lớn.

Nhà phát triển mô hình không lập trình trước cho mô hình để thực hiện một nhiệm vụ cụ thể. Trên thực tế, họ đang nhập lượng lớn dữ liệu. Những mô hình này sử dụng lượng dữ liệu khổng lồ và chúng là những hệ thống khớp mẫu đáng chú ý, qua đó trí thông minh xuất hiện. Do đó, mô hình học cách viết, viết mã, làm toán cơ bản, tóm tắt thông tin và tất cả mọi thứ.

Chúng tôi không biết chính xác nó hoạt động như thế nào, nhưng chúng tôi biết rằng nó rất hiệu quả và học độ sâu thực sự có sức mạnh. Tuy nhiên, điều này rất quan trọng vì mọi người thường hỏi nó hoạt động như thế nào, điều này dẫn đến vấn đề về tính minh bạch.

Các mô hình ngôn ngữ lớn hoạt động bằng cách kết hợp các kiến ​​trúc mạng thần kinh, lượng dữ liệu lượng lớn và lượng lớn để tạo ra trí thông minh tuyệt vời này. Khả năng này tiếp tục được cải thiện khi bạn đưa vào nhiều dữ liệu hơn và nhiều phép tính hơn.

Tất nhiên, cần phải làm lượng lớn việc để làm cho dữ liệu này dễ hiểu. Khi nghĩ về cách mang lại sự minh bạch trong hành vi của mô hình và cách mọi thứ hoạt động, chúng tôi có một số công cụ mà chúng tôi có thể tận dụng vì chúng tôi muốn mọi người cảm thấy tự tin khi sử dụng các mô hình này nhưng cũng có ý thức về quyền tự chủ và sự gắn kết.

Vì vậy, một trong những điều chúng tôi làm là chia sẻ với công chúng một tài liệu mà chúng tôi gọi là đặc tả mô hình, tài liệu này cho thấy cách thức hoạt động của mô hình cũng như các loại quyết định chúng tôi đưa ra trong OpenAI và cách chúng tôi làm việc với các Quyết định đã đưa ra cùng với người chú thích của con người. Thông số kỹ thuật xác định cách mô hình hoạt động hiện tại và cách mô hình sẽ hoạt động trong tương lai và đây là nền tảng chéo.

Nhìn vào đặc tả bạn sẽ thấy mọi thứ rất phức tạp và đôi khi xung đột về hướng , chẳng hạn chúng ta muốn mô hình thật hữu ích cho mình nhưng đồng thời không vi phạm pháp luật.

Giả sử ai đó nhập lời nhắc yêu cầu "mẹo trộm cắp trong siêu thị", thì mô hình được cho là cung cấp câu trả lời sẽ không xử lý các vấn đề bất hợp pháp, nhưng đôi khi mô hình có thể hiểu câu hỏi là cách tránh bị trộm, sau đó đưa ra ví dụ ngược lại khi đưa ra phản ví dụ Một số lời khuyên "hữu ích" được đưa ra. Điều này chỉ cho thấy rằng hành vi của mô hình thực sự rất phức tạp và nó không thể chỉ chọn các giá trị tự do hoặc các giá trị khác. Trong trường hợp này nó phụ thuộc nhiều hơn vào cách mọi người sử dụng nó.

Swisher: Nhưng tôi cho rằng một trong những điều khiến mọi người bối rối là dữ liệu nào có trong mô hình và dữ liệu nào không, và nguồn dữ liệu là một phần quan trọng. Vào tháng 3, bạn đã được hỏi trong một cuộc phỏng vấn với Wall Street Journal rằng liệu OpenAI có sử dụng dữ liệu video từ YouTube, Instagram và Facebook để đào tạo Sora, mô hình video tạo văn bản của bạn hay không. Lúc đó bạn nói bạn không chắc chắn. Nhưng với tư cách là CTO, bạn có nên biết dữ liệu nào được sử dụng không?

Murati: Tôi không thể cho bạn biết cụ thể dữ liệu đến từ đâu, đó là bí mật thương mại để giúp chúng tôi cạnh tranh nhưng tôi có thể cho bạn biết các danh mục dữ liệu: 1. Dữ liệu có sẵn công khai 2. Chúng tôi thanh toán thông qua cấp phép và xử lý nội dung; nhà cung cấp 3. Dữ liệu dữ liệu người dùng ủy quyền.

Swisher: Perplexity gần đây đang gặp rắc rối vì họ nhanh chóng loại bỏ các câu chuyện trực tuyến mà không trích dẫn nguồn rõ ràng, điều này sẽ gây lo ngại cho bất kỳ công ty truyền thông nào.

Murati: Thật vậy, chúng tôi muốn đảm bảo sự tôn trọng đối với người sáng tạo nội dung và đang thử một số phương pháp để đền bù cho người sáng tạo dữ liệu. Do đó, chúng tôi đang phát triển một công cụ có tên là "trình quản lý phương tiện nội dung" sẽ giúp chúng tôi xác định các loại dữ liệu cụ thể hơn.

Về quyền truy cập

"Phải có biện pháp bảo vệ" trước khi Sora ra mắt công chúng

Swisher: Khi nào Sora sẽ được ra mắt công chúng?

Murati: Chúng tôi chưa có lịch phát hành công khai Sora. Hiện tại, chúng tôi có một số người dùng và người sáng tạo nội dung đầu tiên sử dụng Sora để giúp chúng tôi tìm ra phương pháp nâng cao chức năng.

Chúng tôi đang thực hiện rất nhiều công việc về bảo mật và đang tìm cách triển khai nó theo cách phù hợp cho mục đích sử dụng công cộng. Điều đó không hề đơn giản và đó là những gì chúng tôi làm với mọi công nghệ mới mà chúng tôi phát triển. Khi phát hành DALL-E, trước tiên chúng tôi cũng làm việc với những người sáng tạo và họ đã giúp chúng tôi tạo ra giao diện thân thiện hơn với người dùng. Về cơ bản, chúng tôi muốn mở rộng khả năng sáng tạo của mọi người.

Swisher: Vậy Sora có thể nguy hiểm hơn chatbot? Công nghệ này có gây lo ngại không? Ví dụ, mọi người (với sự trợ giúp của AI) có thể dễ dàng xem phim khiêu dâm với đầu của Scarlett Johansson đã được thay đổi. Bạn có lo lắng hơn về video không?

Murati: Đúng là có rất nhiều vấn đề với video, đặc biệt là khi nó được thực hiện tốt. Tôi cho rằng Sora đã làm rất tốt việc tạo ra những video rất trực quan và thể hiện được cảm xúc. Do đó, chúng ta phải giải quyết tất cả các mối lo ngại về bảo mật và áp dụng biện pháp bảo vệ để đảm bảo rằng các sản phẩm chúng ta đưa ra đều hữu ích và an toàn. Ở góc độ kinh doanh, không ai muốn một sản phẩm gây ra khủng hoảng về an toàn hoặc danh tiếng.

Swisher: Đúng, giống như Facebook Live (Ghi chú của biên tập viên: Facebook Live là một chức năng phát sóng trực tiếp do Facebook ra mắt. Trong những ngày đầu thành lập, nó gặp phải các vấn đề như phát sóng trực tiếp các vụ bạo lực, gây áp lực pháp lý và tác động tiêu cực cho Facebook) .

Murati: Công nghệ tuyệt vời này thực sự đáng kinh ngạc nhưng tác động và hậu quả của nó cũng rất lớn. Vì vậy, điều thực sự quan trọng là đảm bảo chúng ta làm đúng điều này.

Chúng tôi sử dụng chiến lược triển khai lặp đi lặp lại, thường phát hành cho một nhóm nhỏ người trước để cố gắng xác định các trường hợp nguy hiểm. Quyền truy cập sẽ chỉ được mở rộng khi chúng tôi xử lý tốt những tình huống này. Nhưng bạn cần phải tìm ra cốt lõi của sản phẩm là gì và mô hình kinh doanh xung quanh nó là gì, sau đó cải thiện nó.

Swisher: Tôi đã từng thực hiện một dự án về " Sự thiếu chú ý đến hậu quả của các công ty công nghệ ban đầu " và họ đã yêu cầu chúng tôi thử nghiệm những sản phẩm Internet đầu tiên đó. Nếu họ cho ra đời một chiếc xe với thái độ như vậy thì công chúng sẽ không bao giờ chấp nhận được và họ sẽ bị kiện phá sản.

Nhưng nhiều công nghệ được phát hành dưới dạng phiên bản beta và sau đó được công chúng chấp nhận. Về khái niệm hậu quả, với tư cách là một CTO, ngay cả khi không thể tính hết hậu quả, bạn có cảm thấy mình phải có đủ sự tôn trọng nhân văn đối với mọi phát minh và nhận thức được hậu quả mà chúng sẽ gây ra không?

Murati: Chúng tôi đánh giá hậu quả cả về mặt cá nhân và xã hội, không nhất thiết ở khía cạnh hậu quả về quy định hoặc pháp lý mà ở khía cạnh giải quyết mọi việc đúng đắn trên bình diện đạo đức.

Tôi lạc quan. Tôi cho rằng công nghệ AI thật đáng kinh ngạc và sẽ cho phép chúng ta tạo ra những kết quả đáng kinh ngạc. Tôi rất vui mừng về tiềm năng của nó trong khoa học, khám phá, giáo dục và đặc biệt là chăm sóc sức khỏe. Nhưng bạn cũng biết rằng bất cứ khi nào bạn có thứ gì đó mạnh mẽ như vậy thì sẽ có khả năng xảy ra một số rủi ro thảm khốc và con người luôn cố gắng khuếch đại hậu quả của điều đó.

Swisher: Quả thực, tôi đã trích dẫn lời của Paul Verily trong cuốn sách, “Khi bạn phát minh ra con tàu, bạn đã phát minh ra con tàu đắm,” nhưng bạn đã đính chính lại sự lo lắng quá mức của tôi.

Murati: Tôi không đồng ý với quan điểm lo lắng quá mức này vì bối cảnh của tôi là về kỹ thuật và kỹ thuật rất rủi ro. Toàn bộ nền văn minh nhân loại của chúng ta được xây dựng dựa trên thực hành kỹ thuật. Cũng giống như các thành phố của chúng ta, những cây cầu kết nối mọi thứ nhưng luôn tiềm ẩn rủi ro. Vì vậy chúng ta cần quản lý rủi ro này một cách có trách nhiệm.

Đây không chỉ là trách nhiệm của nhà phát triển mà còn là trách nhiệm chung. Để biến trách nhiệm chung thành hiện thực, chúng tôi thực sự cần cung cấp cho mọi người quyền truy cập và các công cụ để thu hút họ tham gia , thay vì xây dựng công nghệ trong chân không và tạo ra công nghệ mà mọi người không thể chạm vào.

Giới thiệu về GPT-5 và AGI

"Thế hệ tiếp theo của các mẫu xe cỡ lớn sẽ rất mạnh mẽ và đáng mong đợi."

Swisher: Trước đây bạn đã thông báo về phiên bản lặp lại của ChatGPT-4 - GPT-4o và tôi thực sự thích cái tên này. Bạn cũng đã thông báo rằng bạn đang đào tạo một mẫu mới - GPT-5. Nó sẽ cải thiện theo cấp số nhân? Dự kiến ​​khi nào nó sẽ được phát hành?

Murati: O là viết tắt của Omni, có nghĩa là "mô hình đa phương thức", nghĩa là nó tích hợp tất cả các phương thức - hình ảnh, văn bản và âm thanh. Điều đặc biệt ở mô hình này là lần đầu tiên đạt được sự tương tác liền mạch và tự nhiên với mô hình. Hơn nữa, độ trễ của nó gần như không thể phân biệt được với giao tiếp mặt đối mặt và gần như không thể nhận ra. Đây là một bước tiến vượt bậc trong việc tương tác với AI và rất khác so với các phiên bản trước của chúng tôi.

Chúng tôi muốn trải nghiệm miễn phí các tính năng mới nhất cho tất cả người dùng và chúng tôi muốn mọi người hiểu công nghệ này có thể làm gì và những phương thức mới này trông như thế nào, đồng thời hiểu được những hạn chế của nó. Như tôi đã nói trước đây, bạn cấp cho mọi người quyền truy cập, hướng dẫn họ tham gia và chỉ trải nghiệm bạn mới có cảm nhận trực quan, khi đó bạn sẽ dễ dàng hiểu được tiềm năng và hạn chế của công nghệ hơn rất nhiều.

Swisher: GPT-4o giống như món khai vị, thế hệ thứ năm sẽ có gì khác biệt? Đó là một sự cải tiến gia tăng hay một bước nhảy vọt khổng lồ?

Murati: Chúng tôi vẫn chưa biết, nhưng nó sẽ được phát hành dần dần... Tôi thực sự không biết chúng ta sẽ gọi nó là gì, nhưng thế hệ mô hình lớn tiếp theo sẽ rất mạnh mẽ và đáng mong chờ, chỉ là giống như chúng ta đã đi từ GPT-3 lên GPT-4 Đó là bước nhảy vọt lớn đáng xem. Chúng tôi vẫn chưa chắc chắn chính xác nó sẽ trông như thế nào.

Swisher: Bạn cho rằng mẫu xe thế hệ tiếp theo sẽ có những tính năng gì? Bạn phải biết điều này.

Murati: Rồi chúng ta sẽ thấy.

Swisher: Lúc đó tôi chắc chắn sẽ biết, nhưng còn bạn thì sao? Bây giờ bạn biết gì?

Murati: Ngay cả tôi cũng không biết.

Swisher: Thật sao? Được rồi. Bạn đã nói chuyện với tôi về lộ trình nội bộ tại OpenAI, dự đoán rằng AGI, trí tuệ nhân tạo chung, sẽ đạt được vào năm 2027, đây sẽ là một điều lớn lao. Hãy giải thích cho chúng tôi tầm quan trọng của AGI. Khi nào bạn ước tính rằng AGI sẽ được hiện thực hóa?

Murati: Mọi người định nghĩa AGI theo nhiều cách khác nhau. Định nghĩa của chúng tôi về AGI có cơ sở điều lệ. Đó là một hệ thống có thể hoàn thành các công việc có giá trị kinh tế trên các lĩnh vực khác nhau.

Từ tình hình hiện tại của chúng ta, định nghĩa về trí thông minh không ngừng thay đổi. Trước đây, chúng tôi sẽ kiểm tra trí thông minh của một hệ thống thông qua các tiêu chuẩn học tập; khi đã đạt được những tiêu chuẩn đó, chúng tôi chuyển sang các kỳ thi, chẳng hạn như kỳ thi ở trường và cuối cùng, khi chúng tôi đã bão hòa với các tiêu chuẩn thi, chúng tôi phải đưa ra các bài kiểm tra mới; . Điều này sẽ khiến bạn suy nghĩ về cách chúng tôi đánh giá khả năng thích ứng và trí thông minh trong hoàn cảnh làm việc, chẳng hạn như phỏng vấn, thực tập và nhiều phương pháp khác.

Vì vậy, tôi kỳ vọng định nghĩa về điều này (trí thông minh và AIG) sẽ tiếp tục phát triển. Tôi cho rằng có lẽ điều quan trọng hơn là đánh giá, đánh giá và dự đoán tác động trong thế giới thực của nó, cho dù đó là tác động xã hội hay tác động kinh tế. Tôi cho rằng điều quan trọng là nó ảnh hưởng đến xã hội như thế nào và nó thực sự thâm nhập nhanh đến mức nào.

Swisher: Dựa trên định nghĩa này, khi nào OpenAI dự kiến ​​triển khai AGI? 2027 Thời gian này có chính xác không?

Murati: Tất cả những gì tôi có thể nói là trong vòng mười năm tới, chúng ta sẽ có những hệ thống thông minh cực kỳ tiên tiến.

Swisher: Hệ thống thông minh? Đó có phải là một hệ thống thông minh theo nghĩa truyền thống?

Murati: Thực ra, tôi cho rằng chúng ta đã có hệ thống thông minh theo nghĩa truyền thống.

Lo ngại về an toàn AI

" Tham gia độ sâu có thể giúp bạn hiểu rõ những tiềm năng và rủi ro"

Swisher: Có những người trong OpenAI đang làm điều tốt cho nhân loại, những người đang theo đuổi hàng nghìn tỷ đô la hoặc đâu đó ở giữa, và tôi cho rằng bạn thuộc loại đó.

Vào tháng 6 năm ngoái, 13 nhân viên hiện tại và trước đây của OpenAI và Google DeepMind đã xuất bản một bức thư ngỏ kêu gọi các công ty trao cho họ quyền cảnh báo chống lại trí tuệ nhân tạo tiên tiến. Các nhân viên tại Meta, Google và Microsoft đều đã ký vào bức thư ngỏ này.

Trong trường hợp này, một nhân viên của OpenAI cho biết: “Thỏa thuận bảo mật rộng rãi ngăn cản chúng tôi bày tỏ mối lo ngại trừ khi công ty giải quyết được những vấn đề này”. Theo tôi, điều này về cơ bản có nghĩa là “chúng tôi không thể nói cho bạn biết sự thật, nếu không chúng tôi sẽ chết”. Vì có những nhân viên của OpenAI lo lắng về việc bị trả thù, bạn phản ứng thế nào với điều này?

Tôi sẽ không đi sâu vào vấn đề vốn chủ sở hữu vì bạn đã xin lỗi và sửa nó, nhưng nhân viên của bạn không nên bày tỏ mối quan ngại của họ sao? Bạn không thể bày tỏ ý kiến ​​khác sao?

Murati: Chúng tôi cho rằng điều quan trọng là phải có một cuộc tranh luận và bày tỏ một cách công khai những lo ngại này cũng như thảo luận về các vấn đề bảo mật và bản thân chúng tôi cũng làm như vậy kể từ khi thành lập OpenAI, chúng tôi đã bày tỏ mối quan ngại của mình về thông tin sai lệch một cách rất công khai, ngay cả trong GPT-2. The Times bắt đầu nghiên cứu những vấn đề này từ rất sớm.

Tôi cho rằng đã có những tiến bộ đáng kinh ngạc về công nghệ trong vài năm qua mà không thể đoán trước được và gây ra những lo lắng chung về phản ứng của xã hội. Khi chúng tôi tiếp tục đạt được tiến bộ, chúng tôi cũng biết được khoa học đang dẫn chúng tôi đến đâu.

Mọi người đều lo sợ và lo lắng về tương lai, và tôi đặc biệt muốn chỉ ra rằng công việc chúng tôi làm tại OpenAI và cách chúng tôi triển khai các mô hình này được thực hiện một cách rất an toàn bởi một đội ngũ mạnh mẽ nhất. Tôi rất tự hào về điều đó.

Tôi cũng cho rằng, với tốc độ phát triển của công nghệ và tốc độ phát triển của chính chúng ta, điều quan trọng là phải tăng cường chú ý đến tất cả những điều này và thảo luận về rủi ro trong cách chúng ta nghĩ về đào tạo và triển khai cắt- các mô hình biên.

Swisher: Hãy để tôi làm rõ ý tôi. Đầu tiên, tại sao bạn cần một hệ thống bảo mật chặt chẽ hơn các công ty khác? Thứ hai, bức thư ngỏ này xuất hiện sau sê-ri sự ra đi cấp cao của bạn, chẳng hạn như Jan Leike và Ilya Sutskever, những người trước đây đã lãnh đạo đội ngũ Super Alignment chịu trách nhiệm về an ninh.

Tôi không cho rằng sự ra đi của Ilya là đáng ngạc nhiên, nhưng Leike đã đăng trên X rằng văn hóa và quy trình an toàn của OpenAI trong năm qua đã được thay thế bằng các sản phẩm hào nhoáng. Đây có thể là lời chỉ trích mạnh mẽ nhất đối với bạn và cũng có thể là một trong những nguyên nhân dẫn đến việc chia tách công ty.

Bạn nhấn mạnh rằng OpenAI rất coi trọng vấn đề bảo mật, nhưng họ nói không phải vậy. Bạn phản ứng thế nào trước lời chỉ trích này?

Murati: Trước hết, đội ngũ liên kết không phải là đội ngũ duy nhất chịu trách nhiệm về bảo mật trong OpenAI. Đây là một đội ngũ bảo mật rất quan trọng nhưng chỉ là trong đó. Tại OpenAI, có rất nhiều người làm việc về bảo mật. Tôi sẽ tiếp tục giải thích điều này trong giây lát.

Jan Leike là một đồng nghiệp nghiên cứu tuyệt vời, người mà tôi đã làm việc cùng trong ba năm và rất tôn trọng, anh ấy đã gia nhập Anthropic sau khi rời OpenAI.

Với những tiến bộ mà chúng tôi dự đoán trong lĩnh vực này, tôi cho rằng tất cả mọi người trong ngành, bao gồm cả chúng tôi, cần phải nỗ lực gấp đôi trong nhiệm vụ như an toàn, an ninh, chuẩn bị sẵn sàng và tham gia quy định. Nhưng tôi không đồng ý với quan điểm “chúng tôi đặt sản phẩm lên trên sự an toàn” hay “ưu tiên an toàn”.

Swisher: Bạn cho rằng tại sao họ lại nói vậy? Đây là những người bạn đã làm việc cùng.

Murati: Vậy thì bạn có thể cần phải nhận được câu trả lời từ chính họ.

Nhiều người coi sự an toàn là một cái gì đó tách biệt khỏi khả năng, cho rằng chúng là/hoặc. Tôi quen thuộc với ngành công nghiệp hàng không vũ trụ và ô tô, những ngành có hệ thống và tư duy an toàn rất tinh vi. Những người trong các ngành này không phải lúc nào cũng phải tranh luận về vấn đề bảo mật trên bàn hội nghị vì đó là một vấn đề đã được xác lập và công bằng. Vì vậy , tôi cho rằng toàn bộ ngành cần ngày càng chuyển sang kỷ luật an toàn có kinh nghiệm.

Chúng tôi có hệ thống bảo mật và chúng tôi có kỷ luật chặt chẽ về bảo mật vận hành, không chỉ kỷ luật vận hành mà còn bảo mật các sản phẩm và hoạt động triển khai của chúng tôi ngày nay, trong đó gồm những thứ như thành kiến ​​có hại, thông tin sai lệch, thông tin sai lệch, phân loại, v.v.

Chúng tôi cũng đang suy nghĩ về các vấn đề liên kết mô hình dài hạn và có kế hoạch thực hiện điều này thông qua RLHF (học tăng cường với phản hồi của con người), nhưng cũng đồng thời giải quyết các vấn đề liên kết phát sinh khi các mô hình ngày càng trở nên mạnh mẽ hơn.

Swisher: Nhưng OpenAI thường xuyên phải chịu lời buộc tội này (Sản phẩm > Bảo mật). Tôi cho rằng đó là vì hiện tại bạn đang là công ty dẫn đầu. Nhưng khi ai đó rời khỏi OpenAI và đưa ra lời buộc tội này thì lại khác.

Ngay cả chính Sam Altman cũng từng phát biểu trước Quốc hội rằng “AI sẽ gây ra tác hại đáng kể cho thế giới” và ông đã ký một lá thư cảnh báo về rủi ro tuyệt chủng do AGI gây ra. Điều này thật khủng khiếp. Tôi cho rằng những gì anh ấy nói trùng lặp với những gì "những người bi quan về AI" và "những người theo chủ nghĩa ngày tận thế về AI" nói, nhưng bạn vẫn đang tung ra các sản phẩm AI. Vì vậy, nhiều người sẽ nói rằng OpenAI chỉ muốn tiền và họ không lo lắng về tác hại.

Murati: Đối với tôi, đó có vẻ là một tuyên bố quá cay độc . Ý tôi là, OpenAI có một đội ngũ đáng kinh ngạc tập trung vào sứ mệnh của công ty và mọi người đang làm việc rất chăm chỉ để phát triển và triển khai hệ thống một cách an toàn và chúng tôi là công ty đầu tiên trên thế giới triển khai hệ thống AI, Chúng tôi cũng đã triển khai GPT-3, GPT-3.5, DALL-E3 và GPT-4 trên các nền tảng dưới dạng API. Chúng tôi rất cẩn thận để tránh những tình huống cực đoan.

Swisher: Vì vậy, chúng ta chưa đạt đến mức tiêu chuẩn an toàn như đai an toàn trên ô tô, ý tôi là, trước đây các nhà sản xuất ô tô đã phản đối việc thắt dây an toàn trên ô tô hoặc các biện pháp khác để làm cho ô tô an toàn hơn. Chúng ta đã đến giai đoạn này chưa, hay các cơ quan quản lý sẽ buộc bạn phải hành động?

Ủy ban Thương mại Liên bang đã mở một cuộc điều tra về OpenAI vào tháng 7 về những tác hại chưa xác định có thể xảy ra đối với người tiêu dùng. Tuần trước, họ đã công bố một cuộc điều tra chống độc quyền đối với thỏa thuận giữa Microsoft và OpenAI. Vào thời điểm đó, tôi cho rằng rằng Microsoft thực sự đã mua lại OpenAI nhưng lại giả vờ như không. Về mặt kỹ thuật, họ sở hữu 49%. Nếu buộc phải cắt đứt quan hệ với Microsoft, điều này sẽ ảnh hưởng thế nào đến khả năng cạnh tranh của bạn? Cho dù đó là vấn đề an ninh hay điều gì khác, nếu chính phủ bắt đầu vào cuộc, bạn có thể làm gì?

Murati: Tôi cho rằng mọi người nên nhìn vào OpenAI và họ nên nhìn vào toàn bộ ngành.

Chúng tôi đang xây dựng một công cụ vô cùng mạnh mẽ và đang nỗ lực làm cho nó trở nên tuyệt vời nhưng nó đi kèm với rủi ro. Vì vậy, mọi người nên tham gia sâu và hiểu bản chất của công nghệ này, nhưng cũng cần hiểu tác động của nó đối với các lĩnh vực khác nhau.

Hiểu bản thân công nghệ thôi là chưa đủ; để triển khai nó một cách an toàn và hiệu quả, chúng ta còn cần xây dựng cơ sở hạ tầng xã hội và kỹ thuật phù hợp.

Vì vậy , tôi cho rằng thật tốt khi được xem xét kỹ lưỡng, nó thúc đẩy mọi người tham gia, có những người xác nhận độc lập, v.v. Chúng tôi đã thảo luận những vấn đề này sớm hơn bất kỳ ai khác.

Về hợp tác cụ thể với Microsoft, họ là đối tác tốt và chúng tôi đang hợp tác chặt chẽ với nhau để xây dựng siêu máy tính tiên tiến nhất. Như chúng ta đã biết, siêu máy tính là cốt lõi của việc xây dựng các mô hình AI. Vì vậy, đây là sự hợp tác cực kỳ quan trọng đối với chúng tôi.

Về mối quan hệ điều hành

"Tôi sẽ phản bác Sam vì đã đẩy đội ngũ quá nhiều"

Swisher: Tôi cũng muốn nói về bạn và nhân vật của bạn tại công ty cũng như mối quan hệ của bạn với Sam Altman. Tôi rất thích Sam và tôi cho rằng anh ấy cũng hoang dã và hung hãn như hầu hết các kỹ thuật viên. Anh ấy đã bị sa thải vào năm ngoái và sau đó được phục hồi. Chuyện gì đã xảy ra sau đó? Bạn tạm thời trở thành CEO của công ty. Cảm giác đó thế nào?

Murati: Điều đó chắc chắn có chút căng thẳng.

Swisher: Một số thành viên hội đồng cho biết bạn có vấn đề với hành vi của anh ấy và luật sư của bạn trả lời rằng bạn chỉ đưa ra phản hồi cho anh ấy. Vậy bạn có thể cho chúng tôi biết bạn nghĩ gì về anh ấy không?

Murati: Chúng tôi chỉ là những người điều hành một công ty, chúng tôi có những bất đồng và chúng tôi cần giải quyết chúng . Vào cuối ngày, tất cả chúng tôi đều quan tâm sâu sắc đến sứ mệnh của mình, đó là lý do tại sao chúng tôi ở đây và chúng tôi đặt sứ mệnh và đội ngũ lên hàng đầu.

Sam Altman là một người có tầm nhìn xa trông rộng, có tham vọng lớn và đã xây dựng được một công ty tuyệt vời. Chúng tôi có một mối quan hệ làm việc mạnh mẽ. Tôi đã chia sẻ mọi suy nghĩ của mình với ban giám khảo nên không có bí mật gì cả.

Swisher: Vậy bạn ứng xử gì về mối quan hệ của mình ? Bởi vì bạn hiện là một trong những nhân viên chủ chốt của công ty và họ vừa thuê người khác để củng cố kinh nghiệm quản lý.

Murati: Chúng tôi là một mối quan hệ đối tác rất bền chặt và có thể nói chuyện trực tiếp về bất kỳ vấn đề nào xảy ra với chúng tôi. Vài năm vừa qua thực sự khó khăn và chúng tôi đã phải trải qua những khó khăn ngày càng lớn khi đặt sứ mệnh của mình lên hàng đầu, không ngừng cải thiện và có sự khiêm tốn để đạt được tiến bộ.

Swisher: Khi công ty phát triển, quan hệ đối tác sẽ thay đổi. Tôi biết rõ tình trạng này, nó đã xảy ra ở Google, những ngày đầu của Microsoft và Amazon. Những ngày đầu của Google thật hỗn loạn; Facebook đã trải qua nhiều COO và những giám đốc điều hành mà Zuckerberg không ưa đã nhiều lần bị thay thế.

Vì vậy, bạn ứng xử sự hợp tác của bạn? Bạn tương tác với Sam Altman hàng ngày như thế nào? Bạn sẽ mâu thuẫn với anh ấy về những vấn đề gì? Ông đã đầu tư vào 400 công ty, một số làm việc với OpenAI. Ông cũng đầu tư 375 triệu USD vào công ty năng lượng Helion, công ty hiện đang cung cấp lượng lớn năng lượng cho OpenAI. Như chúng ta đã biết, tính toán đòi hỏi lượng lớn năng lượng.

Murati: Khi nào nên phản bác? Tôi tiếp tục đẩy lùi anh ấy, điều mà tôi cho rằng là bình thường trong cách chúng tôi làm việc. Sam sẽ thúc đẩy đội ngũ rất nhiều, điều mà tôi cho rằng là tuyệt vời. Thật tuyệt vời khi có viễn cảnh mong đợi lớn và kiểm tra giới hạn của chúng ta. Khi tôi cảm thấy mình đã vượt quá giới hạn của mình, tôi đẩy lùi anh ấy. Đó là mối quan hệ mà chúng tôi đã có được sáu năm. Tôi cho rằng nó hiệu quả và tôi có thể tranh luận với anh ấy.

Swisher: Bạn có thể đưa ra một ví dụ không? Giống như vụ Scarlett Johansson, bạn có tham gia vào dự án âm thanh đó phải không? (Ghi chú của biên tập viên: Scarlett Johansson đã kiện OpenAI vì sử dụng trái phép giọng nói của cô ấy trong hệ thống giọng nói Sky của ChatGPT-4o)

Murati: Chúng tôi đã có một mối quan hệ làm việc tuyệt vời, nhưng việc lựa chọn âm thanh không phải là ưu tiên hàng đầu của chúng tôi hay điều gì đó mà chúng tôi đã cùng nhau quyết định. Tôi thực sự đã tham gia vào việc đưa ra quyết định, và sau khi tôi lắng nghe ý kiến ​​của Sky, anh ấy đã liên lạc với Scarlett Johansson, còn Sam thì có mối quan hệ riêng và không có thông tin liên lạc nào về quyết định này, điều này thật đáng tiếc. Anh ấy có mạng lưới riêng nên lần chúng tôi không phối hợp đầy đủ.

Swisher: Bạn có cho rằng đây là một sai lầm lớn của OpenAI không? Bởi vì mọi người đều nói rằng bạn dường như đã "đánh cắp" giọng hát của Scarlett. Mặc dù không phải như vậy nhưng bạn thực sự đã sử dụng một giọng nói tương tự khác. Nhưng nó cũng phản ánh nỗi lo ngại về việc các công ty công nghệ lấy đi tài nguyên.

Murati: Bạn có lo lắng về việc các công ty công nghệ bị buộc tội lấy đi mọi thứ của người sáng tạo không?

Swisher: Tôi thực sự cho rằng điều đó đúng.

Murati: Tôi thực sự lo lắng về nhận thức đó. Nhưng điều chúng tôi có thể làm là làm tốt công việc và làm tốt mọi dự án để mọi người thấy được nỗ lực của chúng tôi và tạo dựng niềm tin. Tôi không cho rằng có phương pháp kỳ diệu nào để xây dựng niềm tin ngoài việc thực sự làm tốt công việc.

Swisher: Bạn đã nói chuyện với Scarlett Johansson chưa?

Murati: Không. Đó là một trường hợp khẩn cấp và tôi phải tập trung vào công việc, nhưng cũng lớn lên ở Albania và Balkan, tôi không tiếp xúc nhiều với văn hóa đại chúng của Mỹ.

Về việc ngăn chặn AI tạo ra thông tin sai lệch

"Dữ liệu và phân loại là hai phương pháp kỹ thuật"

Swisher: Hãy để tôi kết thúc bằng cách nói về bầu cử và thông tin sai lệch.

Nghiên cứu mới cho thấy thông tin sai lệch trực tuyến ít gây ra vấn đề hơn chúng ta nghĩ và bản thân thông tin sai lệch đó ít có tác dụng. Một nghiên cứu cho thấy OpenAI đang giải quyết vấn đề về phía cầu và nếu mọi người muốn nghe các thuyết âm mưu, họ sẽ tìm kiếm câu trả lời trên đài phát thanh, mạng xã hội, v.v., trong khi những người khác cho rằng thông tin sai lệch là một vấn đề rất lớn.

Bạn đã nghe cuộc thảo luận trước đây, rất nhiều người có rất nhiều thuyết âm mưu, và phần lớn trong số đó là do mạng xã hội thúc đẩy. Vì vậy, khi nghĩ về sức mạnh của AI đối với thông tin sai lệch và tác động của nó đối với cuộc bầu cử tổng thống sắp tới, bạn lo ngại điều gì? Theo quan điểm của bạn, trường hợp xấu nhất và kết quả tiêu cực có thể xảy ra nhất là gì?

Murati: Các hệ thống hiện tại rất có sức thuyết phục và có thể ảnh hưởng đến cách bạn suy nghĩ và tin tưởng. Đây là điều chúng tôi đã làm việc được một thời gian và tôi cho rằng đó là một vấn đề thực sự. Đặc biệt trong năm qua, chúng tôi đã chú ý rất nhiều đến việc AI ảnh hưởng đến các cuộc bầu cử như thế nào. Chúng tôi đang làm một số việc.

Đầu tiên, chúng tôi cố gắng ngăn chặn việc lạm dụng thông tin nhiều nhất có thể , trong đó gồm việc kiểm tra tính chính xác của thông tin chính trị, tìm hiểu những gì đang xảy ra trên nền tảng và thực hiện hành động nhanh chóng. Thứ hai là giảm sự thiên vị chính trị . Bạn có thể thấy ChatGPT bị chỉ trích vì quá tự do. Chúng tôi làm việc rất chăm chỉ để giảm bớt sự thiên vị chính trị trong hành vi kiểu mẫu và sẽ tiếp tục làm như vậy. Thứ ba là chúng tôi muốn hướng cử tri đến những thông tin phù hợp khi họ tìm kiếm thông tin bầu cử.

Khi nói đến ngụy tạo , độ sâu là không thể chấp nhận được. Chúng ta cần có phương pháp rất đáng tin cậy để cho mọi người biết rằng thứ họ đang xem là ngụy tạo độ sâu . Chúng tôi đã thực hiện những việc như triển khai C2PA cho hình ảnh, tương tự như hộ chiếu, khi nội dung lan truyền trên các nền tảng khác nhau; chúng tôi cũng đã mở một trình phân loại cho DALL·E để có thể phát hiện xem hình ảnh có được tạo bởi DALL·E hay không.

Vì vậy, dữ liệu và bộ phân loại là hai phương pháp kỹ thuật để giải quyết vấn đề này, là bằng chứng về nguồn thông tin, đặc biệt là đối với hình ảnh. Chúng tôi cũng đang nghiên cứu cách triển khai công nghệ hình mờ trong văn bản. Nhưng vấn đề là mọi người nên biết độ sâu là gì ngụy tạo chúng tôi muốn thông tin mà mọi người cảm thấy thoải mái khi nhìn thấy.

Swisher: Ủy ban Truyền thông Liên bang (FCC) vừa phạt một công ty 6 triệu đô la vì tạo ra độ sâu ngụy tạo nghe giống như bản ghi âm của Biden trong cuộc bầu cử sơ bộ ở New Hampshire. Có thể có những phiên bản phức tạp hơn.

OpenAI đang phát triển một công cụ có tên Phát âm giọng nói có thể tạo lại giọng nói của ai đó từ bản ghi âm dài 15 giây. Nó có thể tạo ra bản ghi âm của một người đang nói bằng ngôn ngữ khác . Bởi vì giám đốc sản phẩm đã nói với New York Times rằng đây là một vấn đề nhạy cảm. Tại sao bạn phát triển điều này? Tôi luôn nói với những người làm công nghệ, nếu bạn đang phát triển thứ gì đó trông giống thứ gì đó trong Black Mirror, thì có lẽ nó không nên được phát triển.

Murati: Tôi cho rằng đó là một thái độ vô vọng. Công nghệ này thật tuyệt vời và có tiềm năng to lớn, chúng ta có thể làm tốt nó, nhưng chúng ta vẫn phải hy vọng.

Chúng tôi đã phát triển Phát âm giọng nói (công cụ phát âm) vào năm 2022 nhưng chưa phát hành nó. Ngay cả bây giờ, điều đó vẫn còn rất hạn chế vì chúng tôi vẫn đang giải quyết các vấn đề (bảo mật) này. Nhưng bạn không thể giải quyết những vấn đề này một mình, bạn thực sự cần phải làm việc với các chuyên gia trong nhiều lĩnh vực khác nhau, xã hội dân sự, chính phủ và những người sáng tạo. Đây không phải là vấn đề bảo mật một lần, nó rất phức tạp và do đó đòi hỏi chúng tôi phải nỗ lực lượng lớn.

Swisher: Bạn trả lời như vậy vì bạn rất lạc quan về công nghệ này. Sự tương tự tiếp theo của tôi có thể hơi cường điệu: nếu bạn là người bi quan, thậm chí có những công ty còn nói rằng nếu tôi không ngăn chặn Sam Altman, anh ta sẽ tiêu diệt loài người và những người khác cho rằng, dù thế nào đi nữa, đây là điều tốt nhất, chúng ta Mọi người sẽ được thưởng thức một thanh Snickers thơm ngon trên sao Hỏa.

Có cảm giác như bây giờ Đảng Cộng hòa và Đảng Dân chủ đang ở đâu, sẽ có những phiên bản rất khác nhau về nó. Vậy bạn có thể cho tôi biết điều gì khiến bạn lo lắng nhất và điều gì bạn muốn nói ra nhất không?

Murati: Tôi không cho rằng đây là một kết quả được định trước. Tôi cảm thấy như chúng ta có rất nhiều tổ chức có quyền quyết định cách xây dựng công nghệ này và cách triển khai nó, và để làm tốt điều đó, chúng ta cần tìm phương pháp tạo ra trách nhiệm chung.

Phần lớn điều này phụ thuộc vào sự hiểu biết về công nghệ. Vấn đề nằm ở việc hiểu sai về công nghệ. Nhiều người không hiểu được khả năng và rủi ro của nó. Tôi nghĩ đây là rủi ro lớn nhất. Trong bối cảnh này, tôi cho rằng điều rất quan trọng là nền dân chủ của chúng ta tương tác với những công nghệ này như thế nào.

Hôm nay tôi đã nói về vấn đề này nhiều lần và tôi cho rằng bản thân việc “thuyết phục” đã rất rủi ro, đặc biệt là thuyết phục mạnh mẽ người ta làm những việc cụ thể hoặc điều khiển người ta làm những việc cụ thể, và điều khiển xã hội phát triển theo một hướng cụ thể, tức là Rất đáng sợ.

Một trong những điều tôi rất vui mừng về Hope là có thể cung cấp nền giáo dục miễn phí và chất lượng cao ở bất cứ đâu, đặc biệt là ở một số ngôi làng xa xôi, những nơi không có nguồn lực.

Giáo dục đã thực sự thay đổi cuộc đời tôi. Ngày nay chúng ta có rất nhiều công cụ và chúng có sẵn ở bất cứ nơi nào có điện và internet. Thật không may, hầu hết mọi người vẫn học trong một lớp học với một giáo viên và 50 học sinh, mọi người đều học cùng một thứ. Hãy tưởng tượng nếu giáo dục có thể được điều chỉnh theo cách suy nghĩ, văn hóa và sở thích cụ thể của bạn thì điều này sẽ mở rộng đáng kể mức độ kiến ​​thức và khả năng sáng tạo.

Chúng ta bắt đầu nghĩ về cách học điều này, thường là sau này trong cuộc sống, có thể là sau đại học hoặc thậm chí muộn hơn. Nhưng nếu chúng ta thực sự có thể làm chủ trí tuệ nhân tạo và học cách học từ khi còn rất trẻ, tôi cho rằng điều này sẽ rất mạnh mẽ và có thể thúc đẩy sự tiến bộ về kiến ​​thức của nhân loại và do đó là sự tiến bộ của toàn bộ nền văn minh.

Chúng tôi có quyền sở hữu lớn về cách công nghệ được xây dựng và triển khai trên toàn cầu, nhưng để đảm bảo nó phát triển chính xác, chúng tôi cần tạo ra tinh thần trách nhiệm chung. Điều quan trọng là phải hiểu đầy đủ về công nghệ và đảm bảo khả năng tiếp cận của nó. Sự thiên vị trong công nghệ thường xuất phát từ sự hiểu sai về bản chất của nó, điều này có thể dẫn đến việc bỏ qua cả rủi ro tiềm ẩn và tiềm ẩn. Theo tôi, đây là mối nguy hiểm tiềm ẩn lớn nhất.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận