Liệu AI và Deepfake có thể tác động đến cuộc bầu cử ở Hoa Kỳ không?

avatar
WIRED
09-06
Bài viết này được dịch máy
Xem bản gốc

Vài tháng trước, mọi người đều lo lắng về việc AI sẽ tác động đến cuộc bầu cử năm 2024 như thế nào. Có vẻ như một số nỗi lo đã tan biến, nhưng deepfake chính trị—bao gồm cả hình ảnh và video khiêu dâm—vẫn còn ở khắp mọi nơi. Hôm nay trong chương trình, các phóng viên của WIRED là Vittoria Elliott và Will Knight sẽ nói về những thay đổi của AI và những điều chúng ta nên lo lắng.

Leah Feiger là @ LeahFeiger . Vittoria Elliott là @telliotter . Will Knight là @willknight . Hoặc bạn có thể viết thư cho chúng tôi theo địa chỉ politicslab@WIRED.com . Hãy đăng ký nhận bản tin của WIRED Politics Lab tại đây .

Được đề cập trong tuần này:
OpenAI đang thử nghiệm sức mạnh thuyết phục của mình , theo Will Knight
Phát hiện hàng giả bằng AI đang khiến cử tri ở Nam bán cầu thất vọng , theo Vittoria Elliott
Năm 2024 là năm của cuộc bầu cử AI tạo sinh , của Vittoria Elliott

Bạn luôn có thể nghe podcast của tuần này thông qua trình phát âm thanh trên trang này, nhưng nếu bạn muốn đăng ký miễn phí để nhận mọi tập, đây là cách thực hiện:

Nếu bạn đang dùng iPhone hoặc iPad, hãy mở ứng dụng có tên là Podcasts hoặc chỉ cần chạm vào liên kết này . Bạn cũng có thể tải xuống ứng dụng như Overcast hoặc Pocket Casts và tìm kiếm WIRED Politics Lab . Chúng tôi cũng có trên Spotify .

Lưu ý: Đây là bản ghi tự động nên có thể có lỗi.

Leah Feiger: Đây là WIRED Politics Lab , một chương trình về cách công nghệ đang thay đổi chính trị. Tôi là Leah Feiger, biên tập viên chính trị cấp cao tại WIRED. Vài tháng trước, rất nhiều người lo ngại về việc trí tuệ nhân tạo có thể ảnh hưởng đến cuộc bầu cử năm 2024 của Hoa Kỳ như thế nào. Hình ảnh, âm thanh và video do AI tạo ra vừa trở nên rất tốt và rất dễ tạo ra và lan truyền. Nhóm chính trị WIRED trong dự án theo dõi việc sử dụng AI trong các cuộc bầu cử trên toàn thế giới của chúng tôi thực sự đã gọi năm 2024 là năm của cuộc bầu cử AI tạo ra. Gần đây, có vẻ như một số sự hoảng loạn xung quanh AI đã lắng xuống, nhưng deepfake của Kamala Harris, Joe Biden, Donald Trump và các chính trị gia khác cùng những người ủng hộ họ lại xuất hiện ở khắp mọi nơi. Và như chúng ta sẽ nói đến ngày hôm nay, luật về deepfake chính trị, bao gồm cả nội dung khiêu dâm do AI tạo ra, thực sự rất khó khăn. Vậy khi cuộc bầu cử đang đến gần, điều gì đã thay đổi, nếu có, và chúng ta thực sự nên lo lắng về AI đến mức nào? Cùng tôi nói về tất cả những điều này là hai chuyên gia AI của WIRED. Chúng tôi có phóng viên chính trị Vittoria Elliott—

Vittoria Elliott: Xin chào, Leah.

Leah Feiger: Xin chào, Tori. Và từ Cambridge, Massachusetts, nhà văn kỳ cựu Will Knight. Will, cảm ơn bạn rất nhiều vì đã đến đây. Đây là lần đầu tiên bạn đến đây.

Will Knight: Vâng. Xin chào. Cảm ơn vì đã mời tôi.

Leah Feiger: Vậy chúng ta hãy bắt đầu với phim khiêu dâm, nếu được. Tori, hôm nay bạn có một bài viết lớn về các tiểu bang Hoa Kỳ giải quyết vấn đề phim khiêu dâm do AI tạo ra. Hãy cho chúng tôi biết về nó. Mọi người đang xử lý vấn đề này như thế nào?

Vittoria Elliott: Trên thực tế, nó thực sự rất rời rạc, và đó là vì ở cấp độ cơ bản, chúng ta không có quy định quốc gia về vấn đề này. Nữ dân biểu Alexandria Ocasio-Cortez, người cũng là mục tiêu của phim khiêu dâm deepfake không có sự đồng thuận trong năm nay, đã đưa ra Đạo luật Defiance, cho phép các nạn nhân kiện những người tạo và chia sẻ phim khiêu dâm deepfake không có sự đồng thuận miễn là họ có thể chứng minh rằng những hình ảnh hoặc video đó được thực hiện mà không có sự đồng thuận. Và sau đó, Thượng nghị sĩ Ted Cruz cũng có một dự luật có tên là Đạo luật Take It Down cho phép mọi người buộc các nền tảng xóa những hình ảnh và video đó. Nhưng thực sự không có động thái lớn nào về vấn đề này trong nhiều tháng và vấn đề này đã nhận được rất nhiều sự chú ý, đặc biệt là vì chúng ta đã thấy một loạt những người trẻ tuổi, học sinh trung học cơ sở và trung học phổ thông, sử dụng công nghệ AI tạo sinh để bắt nạt bạn bè của họ, để tạo ra những hình ảnh và video rõ ràng về bạn bè của họ. Và rõ ràng là chúng ta có dữ liệu cho thấy rằng mặc dù AI tạo ra vẫn có thể được sử dụng trong chính trị và chúng ta chắc chắn có rất nhiều ví dụ về điều đó, nhưng chủ yếu nó được sử dụng để nhắm mục tiêu, quấy rối và đe dọa phụ nữ.

Leah Feiger: Vậy hãy chia nhỏ vấn đề này ra một chút cho tôi. Những tiểu bang nào đang hành động ở đây? Ý bạn là nó đang bị bóp nghẹt trong chính quyền liên bang? Điều đó trông như thế nào?

Vittoria Elliott: Ý tôi là, điều đó có nghĩa là chúng ta đã có các dự luật trên bàn, nhưng chúng không thực sự được thông qua ngay bây giờ. Có rất nhiều thứ khác đang được Quốc hội xử lý. Chúng ta đang bước vào năm bầu cử. Nhiều trọng tâm trong vài tháng tới thực sự là về việc chạy các chiến dịch, trong khi các cơ quan lập pháp tiểu bang, họ có nhiều quyền hơn một chút để hành động nhanh hơn. Và đây là một vấn đề lưỡng đảng thực sự dễ nói, chúng ta thấy công nghệ này đang được triển khai, chúng ta muốn bảo vệ những người trẻ tuổi, và thứ hai, chúng ta cũng muốn bảo vệ phụ nữ khỏi bị lạm dụng trên internet.

Leah Feiger: Vậy cụ thể các quốc gia đang làm gì để bảo vệ mọi người khỏi điều này, và điều đó trông như thế nào? Nó có giống nhau trên mọi phương diện không, hay trông như thế nào?

Vittoria Elliott: Nó thực sự khác nhau tùy theo từng tiểu bang. Ví dụ, hiện tại có một dự luật ở Michigan tập trung vào trẻ vị thành niên. Dự luật này đặc biệt tập trung vào việc xử lý nội dung khiêu dâm deepfake không có sự đồng thuận được tạo ra nhằm vào những người trẻ tuổi và điều đó sẽ cho phép nạn nhân kiện người tạo ra nội dung đó. Ở một số tiểu bang, hành vi này sẽ đi kèm với trách nhiệm hình sự, nghĩa là bạn có thể bị truy tố và phải ngồi tù vì hành vi đó. Khi chúng ta nói về hình ảnh của trẻ vị thành niên một cách rất cụ thể, đã có rất nhiều quy tắc về những gì bạn có thể và không thể có trên máy tính của mình, trên internet, khi nói đến hình ảnh khiêu dâm của trẻ vị thành niên. Vì vậy, có rất nhiều nền tảng để các nhà lập pháp làm việc.

Leah Feiger: Và rõ ràng AI đã được sử dụng để tạo ra phim khiêu dâm trong nhiều năm nay. Tại sao các nhà lập pháp cụ thể lại tham gia vào việc này?

Vittoria Elliott: Thực ra thì rất thú vị. Tôi nghĩ năm nay, như chúng ta đã nói rất nhiều, mối đe dọa của AI trong chính trị có vẻ rất thực tế, và đúng là như vậy. Tôi không muốn bỏ qua điều đó, nhưng thực tế là chúng ta đã biết rằng rất nhiều nội dung do AI tạo ra là khiêu dâm và nhắm vào phụ nữ. Rất nhiều trong số đó là không có sự đồng thuận. Tôi đã nói chuyện với một nhà lập pháp tiểu bang Cộng hòa ở Michigan, Matthew Bierlein, và ông ấy thực sự đã trở thành người đồng bảo trợ cho gói của tiểu bang chống lại deepfake không có sự đồng thuận thông qua sự quan tâm của ông ấy đối với quảng cáo chính trị deepfake. Ban đầu, đó là điều đầu tiên ông ấy muốn làm khi nhậm chức vào năm ngoái với tư cách là nhà lập pháp tiểu bang nhiệm kỳ đầu tiên, ông ấy muốn tài trợ cho một dự luật về quảng cáo chính trị deepfake để biến nó thành hành vi vi phạm tài chính chiến dịch. Và thông qua công việc của mình về vấn đề đó, ông ấy đã bị đưa vào các chính sách khác xung quanh nội dung do AI tạo ra, và đặc biệt là xung quanh deepfake không có sự đồng thuận. Và khi sự cố liên quan đến Taylor Swift xảy ra vào đầu năm nay, khi một bức ảnh deepfake không có sự đồng thuận của Taylor Swift được phát tán rộng rãi trên các nền tảng mạng xã hội, đặc biệt là trên X, và cô ấy không thể gỡ nó xuống, Bierlein và người đồng tài trợ của anh ấy đã coi đó là thời điểm để thực sự thúc đẩy điều này vì cô ấy rất nổi tiếng, và đối với một người quyền lực và giàu có như vậy mà vẫn là mục tiêu của việc này và lại bất lực trong việc kiểm soát hình ảnh của chính mình, điều đó thực sự khiến họ nhận ra rằng đây chính là thời điểm để làm điều này.

Leah Feiger: Nhưng rõ ràng là có các công ty ở đây, và Will, anh là chuyên gia tuyệt đối về tất cả các công ty này và những gì họ đang làm để đặt ra các rào cản hoặc không đặt ra các rào cản. Có quá nhiều nội dung khiêu dâm về AI không? Tôi cảm thấy gần như hoang dã khi đặt câu hỏi đó, nhưng nó ở khắp mọi nơi và không dừng lại.

Will Knight: Tôi nghĩ rằng câu trả lời cho câu hỏi đó là có rất nhiều ứng dụng nguồn mở hoặc không bị hạn chế ngoài kia. Chúng khá dễ tải xuống và nắm bắt. Công nghệ được sử dụng để tạo hình ảnh, về cơ bản là nguồn mở. Mọi người đều biết cách thực hiện và không khó để sao chép những gì có sẵn từ các công ty lớn đặt ra hạn chế cho chương trình của họ. Bạn không thể có khuôn mặt của người nổi tiếng, chứ đừng nói đến việc tạo ra hình ảnh khiêu dâm thông thường, hoặc đôi khi mọi người có thể tìm ra cách phá vỡ những rào cản đó. Nhưng giống như trường hợp của AI nói chung và những tác động của nó, tôi nghĩ rằng một trong những điểm chính là luôn có thể ... nếu bạn có đủ nguồn lực để tạo ra hình ảnh giả về một ai đó đang làm bất cứ điều gì, nhưng nó đột nhiên khiến nó trở nên dễ tiếp cận đến vậy. Bạn có thể tải xuống trên internet. Có những Discord mà bạn truy cập, nơi chỉ chứa đầy những người tạo ra các hình ảnh khác nhau. Và vì vậy, thần đèn đã thoát khỏi chiếc bình, tôi nghĩ vậy.

Leah Feiger: Chúng đang lan truyền như cháy rừng. Đây không phải là phim khiêu dâm deepfake, nhưng X của Elon Musk thì… Tôi cảm thấy như toàn bộ trang For You của tôi là hình ảnh AI, phần lớn trong số đó thực sự được chính Elon đẩy và đăng. Ý tôi là, tuần này các bạn có thấy hình ảnh Kamala Harris đội mũ cộng sản và mặc toàn đồ đỏ không, và ông ấy nói rằng, "Đây là tương lai mà các bạn sẽ có nếu không bỏ phiếu cho Trump." Điều này chỉ xảy ra mà không bị trừng phạt.

Will Knight: Vâng, ý tôi là, thật hấp dẫn khi xem điều đó vì tôi nghĩ rằng một thời gian trước, loại câu chuyện đó là, hoặc ý tưởng là, rằng deepfake sẽ hoàn toàn đánh lừa mọi người và cho thấy ai đó đang làm điều gì đó có tính buộc tội, nhưng đó không thực sự là những gì đang xảy ra. Vấn đề là chúng chỉ trở thành những công cụ tuyên truyền thực sự đơn giản. Có thể một số người bị lừa, nhưng chủ yếu chỉ là những cách chế giễu mọi người hoặc sản xuất hàng loạt hình ảnh theo phong cách tuyên truyền. Vâng, đó là Đồng chí Kamala. Ý tôi là, đó là một loại hấp dẫn, bởi vì nó cũng cho thấy những chương trình AI đó thiên vị như thế nào, bởi vì nó thực sự không giỏi trong việc khiến nó trông giống Kamala Harris.

Leah Feiger: Không, không. Ý tôi là, họ cần có phụ đề để tôi có thể nhận ra chính xác những gì đang xảy ra, thực tế là vậy. Nhưng bạn nói đúng, yếu tố chế giễu của tất cả những điều đó rõ ràng là có, nhưng cũng nguy hiểm. Và Tori, bài viết hôm nay của bạn về tất cả các luật nhắm vào phim khiêu dâm deepfake, chúng có thành công không? Có bất kỳ tiểu bang nào thực sự tìm ra cách lập pháp chống lại điều này không?

Vittoria Elliott: Tôi không biết có một tiểu bang cụ thể nào đã tìm ra cách giải quyết. Chúng ta có 23 tiểu bang có một số loại luật trong sách, nhưng vấn đề là chúng không khớp với nhau. Vì vậy, một lần nữa, khi bạn có một tiểu bang chủ yếu tập trung vào trẻ vị thành niên và một tiểu bang chủ yếu tập trung vào phụ nữ trưởng thành, thì đó là hai bộ luật hoàn toàn khác nhau. Nếu bạn đang điều tra trên phạm vi toàn tiểu bang, điều đó có thể trở nên thực sự nguy hiểm vì một số thứ có thể là bất hợp pháp ở một tiểu bang nhưng lại hoàn toàn ổn ở tiểu bang khác. Và internet nổi tiếng là không biên giới. Vì vậy, điều đó có thể có nghĩa là sự chắp vá của các luật này có thể khiến việc thực thi trở nên thực sự khó khăn ngoài cấp độ cục bộ đó khi chúng ta nói về trường trung học hoặc trường trung học cơ sở hoặc có thể là một mối quan hệ lạm dụng. Nhưng khi chúng ta nói về một thứ gì đó lan truyền thực sự rộng rãi, thì điều đó khó thực thi hơn.

Leah Feiger: Will, anh có nghĩ rằng bất kỳ công ty AI lớn nào, OpenAI, v.v., đang làm việc với các viên chức nhà nước để giúp tìm ra cách tạo ra những ranh giới này không? Tôi đoán là tôi đang nghĩ xem chúng ta thậm chí biết phải hỏi những câu hỏi nào, để đưa vào luật này, ngoài lệnh cấm toàn diện?

Will Knight: Tôi nghĩ rằng họ, ở một mức độ nào đó, đang làm việc với các chính trị gia, cố vấn cho họ phần nào. Và có một số công nghệ nhất định mà họ đã cùng nhau đăng ký sử dụng sẽ đóng dấu hình ảnh. Nhưng như tôi nghĩ Tori đã viết, đó là một mục tiêu di động thực sự, và công nghệ ngày càng tốt hơn, và những cách phát hiện deepfake này, họ vẫn tiếp tục tránh né điều đó. Tôi đã nói chuyện một lúc trước với Hany Farid, một chuyên gia thế giới mà Tori biết rõ về việc phát hiện deepfake, và anh ấy có một công ty mới. Quan điểm của anh ấy là chúng ta sẽ kết thúc với một tình huống tương tự như các hạn chế chống phần mềm độc hại hoặc thư rác, nơi mọi người sẽ phải có thứ gì đó, rằng rất nhiều công ty và rất nhiều cá nhân thậm chí sẽ phải có công nghệ để phát hiện những thứ này. Và anh ấy cũng gợi ý rằng thực sự nó sẽ trở thành một thứ gì đó mang tính cá nhân hóa. Nó sẽ không chỉ là thứ ảnh hưởng đến các chính trị gia. Có lẽ phim khiêu dâm trả thù chỉ là tiên phong của điều đó vì bạn bắt đầu thấy một số vụ lừa đảo tài chính đã thành công, trong đó chỉ trong một giây bạn nhìn thấy khuôn mặt của CEO của mình, và sau đó anh ta yêu cầu bạn chuyển một khoản tiền lớn. Vì vậy, bạn có thể thấy cách mà điều đó có thể lan truyền rộng rãi hơn nhiều.

Leah Feiger: Khiêu dâm chỉ là con dốc trơn trượt ở đây, điều đó và Đồng chí Harris. Rất thích nghe điều đó. Tuy nhiên, với sự chắp vá này mà cả hai bạn đang nói đến, rõ ràng là chính phủ liên bang cần phải làm gì đó ở đây, ít nhất là trong bối cảnh Hoa Kỳ. Và những người đã bị đưa vào nội dung khiêu dâm do AI tạo ra mà không có sự đồng ý, bao gồm cả AOC, đã cố gắng để Quốc hội quản lý vấn đề này, như bạn đã nói, Tori, nhưng sự trì hoãn là gì?

Vittoria Elliott: Tôi không nghĩ đây là điều mà các chính trị gia tích cực nói, "Ồ, chúng tôi không quan tâm." Nhưng nó nằm trong một chồng những thứ khác. Và một trong những điều thực sự khó hiểu, tôi nghĩ đó là chủ đề mà nhiều người có thể nói, "Ừ, tệ thật. Chúng ta nên làm gì đó về vấn đề này." Nhưng suy nghĩ về ý nghĩa thực sự của nó thì khó hơn. Ví dụ, một luật sư mà tôi đã nói chuyện đã đề cập rằng rất nhiều lần, đặc biệt là khi chúng ta xử lý deepfake của người lớn, chủ yếu là phụ nữ trưởng thành, vì đó chủ yếu là đối tượng bị nhắm mục tiêu, bạn phải chứng minh được mục đích. Bạn phải chứng minh rằng mục đích là để gây hại cho ai đó. Và điều đó có thể thực sự khó khăn vì không phải ai cũng gửi tin nhắn văn bản cho nhau theo kiểu, "Tôi ghét người này. Tôi sẽ tạo một deepfake về họ." Vì vậy, chứng minh mục đích là một vấn đề toàn diện. Và sau đó tôi đã nói chuyện với Kaylee Williams, một nghiên cứu sinh tiến sĩ tại Columbia, người tập trung vào deepfake không đồng thuận, và cô ấy đã đề cập rằng khi chúng ta nói về những người nổi tiếng, Taylor Swift, AOC, những người của công chúng, rất nhiều lần, mặc dù rõ ràng là có vẻ lạm dụng đối với chúng ta ở bên ngoài, những người tạo ra những deepfake không đồng thuận này đang nghĩ về chúng như nội dung của người hâm mộ. Họ đang nghĩ về nó như, tôi nghĩ người này thật tuyệt và tôi thấy họ thực sự hấp dẫn hoặc nóng bỏng và tôi đã tạo ra điều này. Họ không nghĩ về nó như, tôi đang tràn ngập internet bằng thứ gì đó mang tính lạm dụng. Họ đang nghĩ về nó như, tôi muốn thấy phiên bản này của người này. Và vì vậy, trong những trường hợp đó, việc chứng minh ý định gây hại sẽ thực sự khó khăn. Vì vậy, tôi không nghĩ rằng đó chỉ là vấn đề mọi người quan tâm hay không quan tâm đến điều này, nhưng việc nghĩ về cách bạn thực sự có thể thực thi điều này thực sự khó khăn. Và sau đó ở cấp liên bang, chúng ta có rất nhiều luật về tội phạm mạng hiện đang tồn tại và đặc biệt là giải quyết tài liệu lạm dụng tình dục trẻ em. Chúng tôi có rất nhiều nội dung liên quan đến vấn đề đó, nhưng việc xây dựng nội dung dành cho phụ nữ trưởng thành khi chúng tôi không xem xét đến việc lạm dụng trẻ vị thành niên, thì điều đó trở nên khó khăn hơn một chút.

Leah Feiger: Chắc chắn rồi. Ý tôi là, nghe có vẻ như họ chắc chắn có một con đường phía trước để xử lý tất cả những điều này. Chúng ta sẽ nghỉ ngơi một chút, và khi quay lại, chúng ta sẽ nói thêm về cách AI tác động đến cuộc bầu cử năm 2024.

[ Phá vỡ ]

Leah Feiger: Chào mừng bạn trở lại Phòng thí nghiệm Chính trị WIRED. Tori, Will, cả hai bạn đều luôn đưa tin về AI, và có vẻ như sự hoảng loạn về AI trong các cuộc bầu cử của chúng ta đã thực sự tan biến. Vài tuần trước, tờ New York Times đã đăng một bài có tựa đề "Năm của cuộc bầu cử AI không phải như vậy". Bạn có đồng ý với điều đó không? Có vẻ như nỗi sợ deepfake đã biến mất, hay bạn vẫn đang nói chuyện với những người thực sự lo lắng về những gì vài tháng tới có thể trông như thế nào?

Will Knight: Tôi nghĩ đúng là vấn đề này không quá nghiêm trọng, nhưng tôi thấy mọi người vẫn lo lắng, vì một trong những mối quan tâm chính là có thể có một video deepfake khá thuyết phục vào giai đoạn cuối của cuộc bầu cử và có thể gây ra tác động lớn, đúng không?

Leah Feiger: Đúng vậy.

Will Knight: Nhưng tôi nghĩ một trong những điều khác khá hấp dẫn là chúng ta chưa thấy deepfake nào thực sự thuyết phục xuất hiện. Bạn có chia sẻ những hình ảnh này như Đồng chí Harris, và tôi nghĩ rằng đó thực sự là một phần của một chiến dịch thực sự đáng lo ngại rộng rãi nhằm làm xói mòn sự thật mà rất nhiều người đã nghiêng về, đúng không? Và bạn đã thấy điều đó rất nhiều khi Trump nói về đám đông do AI tạo ra, và tôi không nghĩ rằng điều đó thực sự có tác động nhiều đến vậy, nhưng có lẽ nó đã có tác động đến rất nhiều người ủng hộ ông ấy. Và ý tưởng rằng bạn có thể phủ nhận những gì là có thật và rằng sự thật là tương đối hoặc có thể thay thế được là điều đã được thực hiện trong một thời gian, và có vẻ như nó có thể trở thành một điều khá mạnh mẽ ở đó.

Leah Feiger: Và điều đó xảy ra hàng ngày. Ý tôi là, chúng ta đã nói về Đồng chí Harris và vấn đề về quy mô đám đông, nhưng thậm chí ở quy mô nhỏ hơn, các bạn còn nhớ không, cách đây vài tuần và Trump đã chia sẻ các bài đăng và ảnh về Swifties do AI tạo ra cho Trump, và giống như hàng đàn, hàng đàn phụ nữ trẻ đều mặc áo Swifties cho Trump, và điều đó rất chói tai, nhưng anh hoàn toàn đúng, Will, X rõ ràng không phải là nơi tôi tìm kiếm sự thật hoặc thậm chí là tin tức nữa, nhưng nó rất tuyệt.

Vittoria Elliott: Điều này quay trở lại với ý tưởng rằng có lẽ nó sẽ không lừa được mọi người, nhưng nó là một chiêu tuyên truyền hiệu quả. Tôi biết rằng Chúa tể của những chiếc nhẫn là giả, nhưng tôi vẫn khóc mỗi lần Sam kéo Frodo lên ngọn núi đó. Và mọi người—

Leah Feiger: Tôi thích rằng trong chương trình này, chúng ta vẫn có thể tìm hiểu những điều như thế này về nhau.

Vittoria Elliott: Nhưng mọi người có thể nhìn vào vấn đề Đồng chí Kamala và biết rằng đó là giả, nhưng điều đó không thay đổi được sự thật rằng điều đó cộng hưởng với điều gì đó mà họ cảm thấy rất sâu sắc về cô ấy. Và tôi nghĩ một trong những điều đó cũng là khi chúng ta nói về AI trong các cuộc bầu cử, tôi nghĩ mọi người mặc định sẽ nói rằng, à, deepfake. Nhưng deepfake chỉ là một ứng dụng rất cụ thể của AI. Chúng tôi đã nói chuyện với một nhóm người khác nhau cho Dự án Bầu cử Toàn cầu AI, nơi họ đang sử dụng ChatGPT để viết bài phát biểu. Họ đang tự động hóa hoạt động tiếp cận. Ở Ấn Độ, họ đã tự động hóa các cuộc gọi điện thoại đến các cử tri. Đó là tất cả các ứng dụng của AI không nhất thiết có nghĩa là lừa dối, nhưng điều đó không thay đổi được sự thật rằng nó vẫn đang diễn ra. Và tôi sẽ không ngạc nhiên nếu khi chúng ta kết thúc vào tháng 12, ngày càng nhiều chiến dịch chứng minh rõ ràng rằng họ thực sự đã sử dụng rất nhiều AI, nhưng không phải theo cách trực diện, lừa dối công khai này, mà có thể theo những cách tinh vi hơn để nhắm mục tiêu cử tri thực sự hiệu quả hoặc tạo phản hồi hoặc chatbot hoặc bất cứ thứ gì có thể là những cách mà mọi người không tìm kiếm AI, vì nó yên tĩnh hơn và ở phía sau, nó không phải là thứ gì đó đáng sợ và lừa dối trên bề mặt. Nhưng ý tôi là, tôi nghĩ nó ở đó. Tôi chỉ nghĩ rằng chúng ta có thể đang nhấn mạnh quá mức một phần nhỏ của nó.

Leah Feiger: Tờ New York Times đã đưa tin một chút trước đây về việc các công ty AI không thành công trong việc bán sản phẩm của họ cho các chiến dịch, rằng mọi người đang cố gắng sử dụng người gọi AI để tiếp cận cử tri và rõ ràng là bạn đã viết về điều đó trong trình theo dõi của mình, điều này hiệu quả với cử tri Ấn Độ, nhưng không hiệu quả với cử tri Hoa Kỳ. Ngay khi họ được thông báo rằng đó là một bot AI gọi thay mặt cho một quan chức hoặc một chiến dịch, họ đã cúp máy. Will, các công ty đang quản lý điều đó như thế nào ngay bây giờ? Rõ ràng là họ đã cố gắng thực sự tạo ra, như Tori đã nói, tất cả những cách sử dụng không mang tính thao túng này chỉ như một loại cuộn vào bộ ứng dụng nơi làm việc. Đây là phiên bản khác của Microsoft Word và Excel, v.v. của bạn, và cả bot AI của bạn, nhưng nó không thành công lắm. Các công ty đang xử lý điều đó như thế nào?

Will Knight: Tôi nghĩ chúng ta nên nhớ rằng chúng ta mới chỉ ở giai đoạn đầu của việc sử dụng rộng rãi các mô hình ngôn ngữ và gần đây hơn là các mô hình có khả năng âm thanh và video. Và mặc dù họ có thể chưa thành công trong việc bán chúng, nhưng tôi biết, họ đang nỗ lực rất nhiều để thử nghiệm và hiểu được mức độ thuyết phục của những công cụ này. Và một trong những điều cần nhớ là lý do ChatGPT thành công như vậy là vì nó rất có khả năng thuyết phục mọi người. Nó thông minh và nói sự thật, và nó thường không nói sự thật, và nó được thiết kế để làm điều đó, nó được đào tạo để giỏi trong việc đưa ra cho mọi người câu trả lời mà họ muốn. Và vì vậy, OpenAI bắt đầu triển khai giao diện giọng nói này được thiết kế để cung cấp các tín hiệu xã hội về mặt cảm xúc, chính xác là những gì chúng tôi đang làm trên podcast này, tạo cảm giác hấp dẫn. Có lẽ mọi người sẽ luôn từ chối nó, đặc biệt là nếu họ biết nó do AI tạo ra. Đừng quên, chúng ta thấy mọi người sử dụng những thứ như bạn gái AI vì họ thấy chúng hấp dẫn về mặt cảm xúc. Và tôi nghĩ một trong những điều lớn lao khi nhìn về phía trước, và bây giờ vẫn còn quá sớm để nói về điều đó, nhưng tôi nghĩ rằng điều có khả năng xảy ra là ngày càng nhiều công ty sẽ nhận ra rằng họ có thể biến những thứ này thành vũ khí để thuyết phục. Ý tôi là, đã có nghiên cứu cho thấy rằng khi bạn nói chuyện với một LLM, điều đó có thể thay đổi nhận thức của bạn về một điều gì đó và họ có thể làm cho những điều đó ngày càng thuyết phục hơn. Tôi nghĩ rằng đó có thể là một điều lớn lao đối với quảng cáo, nhưng có lẽ lợi ích lớn nhất ở đây là về mặt thuyết phục trong chính trị. Và vì vậy, bạn có thể thấy những chatbot đó thực sự rất giỏi trong việc không chỉ cung cấp cho mọi người thông tin sai lệch mà còn thực sự thuyết phục họ theo một quan điểm cụ thể. Và đó có thể là một cuộc chạy đua vũ trang thú vị ở đó.

Leah Feiger: Và rất nguy hiểm. Tôi nhớ anh đã báo cáo về điều này vài tháng trước, Will, và đây là bài viết mà tôi vẫn không thể ngừng nghĩ đến, thành thật mà nói, về khả năng ảnh hưởng đến con người của AI, và Sam Altman của OpenAI đang quảng cáo khả năng tác động đến hành vi của con người của công nghệ này. Không khó để thấy sức mạnh đó có thể bị lạm dụng thực sự như thế nào, đặc biệt là khi AI ngày càng có khả năng hơn và con người có thể trở nên phụ thuộc hơn vào nó. Đó có phải là điều chúng ta có thể xem xét trong tương lai về việc AI được sử dụng để thay đổi phiếu bầu của mọi người bằng cách thực sự thay đổi suy nghĩ của họ không?

Will Knight: Có vẻ như rất có thể đó là nơi mọi thứ sẽ dẫn đến trừ khi có nỗ lực thực sự hạn chế điều đó. Ý tôi là, nếu bạn có nhiều trợ lý AI có năng lực hơn, thực sự cảm thấy rằng họ không chỉ có trí thông minh mà còn có sự đồng cảm, v.v., giống như một nhân viên bán hàng giỏi, tôi nghĩ họ có thể thuyết phục bạn về mọi thứ.

Leah Feiger: Hãy nói với tôi về những rào cản được đặt ra để ngăn chặn điều này. Đây có thể coi là phần đáng sợ nhất trong cuộc trò chuyện của chúng ta cho đến nay.

Will Knight: Họ chỉ mới bắt đầu khám phá điều này và có những rào cản đối với việc sử dụng LLM cho mục đích chính trị rõ ràng, và họ đang cố gắng theo dõi cách nó thay đổi hành vi của mọi người, nhưng họ đang làm điều đó một cách tự nhiên, điều này khá là tự nhiên.

Vittoria Elliott: Tôi nghĩ còn quá sớm để nói rằng công nghệ này không hữu ích, không có ảnh hưởng hay bất cứ điều gì. Tôi nhớ khi tôi lập tài khoản MySpace, bố mẹ tôi đã nói rằng, "Internet đầy rẫy những kẻ săn mồi và thông tin xấu. Đừng tin bất cứ điều gì bạn đọc trên internet." Và tôi nghĩ nếu chúng ta đánh giá cách mọi người sẽ nhận thức về hệ sinh thái thông tin vào những ngày đầu của phương tiện truyền thông xã hội, chúng ta sẽ giống như, "Vâng, tất nhiên rồi. Sẽ không ai tin vào những điều chính trị trên đây. Đây là để chia sẻ âm nhạc và xếp hạng bạn bè của bạn."

Leah Feiger: Tôi thực sự nhớ những ngày đó. Đúng vậy.

Vittoria Elliott: Cũng vậy. Và chưa đầy 10 năm sau, chúng ta đã giải quyết được thực tế rằng đó là nơi diễn ra một số cuộc thảo luận chính trị quan trọng nhất trong thời đại của chúng ta, rằng nó có thể tác động đến các cuộc bầu cử. Và vì vậy, tôi nghĩ rằng ở thời điểm này, khi các cuộc bầu cử AI không phải là có thật, chúng ta vẫn chưa biết. Và mặc dù bây giờ chúng ta có thể đang ở thời điểm mà chúng ta giống như, "Ồ, những thứ do AI tạo ra quá rõ ràng và quá nhiều thư rác, và ai sẽ tin điều đó? Và blah-blah-blah." Chúng ta không biết mọi thứ sẽ thay đổi theo cách nào và chúng sẽ thay đổi nhanh như thế nào. Và chúng ta có thể nhìn lại thời điểm này và giống như, "Ồ, tôi không thể tin rằng chúng ta nghĩ rằng điều này sẽ không bao giờ có tác động đến bất cứ điều gì."

Leah Feiger: Đúng vậy. Tôi muốn nói về phát hiện deepfake. Khi deepfake đã trở nên đủ tiên tiến để thực sự lừa mọi người, rõ ràng là có rất nhiều công ty đã xuất hiện và tuyên bố rằng họ có thể phát hiện deepfake. Will, những công nghệ này tốt đến mức nào?

Will Knight: Vâng, ý tôi là, có rất nhiều cách khác nhau mà bạn có thể thử và bắt deepfake, từ việc phân tích tệp tin cho đến phân tích hình ảnh hoặc tín hiệu âm thanh. Và rõ ràng như bạn có thể tưởng tượng, câu trả lời là AI nhiều hơn, và sự thật là khả năng phát hiện không tốt lắm. Bạn có thể chứng minh rằng nếu bạn lấy một số ví dụ, rất nhiều công cụ ngoài kia không thực hiện tốt công việc bắt mọi thứ, và nó cũng giống như một cuộc chạy đua vũ trang vậy.

Leah Feiger: Ý tôi là, Tori, tuần này bạn vừa báo cáo về việc phát hiện deepfake tệ hại như thế nào bên ngoài Hoa Kỳ và Châu Âu. Những thách thức ở đó là gì? Tại sao nó lại tệ đến vậy? Có vẻ như nó đã tệ ở khắp mọi nơi, nhưng tại sao nó lại đặc biệt tệ bên ngoài Hoa Kỳ và Châu Âu?

Vittoria Elliott: Đúng vậy, đó là một thách thức thực sự, và một phần là do rất nhiều dữ liệu mà AI được đào tạo, cả các công cụ tạo ra AI tạo sinh và các công cụ phát hiện AI đều dựa trên các tập dữ liệu có người da trắng chiếm ưu thế, tiếng Anh chiếm ưu thế, phương Tây chiếm ưu thế. Và đó là một phần lý do tại sao một số công cụ này thực sự đang gặp khó khăn trong việc tạo ra deepfake của Kamala Harris, đó là vì không có đủ người trông giống cô ấy trong dữ liệu, nhưng trong bối cảnh mà mọi người không nói tiếng Anh và họ không phải là người da trắng và họ không phải là một phần của dữ liệu đào tạo này, thì điều đó thực sự khó khăn. Có rất nhiều kết quả dương tính giả và âm tính giả, và ngay cả khi chúng ta nói về việc phát hiện chỉ xung quanh văn bản, những người không nói tiếng Anh thường có cú pháp khác nhau trong cách họ viết và rất nhiều công cụ phát hiện sẽ nói rằng đó là do AI tạo ra ngay cả khi nó được viết bởi một người. Và những chiếc điện thoại có sẵn ở nhiều nơi, đặc biệt là những chiếc điện thoại giá rẻ của Trung Quốc, chúng đang sản xuất phương tiện truyền thông chỉ có chất lượng thấp hơn, và rất nhiều dữ liệu đào tạo AI dựa trên phương tiện truyền thông thực sự chất lượng cao. Vì vậy, nếu bạn có phương tiện truyền thông tệ hại, tệ hại có thể bị gắn cờ là do AI tạo ra, ngay cả khi nó là thật. Và những trường hợp như thế này mà các mô hình phát hiện thực sự nhạy cảm, thì điều đó không chỉ giới hạn ở Nam bán cầu. Ví dụ, Sam Gregory của Witness đã nói với tôi rằng tổ chức của họ, nơi có dịch vụ phát hiện phản ứng nhanh mà họ cung cấp cho xã hội dân sự và các nhà báo, họ phát hiện ra rằng nếu bạn chỉ đưa một số âm thanh nền vào âm thanh giả mạo sâu của Joe Biden đang nói, AI sẽ nói rằng đó là thật, vì nó không thể xử lý được lớp nhiễu nền nhỏ đó. Vì vậy, các mô hình phát hiện này vẫn thực sự không chính xác.

Leah Feiger: Ý tôi là, chúng ta còn chín tuần nữa là đến ngày bầu cử. Tôi thấy một thế giới mà các công ty mọc lên và nói rằng, "Ồ, không, không, chúng tôi đã phát hiện ra điều đó. Đó không phải là AI, hoặc đó là AI." Và trong vài tháng qua, rất nhiều thứ có thể thay đổi. Khi mọi người đưa ra các podcast và bài viết của họ vào đầu năm nay về cuộc bầu cử AI và các dự đoán của họ và những gì sắp xảy ra, tôi không nghĩ rằng bất kỳ ai trong chúng ta có thể dự đoán được rằng Biden sẽ không tham gia cuộc đua, rằng Trump sẽ chạy đua với Harris. Có rất nhiều sự khác biệt ở đây. Bạn nghĩ điều gì sắp xảy ra? Bạn nghĩ chúng ta nên chú ý đến điều gì?

Will Knight: Thật khó để nghĩ ra bất cứ điều gì thực sự có thể buộc tội Donald Trump vào thời điểm này, nhưng nếu có bản ghi âm về điều gì đó, ông ấy gần như chắc chắn sẽ tuyên bố rằng nó được tạo ra bởi AI, đúng không?

Leah Feiger: Đúng vậy.

Will Knight: Và bạn thậm chí có thể chỉ ra công nghệ phát hiện deepfake AI có thể không chắc chắn, nhưng hơi mơ hồ và nói rằng, ừ thì, điều đó có thể xảy ra, và điều đó có thể trở thành một yếu tố nếu có một loại bản ghi âm khác có tính buộc tội, tôi đoán vậy.

Leah Feiger: Thật kỳ lạ vì gần như có khoảng cách thông tin đó, đúng không? Ngay cả thực tế là công nghệ AI tồn tại và chúng ta đều biết nó là gì, và chúng ta đều biết deepfake là gì, ngay cả khi không sử dụng công nghệ, nó vẫn có thể đóng vai trò quan trọng trong cuộc thảo luận về nó. Trump tuyên bố rằng một cái gì đó là hình ảnh AI, như quy mô đám đông của Kamala Harris tại một sự kiện, hoặc như bạn đã nói, có thể có một cái gì đó mang tính buộc tội khác xuất hiện, và công nghệ thậm chí không liên quan.

Vittoria Elliott: Vâng, và đó là những gì các chuyên gia gọi là cổ tức của kẻ nói dối, ý tưởng rằng nếu mọi thứ đều có thể, thì không có gì là thật. Tôi nghĩ lại năm 2016, và tôi nghĩ lại băng Access Hollywood , và tôi cảm thấy rằng nếu điều đó xảy ra ngay bây giờ, chúng ta sẽ chỉ có một dòng tweet hoặc một bài đăng trên Truth Social nói rằng, "Đó là AI, đó không thực sự là tôi." Đó là một lối tắt dễ dàng, và tôi nghĩ rằng chúng ta sẽ tiếp tục chỉ thấy sự thật về công nghệ này được vũ khí hóa như một cách để tiếp tục gieo rắc sự nghi ngờ và phá vỡ cảm giác về thực tế chung.

Leah Feiger: Tôi nghĩ điều đó hoàn toàn đúng, và tôi phải nói rằng trên cơ sở chi tiết hơn, điều mà tôi đặc biệt quan tâm hiện nay là chúng ta đã dành nhiều thời gian để nói về việc AI được sử dụng làm công cụ tuyên truyền. Mọi người có thể nhận ra rằng một hình ảnh là không có thật, Swifties for Trump không có thật, nhưng nó ở ngoài kia và có thể ảnh hưởng đến mọi người, v.v. Tôi nghĩ rằng chúng ta sắp bước vào chu kỳ hai tháng, trong đó có nhiều thứ hơn bị đe dọa, phải không? Liệu thùng phiếu này có bị ai đó có biển số xe Michigan đẩy ra khỏi Nevada không? Có quá nhiều thứ khác nhau ở đây, đặc biệt là khi chúng ta đang xem xét những câu hỏi vẫn đang được những người phủ nhận cuộc bầu cử đặt ra từ cuộc bầu cử năm 2020 và năm 2022, và những cộng đồng này đã được chuẩn bị, những người phủ nhận cuộc bầu cử đã được chuẩn bị hoàn toàn để tuyên bố đủ thứ, và AI là một công cụ hữu ích cho việc đó. Chúng ta đã chuẩn bị chưa?

Vittoria Elliott: Không.

Will Knight: Không.

Vittoria Elliott: Không.

Leah Feiger: Không, tốt. Một tiếng không vang dội từ mọi người trong phòng.

Will Knight: Tôi nghĩ rằng chưa bao giờ quan trọng hơn thế khi có một số sự thật được chia sẻ và một số cam kết để định nghĩa nó, đúng không? Và nó đã bị tấn công nhiều hơn bao giờ hết. Nhưng như Tori đang nói, điều này rất thú vị, có một cuốn sách cách đây vài năm có tên là The Death of Truth , xuất bản trong nhiệm kỳ đầu tiên của Trump, nhưng nó lại xem xét ý tưởng tấn công vào chính sự thật như một cách để kiểm soát quần chúng. Và vâng, có vẻ như chúng ta không nên rơi vào cái bẫy khi nói rằng, vâng, sự thật là tương đối, điều mà tôi nghĩ đã xảy ra chắc chắn ở một số bộ phận nhất định của quang phổ chính trị trong một thời gian.

Leah Feiger: Tôi thực sự mong chờ được gặp cả hai bạn trong vài tuần hoặc vài tháng nữa để nói về tính tương đối của chân lý trong tất cả những điều này. Chúng ta sẽ đưa những ví dụ nào lên hàng đầu? Ai mà biết được. Cảm ơn cả hai bạn rất nhiều vì đã tham gia cùng tôi hôm nay. Chúng ta sẽ nghỉ giải lao một chút, và khi chúng ta quay lại, đã đến lúc cho Âm mưu của tuần.

[ Phá vỡ ]

Leah Feiger: Chào mừng bạn trở lại Phòng thí nghiệm Chính trị WIRED. Đã đến lúc cho Âm mưu của Tuần, nơi khách mời của chúng tôi mang đến cho chúng tôi những âm mưu yêu thích mà họ đã bắt gặp gần đây hoặc trong quá khứ mà họ đặc biệt yêu thích, và tôi sẽ chọn người chiến thắng. Tôi rất phấn khích. Tori, bạn đã rất muốn giành chiến thắng trong một thời gian rất dài. Bạn có gì cho chúng tôi trong tuần này?

Vittoria Elliott: Về mặt kỹ thuật, tôi đưa ra cho bạn hai lựa chọn, nhưng cả hai đều xoay quanh bạn trai thực sự của tôi, RFK Jr. Tôi có Google Alerts cho anh ấy. Tôi có kênh Telegram của anh ấy, tôi kiểm tra kênh đó. Chúng tôi rất gắn kết.

Leah Feiger: Tôi thực sự rất vui vì đây là một phần trong trải nghiệm đưa tin về cuộc bầu cử của bạn. Tôi vui vì bạn cảm thấy mối quan hệ bán xã hội này với một ứng cử viên tổng thống không còn nữa.

Vittoria Elliott: Vâng, người đại diện cho chiến dịch.

Leah Feiger: Người đại diện cho chiến dịch, tất nhiên rồi. Được rồi, đánh tôi đi. Chúng ta có gì?

Vittoria Elliott: Được thôi. Vâng, điều đầu tiên tôi muốn nói là rõ ràng là mỗi lần có, trích dẫn-không trích dẫn, "tin xấu" về RFK, thì đều có một số chuyện động vật kỳ lạ xảy ra. Có một số câu chuyện động vật kỳ lạ. Đầu tiên là con gấu chết ở Công viên Trung tâm khi bài báo của tờ New Yorker ra mắt. Sau đó, ngay sau khi ông ấy tuyên bố rút lui khỏi ứng cử và ủng hộ nỗ lực tranh cử tổng thống của Donald Trump, chúng ta có câu chuyện về đầu cá voi mà ông ấy thích—

Leah Feiger: Và đừng quên những chú chó trước đó. Will, anh không muốn mình được ở trên bàn chính trị và đắm chìm vào điều này mọi lúc sao?

Will Knight: Chắc chắn rồi.

Leah Feiger: Thực ra thì đó là bàn động vật.

Vittoria Elliott: Nhưng mọi người cũng chỉ trích anh ấy vì những video TikTok về việc cho những con quạ địa phương ăn, và tôi nghĩ đó thực sự là một điều tuyệt vời về chúng. Và tôi không biết bạn có biết điều này không, một nhóm quạ được gọi là âm mưu, vì vậy âm mưu yêu thích của tôi.

Leah Feiger: Thật kinh khủng. Thật tệ, Tori.

Vittoria Elliott: Không có gì. Thực ra tôi có một Âm mưu trong tuần thực sự, nhưng thực ra cũng là RFK. Nhưng tôi biết anh sẽ thích một trò chơi chữ. Tôi cũng muốn một âm mưu của loài quạ. Nhưng một âm mưu khác từ đầu năm nay, tại một sự kiện ở New York vào tháng 4, RFK nói rằng CIA là một phần của cuộc tiếp quản có hệ thống đối với báo chí Mỹ và thực tế là nhiều người phụ trách các công ty truyền thông lớn có liên hệ với CIA. Trong trường hợp này, ông ấy đã đề cập đến người đứng đầu mới của NPR là một điệp viên CIA. Và tôi thích ý tưởng rằng thực ra chúng tôi không chỉ là những người được trả lương thấp một cách vô lý với bộ kỹ năng nghiên cứu cực kỳ chi tiết. Trên thực tế, chúng tôi là điệp viên hai mang. Và tôi chỉ muốn nói rằng nếu chúng tôi có một số tiền của chính phủ, tôi có một số suy nghĩ về nơi tôi muốn được gửi đến và chúng ta có thể thảo luận sau.

Leah Feiger: Được rồi, câu trả lời hay đấy. Cảm ơn, Tori. Will, anh có gì cho chúng tôi không?

Will Knight: Chà, tôi không biết liệu mình có thể thực sự cạnh tranh với RFK không, nhưng với tư cách là một điệp viên CIA giỏi, tôi sẽ quảng bá một thứ gì đó từ những góc kỳ lạ hơn của AI, AI và triết học, tôi đoán vậy. Vì vậy, có một thứ gọi là Roko's Basilisk. Vì vậy, Basilisk là một sinh vật rắn trong thần thoại mà nếu bạn nhìn vào mắt nó, nó có thể giết bạn. Và vì vậy, có một thí nghiệm tư duy mà ai đó đã đăng trên một diễn đàn AI nói rằng siêu trí tuệ trong tương lai sẽ được khuyến khích tạo ra một mô phỏng trong đó có lẽ tất cả chúng ta đều tồn tại bên trong nó, và nó sẽ được khuyến khích tra tấn bất kỳ ai làm việc chống lại hoặc thậm chí nghĩ về ý tưởng làm việc chống lại nó ra đời. Vì vậy, tại một thời điểm trong một trong những điều này ...

Leah Feiger: Thật không thể tin được.

Will Knight: … diễn đàn, họ cấm nói về Roko, thí nghiệm tư duy này, con rắn độc của Roko. Ý tưởng là nếu bạn thậm chí nghĩ về nó, nó có thể nguy hiểm, đặc biệt là chuối.

Leah Feiger: Thật buồn cười. Điều này đang lan truyền trên những diễn đàn nào, hoặc không lan truyền trên những diễn đàn nào?

Will Knight: Nội dung này được đăng trên LessWrong, một diễn đàn rất nổi tiếng chuyên về rủi ro và sự liên kết của AI và—

Leah Feiger: Cá nhân bạn thường nghĩ đến con quái vật Basilisk của Roko bao nhiêu lần?

Will Knight: Vâng, thực ra tôi chỉ mới phát hiện ra điều đó gần đây, và tôi cố gắng không nghĩ về nó để phòng ngừa. Giống như trò cá cược của Pascal, phải không? Nó chỉ là kiểu chơi trò may rủi rằng siêu trí tuệ sẽ xuất hiện, vì vậy bạn phải cố gắng và biến nó thành hiện thực. Đúng vậy, hoàn toàn điên rồ.

Leah Feiger: Ồ, câu đó rất hay. Được thôi. Ồ, thực ra, tuần này hơi khó một chút, nhưng tôi phải đi với Tori. Tài sản của CIA, chúng ta bắt đầu thôi.

Vittoria Elliott: Cuối cùng. Ravens có khiến tôi phải chịu thua không? Tôi phải biết.

Leah Feiger: The Ravens đã đưa bạn vượt qua giới hạn. Tôi thích điều đó, và đó là một phần của, tôi chỉ thấy bạn đã làm việc chăm chỉ như thế nào cho điều này, và vâng, đó là A cho nỗ lực và A cho thực hiện. Thật tuyệt.

Vittoria Elliott: Cảm ơn bạn.

Leah Feiger: Và một phần, tôi không thể trao chiến thắng cho thứ mà tôi không được phép nghĩ đến nữa. Tori và Will, cảm ơn các bạn rất nhiều vì đã tham gia cùng chúng tôi. Các bạn là những vị khách tuyệt vời.

Vittoria Elliott: Cảm ơn, Leah.

Will Knight: Cảm ơn vì đã mời tôi.

Leah Feiger: Cảm ơn bạn đã lắng nghe WIRED Politics Lab . Nếu bạn thích những gì bạn nghe hôm nay, hãy theo dõi chương trình và đánh giá nó trên ứng dụng podcast bạn chọn. Chúng tôi cũng có một bản tin, do Makena Kelly viết hàng tuần. Liên kết đến bản tin và báo cáo WIRED mà chúng tôi đã đề cập hôm nay có trong phần ghi chú chương trình. Nếu bạn muốn liên hệ với chúng tôi nếu có bất kỳ câu hỏi, nhận xét hoặc đề xuất chương trình nào, vui lòng viết thư tới politicslab@WIRED.com . Đó là politicslab@WIRED.com . Chúng tôi rất vui khi được nghe từ bạn. WIRED Politics Lab do Jake Harper sản xuất. Pran Bandi là kỹ sư phòng thu của chúng tôi. Amar Lal đã phối nhạc cho tập này. Stephanie Kariuki là nhà sản xuất điều hành của chúng tôi. Chris Bannon là giám đốc âm thanh toàn cầu tại Condé Nast và tôi là người dẫn chương trình của bạn, Leah Feiger. Chúng tôi sẽ trở lại với các bạn với một tập mới vào tuần tới.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
1
Thêm vào Yêu thích
Bình luận