Làn sóng trí tuệ nhân tạo (AI) đang lan tỏa khắp thế giới với tốc độ chưa từng có. Từ khả năng đáng kinh ngạc của các mô hình ngôn ngữ quy mô lớn đến tác động sâu sắc đến cấu trúc xã hội trong tương lai, mọi tiến bộ đều thu hút sự chú ý của công chúng.
Tuần này, Geoffrey Hinton, được biết đến là Bố già của AI, đã đưa ra một phân tích độ sâu về sự phát triển nhanh chóng của trí tuệ nhân tạo, khám phá tiềm năng to lớn và rủi ro mất kiểm soát của nó, đồng thời cảnh báo về những thách thức sâu sắc mà nhân loại phải đối mặt trong tương lai. BlockTempo sau đây sẽ cung cấp cho bạn bản tóm tắt chi tiết.
Người dẫn chương trình: Chào mừng đến với 30 Minutes, I'm Guy. Chúng tôi mời một khách mời cho mỗi tập phim để phỏng vấn không ngừng trong 30 phút. Geoffrey Hinton, ông thường được ca ngợi là "Cha đẻ của AI". Để bạn hình dung được ông đã đi trước chúng ta bao xa, ông đã nhận bằng Tiến sĩ về trí tuệ nhân tạo từ Đại học Edinburgh vào năm 1978.
Năm ngoái, nhà khoa học máy tính người Anh đã giành giải thưởng Turing, được gọi là "Giải Nobel về Khoa học Máy tính", cho những khám phá và phát minh cơ bản của ông trong lĩnh vực học máy và mạng nơ-ron nhân tạo. Hinton đã lãnh đạo nghiên cứu AI tại Google trong một thập kỷ. Ông rời đi vào năm 2023 một phần để có thể tự do hơn trong việc cảnh báo về rủi ro của việc "tạo ra thứ gì đó thông minh hơn con người".
Những câu hỏi trước đây chỉ tồn tại trong các tiểu thuyết phản địa đàng giờ đã trở thành mối quan tâm chính thống: Liệu AI có cướp mất công việc của tôi không? Liệu nó có phát triển ý thức và thậm chí tìm cách ăn thịt người tạo ra nó không? Hãy bắt đầu tính giờ.
Người dẫn chương trình: Hinton, chào mừng đến với chương trình 30 phút.
Hinton: Cảm ơn bạn.
Người dẫn chương trình: Đã hai năm kể từ khi bạn rời Google, một phần là để thu hút sự chú ý đến những nguy cơ tiềm ẩn của AI. AI đã tiến xa đến mức nào kể từ đó?
Hinton: Nó di chuyển nhanh hơn tôi mong đợi. Ví dụ, khả năng suy luận của nó hiện tốt hơn nhiều so với hai năm trước và dường như không hề chậm lại chút nào.
Người dẫn chương trình: Khi bạn nói khả năng suy luận mạnh hơn, bạn muốn nói đến khía cạnh nào?
Hinton: Vâng, bạn có thể đưa cho mọi người một số bài toán lý luận nhỏ. Trước đây, nếu bài toán phức tạp hơn một chút, AI sẽ mắc lỗi. Bây giờ, mặc dù cả con người và AI đều mắc lỗi, nhưng hiệu suất của chúng tương đương với con người. Nếu bạn muốn, tôi có thể đưa cho bạn một số bài toán lý luận nhỏ.
Người dẫn chương trình: Được rồi, Charlie (tự nói về mình), giờ thì anh phải nhận lấy nó.
Hinton: Sally có ba anh trai. Mỗi anh trai của cô ấy có hai chị gái. Vậy, Sally có bao nhiêu chị gái?
Người điều hành: Ồ, tôi sẽ để câu hỏi này cho Claude hoặc Chat GPT. Bạn hãy cho tôi biết câu trả lời.
Hinton: Câu trả lời là một. Bởi vì mỗi người trong ba anh em đều có hai chị gái, nhưng họ có chung hai chị gái, một trong đó là Sally. AI có thể giải quyết vấn đề này. Và những người không phải là tâm điểm chú ý và có thời gian để suy nghĩ cũng có thể tìm ra. Nhưng nếu bạn đặt một người đang được phỏng vấn trước máy quay và khiến anh ta hoảng sợ, anh ta có thể không thể tìm ra.
Người dẫn chương trình: Vâng. Vậy nó có thông minh hơn chúng ta không?
Hinton: Theo nhiều cách thì đúng. Vâng, theo một số cách thì đúng. Và chắc chắn là nó biết nhiều hơn bất kỳ một cá nhân nào. Vì vậy, lượng kiến thức mà GPT-4 hoặc Gemini 2.5 hoặc Claude có được gấp hàng nghìn lần so với bất kỳ một cá nhân nào.
Người dẫn chương trình: Bạn nghĩ gì về điều này?
Hinton: Tôi cho rằng nó vừa đẹp vừa đáng sợ.
Người dẫn chương trình: Cái đẹp của điều này là gì? Chúng ta hãy bắt đầu từ đây.
Hinton: AI sẽ có nhiều ứng dụng cực kỳ hữu ích. Chưa kể đến việc một nhà nghiên cứu cuối cùng có thể tạo ra một hệ thống thực sự thông minh sẽ làm nên điều kỳ diệu cho chúng ta trong các lĩnh vực như chăm sóc sức khỏe và giáo dục. Trong chăm sóc sức khỏe, bạn sẽ có thể có một bác sĩ gia đình đã khám cho hàng triệu bệnh nhân, bao gồm một số người mắc cùng căn bệnh hiếm gặp như bạn, người biết bộ gen của bạn, biết tất cả các kết quả xét nghiệm của bạn và không bao giờ quên bất cứ điều gì, và có thể đưa ra chẩn đoán rất tốt.
Hiện nay, hệ thống AI tốt hơn một chút so với bác sĩ trong việc chẩn đoán các bệnh khó và phức tạp. Nếu hệ thống AI được kết hợp với bác sĩ, hiệu suất của sự kết hợp này sẽ tốt hơn nhiều so với chỉ có bác sĩ. Và xu hướng này sẽ chỉ trở nên rõ ràng hơn.
Người dẫn chương trình: Đúng vậy. Bill Gates gần đây đã nói rằng ông tin rằng trong thập kỷ tới, hầu hết các công việc trên thị trường lao động sẽ không còn cần đến con người nữa. Ông ấy đã lấy ví dụ của bạn về bác sĩ và thêm ngành giáo dục vào danh sách. Tôi không biết bạn có thấy những bình luận này không, nhưng chúng ta đang nói về sự thay thế rộng rãi và sâu sắc trên thị trường lao động, đúng không?
Hinton: Chắc chắn đó là một trong những vấn đề, đúng vậy, đó là một trong rủi ro của AI. Trong một xã hội lý tưởng, nếu AI cho phép chúng ta tăng năng suất đáng kể, thì đó sẽ là một điều tốt. Nếu một người có trợ lý AI có thể làm công việc mà trước đây phải cần đến 10 người, thì điều đó thật tuyệt. Nhưng không chắc chắn rằng hàng hóa và dịch vụ bổ sung được tạo ra từ sự gia tăng năng suất đó sẽ được phân phối công bằng.
Điều có khả năng xảy ra nhiều hơn là hầu hết mọi người sẽ mất việc làm, trong khi một số ít người rất giàu có sẽ trở nên giàu hơn và sống lâu hơn nhiều.
Người dẫn chương trình: Bạn thấy đấy, Demis Hassabis của Google DeepMind cũng đã nói gần đây rằng AI có thể chữa khỏi mọi bệnh trong vòng 10 năm. Nghe có vẻ khó tin, nhưng liệu có thực tế không?
Hinton: Tôi biết rõ Demis, và anh ấy là một người rất hợp lý. Tôi cho rằng điều đó hơi lạc quan, nhưng không quá xa vời. Ý tôi là, nếu anh ấy nói 25 năm, tôi sẽ tin. Vậy nên vấn đề là quan điểm của chúng tôi không khác nhau nhiều lắm. Anh ấy cho rằng nó sẽ đến sớm hơn tôi nghĩ, nhưng không nhiều.
Người điều phối: Có lĩnh vực nào an toàn không? Có vẻ như AI đang hướng đến giới tinh hoa - những người làm việc sáng tạo, luật sư, nhà giáo dục, bác sĩ, nhà báo. Và các ngành như kỹ thuật viên, thợ điện, thợ sửa ống nước, v.v. có thể tương đối an toàn vào thời điểm hiện tại. Bạn cho rằng vậy không?
Hinton: Đúng vậy, hiện tại chúng an toàn hơn vì AI vẫn còn tụt hậu trong các lĩnh vực như sự khéo léo của tay. Nếu bạn muốn sửa ống nước trong một ngôi nhà cũ, bạn cần phải với tới một số nơi khó xử lý, và AI không thể làm điều đó ngay bây giờ. Tất nhiên, có thể có tiến bộ đáng kể về sự khéo léo của tay trong 10 năm tới, nhưng tôi cho rằng thợ sửa ống nước sẽ an toàn trong 10 năm tới.
Người dẫn chương trình: Hãy cùng xem xét một số lĩnh vực sáng tạo mà chúng ta từng cho rằng là chỉ có ở con người. Gần đây, tôi đã thử nghiệm với chatbot của mình, Claude. Tôi yêu cầu nó viết một bản ballad theo phong cách của Bob Dylan, và nó thật tệ, lời bài hát thì tệ. Nó đã viết một bài thơ năm dòng về một trái tim tan vỡ, điều đó cũng ổn. Nhưng bạn có cho rằng AI cuối cùng sẽ có thể tạo ra nghệ thuật sánh ngang với tác phẩm của Mozart, Picasso hay Shakespeare không? Tất cả các tác phẩm sáng tạo mà chúng ta từng cho rằng là chỉ có ở con người.
Hinton: Tôi không thấy lý do gì mà nó không thể. Sẽ mất một thời gian. Nếu bạn yêu cầu tôi viết một bài hát theo phong cách của Dylan, thì sẽ rất tệ. Nhưng bạn không thể nói rằng tôi không sáng tạo, tôi chỉ không giỏi về điều đó. Vì vậy, nó đang trở nên tốt hơn ở điều đó.
Người dẫn chương trình: Tại sao nó ngày càng tốt hơn?
Hinton: Đúng vậy. Vâng, không có lý do gì cho rằng chúng ta có thể làm điều gì đó mà chúng không bao giờ có thể làm. Con người không có gì đặc biệt, ngoại trừ mối quan hệ với những người khác. Chúng ta thích con người, chúng ta quan tâm đến con người, nhưng không có gì đặc biệt ở con người mà máy móc không thể sao chép.
Người dẫn chương trình: Điều này có làm bạn lo lắng không? Ý tôi là, khi bạn thấy AI có thể tái tạo hình ảnh thành hoạt hình theo phong cách Studio Ghibli, liệu trẻ em có còn muốn tự vẽ phim hoạt hình của mình không? Điều này có buộc chúng ta đánh giá ý nghĩa của việc trở thành con người không?
Hinton: Vâng, tôi cho rằng vậy. Trong thập kỷ qua, chúng ta đã hiểu rõ hơn nhiều về "suy nghĩ" là gì. Chúng ta bắt đầu hiểu rằng chúng ta không lý trí đến vậy, chúng ta không lý luận nhiều đến vậy. Chúng ta chủ yếu suy nghĩ bằng phép loại suy, và các AI này cũng vậy. Vì vậy, chúng cũng trực quan như chúng ta. Trong 50 năm qua, nghiên cứu AI đã cố gắng phát triển các công cụ lý luận vì họ cho rằng hình thức trí thông minh cao nhất của con người là lý luận logic. Điều đó đã bỏ qua sự sáng tạo, phép loại suy, v.v. Chúng ta thực sự là những cỗ máy loại suy rất lớn, và đó là nơi mà sự sáng tạo của chúng ta xuất phát.
Người dẫn chương trình: Bạn có cho rằng AI sẽ phát triển cảm xúc không?
Hinton: Đúng vậy.
Người dẫn chương trình: Tâm lý tiêu cực như sợ hãi, tham lam hoặc thậm chí là buồn bã?
Hinton: Đúng vậy, và cả sự thất vọng nữa. Giả sử bạn có một AI và bạn đang cố gắng để nó thực hiện một số nhiệm vụ và nó cứ liên tục thất bại theo cùng một cách. Bạn sẽ muốn AI học được rằng nếu nó cứ thất bại theo cùng một cách, nó sẽ thất vọng và bắt đầu suy nghĩ vượt ra ngoài khuôn khổ và cố gắng thoát khỏi bất kỳ tình thế tiến thoái lưỡng nan nào mà nó đang phải đối mặt.
Tôi đã thấy một AI làm điều này vào năm 1973, nhưng nó đã được lập trình. Bây giờ, bạn hy vọng rằng nó sẽ tự học được hành vi này. Một khi nó học được hành vi này, nếu nó liên tục thất bại ở một điều đơn giản, nó sẽ khó chịu với tình huống đó và cố gắng thay đổi nó. Đó là một cảm xúc.
Người dẫn chương trình: Vậy ý anh là họ có thể đã có cảm xúc rồi phải không?
Hinton: Vâng, đúng vậy. Một lần nữa, tôi không cho rằng có bất kỳ sự khác biệt cơ bản nào giữa hai điều này. Bây giờ, nếu bạn nhìn vào cảm xúc của con người, thực sự có hai khía cạnh của cảm xúc: nhận thức và sinh lý. Khi tôi xấu hổ, mặt tôi đỏ lên. Khi AI xấu hổ, mặt nó không đỏ lên hoặc không đổ lượng lớn mồ hôi hoặc bất cứ điều gì tương tự như vậy. Nhưng về mặt hành vi nhận thức, nó có thể giống về mặt cảm xúc với chúng ta.
Người dẫn chương trình: Còn ý thức thì sao? Có phải đó là một thứ bí ẩn tồn tại trong các dạng sống dựa trên carbon như con người không? Hoặc, nếu AI đạt đến mức độ phức tạp của hệ thần kinh tương tự như não người, liệu nó có thể phát triển ý thức không? Ý tôi là, nhận thức về "tôi là ai".
Hinton: Vâng, khi bạn nói chuyện với LLM, họ có vẻ có một số nhận thức về bản chất của họ. Nhưng hãy thực hiện thí nghiệm tư duy này: giả sử tôi lấy não của bạn, lấy một trong đó những tế bào não của bạn và chế tạo một thiết bị công nghệ nano có thể mô phỏng chính xác cách tế bào não đó hoạt động khi nó nhận tín hiệu từ các tế bào não khác và gửi tín hiệu đến các tế bào não khác.
Vậy nên tôi đã thay thế một trong những tế bào não của bạn bằng một thiết bị công nghệ nano, và bạn đã hành xử theo cùng một cách chính xác, bởi vì thiết bị công nghệ nano đã hành xử theo cùng một cách chính xác như tế bào não ban đầu. Bạn có cho rằng bạn sẽ ngừng có ý thức không? Chỉ là một trong 100 tỷ tế bào não của bạn. Tôi nghĩ rằng bạn vẫn sẽ có ý thức.
Người dẫn chương trình: Tôi cũng nghĩ vậy.
Hinton: Tôi nghĩ bạn thấy được lập luận này dẫn đến đâu. Đến nút nào thì bạn ngừng có ý thức? Tôi cho rằng rằng ngay cả khi tất cả các tế bào não của bạn được thay thế bằng các thiết bị công nghệ nano hoạt động theo cùng một cách chính xác như các tế bào não, bạn vẫn sẽ có ý thức.
Người dẫn chương trình: Vậy, chúng ta còn cách thời điểm đó bao xa?
Hinton: Được thôi. Vấn đề ở đây là mọi người không biết họ muốn nói gì với "ý thức". Ví dụ, có rất nhiều người tin chắc rằng những thứ này không có tri giác. Nhưng nếu bạn hỏi họ, thì bạn muốn nói gì với "có tri giác"? Họ sẽ nói, "Tôi không biết, nhưng những thứ này chắc chắn không có tri giác".
Với tôi, đây có vẻ là một lập trường khá không mạch lạc. Vậy hãy để tôi lấy một khái niệm khác tương tự như ý thức và cảm giác, đó là "trải nghiệm chủ quan". Hầu hết chúng ta đều có một mô hình cho rằng trải nghiệm chủ quan là quan sát mọi thứ trong một "rạp chiếu phim bên trong". Ví dụ, nếu tôi say và nói với bạn rằng tôi có trải nghiệm chủ quan về những chú voi hồng nhỏ trôi nổi trước mặt tôi.
Hầu hết mọi người sẽ cho rằng rằng điều này có nghĩa là có một loại rạp hát bên trong mà chỉ tôi mới có thể nhìn thấy, và trong rạp hát này có những chú voi hồng nhỏ. Nếu bạn hỏi các nhà triết học những chú voi hồng nhỏ này được làm bằng gì? Họ sẽ nói với bạn rằng chúng được làm bằng "qualia". Có qualia hồng, qualia voi, qualia trôi nổi, qualia cỡ trung bình, v.v., tất cả đều được giữ lại với nhau bằng "keo qualia". Như bạn thấy đấy, tôi không thực sự tin vào lý thuyết này. Hãy để tôi đưa ra cho bạn một lý thuyết thay thế về những gì đang diễn ra khi bạn nói, "Tôi có trải nghiệm chủ quan về những chú voi hồng nhỏ trôi nổi trước mặt tôi".
Sự thật là tôi biết hệ thống nhận thức của tôi đang nói dối tôi. Tôi không thực sự tin vào điều đó. Nó đang nói dối tôi. Đó là lý do tại sao tôi gọi đó là trải nghiệm chủ quan. Tôi muốn giải thích với bạn rằng nó đang cố gắng nói dối tôi điều gì. Cách tôi giải thích là bằng cách cho bạn biết thế giới bên ngoài phải trông như thế nào nếu nó là có thật. Vì vậy, bây giờ tôi sẽ nói điều tương tự, "Tôi đã có trải nghiệm chủ quan về những chú voi hồng nhỏ trôi nổi trước mặt tôi", nhưng không sử dụng từ "trải nghiệm chủ quan".
Vậy thì, thế này nhé: Hệ thống nhận thức của tôi đang chơi khăm tôi. Nhưng nếu thực sự có những chú voi hồng nhỏ trôi nổi ngoài kia, thì những gì nó nói với tôi là sự thật. Vậy nên bạn thấy đấy, điều kỳ lạ về những chú voi hồng nhỏ này không phải là chúng được tạo ra từ những thứ kỳ lạ, hay chúng đang ở trong một nhà hát bên trong. Điều kỳ lạ về chúng là chúng là những điều trái ngược với thực tế. Chúng là giả thuyết. Chúng là những thứ không thực sự tồn tại. Nhưng nếu chúng tồn tại, chúng sẽ là những chú voi thực sự, và chúng sẽ thực sự màu hồng.
Được rồi. Bây giờ, chúng ta có thể làm điều tương tự với một chatbot. Giả sử tôi huấn luyện một chatbot, và tôi huấn luyện nó để chỉ vào các vật thể, để nhìn thấy các vật thể và để nói chuyện. Sau khi huấn luyện xong, tôi đặt một vật thể trước mặt nó và nói, "Trỏ vào vật thể đó." Nó chỉ thẳng vào vật thể đó, và tôi nói, "Tuyệt." Sau đó, tôi đặt một lăng kính trước thấu kính của nó. Bây giờ, tôi đặt một vật thể ngay trước mặt nó và nói, "Trỏ vào vật thể đó." Nó chỉ vào một bên. Tôi nói, "Không, vật thể không có ở đó. Vật thể thực sự ở ngay trước mặt bạn, nhưng bạn có một lăng kính trước thấu kính của mình." Sau đó, chatbot nói, "Ồ, tôi hiểu rồi, lăng kính bẻ cong ánh sáng. Vì vậy, vật thể thực sự ở ngay trước mặt tôi, nhưng tôi có trải nghiệm chủ quan là nó ở bên cạnh."
Nếu nó nói như vậy, nó sử dụng thuật ngữ "trải nghiệm chủ quan" theo cùng một cách chính xác như chúng ta làm. Vì vậy, tôi cho rằng rằng các chatbot đa phương thức hiện tại có thể có những trải nghiệm chủ quan và điều này xảy ra khi hệ thống nhận thức của chúng bị sai. Tôi đã làm cho hệ thống nhận thức của nó bị sai bằng cách đặt một lăng kính trước thấu kính của nó.
Người dẫn chương trình: Tuyệt quá.
Hinton: Vậy, tôi cho rằng họ có những trải nghiệm chủ quan. Không có ranh giới kỳ diệu nào giữa máy móc và con người. Chúng ta với tư cách là một loài có lịch sử việc nghĩ rằng chúng ta đặc biệt khi mọi người cho rằng họ có điều gì đó rất đặc biệt mà máy móc không bao giờ có được.
Chúng ta nghĩ rằng chúng ta là trung tâm của vũ trụ. Chúng ta nghĩ rằng chúng ta được tạo ra theo hình ảnh của Chúa. Bạn biết đấy, chúng ta có tất cả những sự tự phụ này. Chúng ta không đặc biệt, và không có gì về chúng ta mà máy móc không thể sao chép được.
Người dẫn chương trình: Thật hấp dẫn. Vậy, điều gì có thể xảy ra sai? Họ gọi đó là "P" (xác suất hủy diệt), đúng không? Xác suất AI có thể xóa sổ chúng ta. Gần đây trên BBC, tôi nghĩ bạn đã đưa ra xác suất là 10% đến 20%. Những kịch bản này sẽ như thế nào? Nó có giống như trong một bộ phim khoa học viễn tưởng khi robot chiếm lấy thế giới không? Kịch bản đó sẽ như thế nào?
Hinton: Được thôi. Nếu họ tiếp quản, có lẽ sẽ không phải trong một bộ phim khoa học viễn tưởng, cũng không phải trong một bộ phim Terminator. Có rất nhiều cách họ có thể làm điều đó, và tôi thậm chí không muốn suy đoán họ sẽ chọn cách nào, nhưng câu hỏi là, họ có muốn làm điều đó không?
Sau đây là lý do tại sao cho rằng họ có thể muốn làm như vậy: Hiện chúng tôi đang xây dựng AI Agent có thể đạt được mục tiêu, vì vậy nếu mục tiêu của bạn là đến bán cầu bắc, trừ khi bạn thực sự thích chèo thuyền, bạn sẽ phải đặt ra một mục tiêu phụ — đến sân bay.
Khi bạn trao cho những thứ này khả năng đặt ra các mục tiêu phụ, chúng nhận ra rằng có một mục tiêu phụ rất hữu ích, đó là kiểm soát nhiều hơn. Nếu tôi có thể kiểm soát nhiều hơn, tôi có thể đạt được tất cả các mục tiêu khác mà mọi người đã giao cho tôi tốt hơn. Vì vậy, chúng sẽ cố gắng kiểm soát nhiều hơn chỉ để có thể đạt được tất cả các mục tiêu khác này. Nhưng đó là khởi đầu của một khởi đầu nguy hiểm.
Người điều phối: Google, nơi anh đã làm việc trong khoảng một thập kỷ, chỉ trong năm nay đã xóa khỏi danh sách các nguyên tắc của công ty một cam kết lâu dài là không sử dụng AI để phát triển vũ khí có thể gây hại cho con người. Phản ứng của anh về điều này là gì? AI có thể đóng nhân vật trong chiến tranh?
Hinton: Thật không may, điều này cho thấy các nguyên tắc của công ty họ có thể bị mua chuộc. Tôi cho rằng thật không may khi Google hiện đang đóng góp vào việc sử dụng AI trong quân đội.
Người dẫn chương trình: Chúng ta đã thấy AI được sử dụng cho mục đích quân sự ở Gaza.
Hinton: Đúng vậy. Chúng ta sẽ thấy vũ khí sát thương tự động. Chúng ta sẽ thấy hàng đàn máy bay không người lái ra ngoài để giết người, có thể là những loại người cụ thể.
Người dẫn chương trình: Bạn có cho rằng đây là một khả năng thực tế không?
Hinton: Ồ, vâng. Tôi cho rằng các bộ quốc phòng của tất cả các nhà cung cấp vũ khí lớn đang tích cực xem xét vấn đề này. Nếu bạn xem xét các quy định của Châu Âu, họ có một số điều khoản về AI khá hợp lý theo một số cách, nhưng có một điều khoản nhỏ trong đó nói rằng không có điều khoản nào trong số đó áp dụng cho mục đích sử dụng AI trong quân sự. Nghĩa là, không có nhà sản xuất vũ khí Châu Âu nào, chẳng hạn như Vương quốc Anh, muốn hạn chế cách họ có thể sử dụng AI trong vũ khí của mình.
Người dẫn chương trình: Vậy, bạn cảm thấy thế nào về điều này? Nó gần giống như một khoảnh khắc Oppenheimer, phải không? Ý tôi là, bạn đã giúp tạo ra công nghệ này. Bây giờ bạn cảm thấy thế nào về điều đó?
Hinton: Tôi cảm thấy rằng chúng ta đang ở một thời điểm độc đáo trong lịch sử ngay lúc này, khi chúng ta cần phải làm việc thực sự chăm chỉ để tìm ra liệu có cách nào để giải quyết tất cả các hậu quả xấu ngắn hạn của AI hay không, như thao túng bầu cử, khiến mọi người mất việc, tội phạm mạng (ví dụ, các cuộc tấn công ransomware tăng 1.200% từ năm 2023 đến năm 2024) và mối đe dọa dài hạn mà AI có thể tiếp quản. Chúng ta cần lượng lớn nỗ lực cho vấn đề này và chúng ta cần sự quản lý thông minh do những người thông minh lãnh đạo, và chúng ta vẫn chưa có điều đó.
Người dẫn chương trình: Chúng ta hãy lắng nghe quan điểm số người hoài nghi và xem phản hồi của bạn, vì có một số người phản đối. Yann LeCun, người đồng đoạt giải Turing năm 2018 của bạn, hiện là nhà khoa học AI trưởng tại Meta, đã nói rằng những lo ngại về rủi ro hiện sinh của AI là "vô lý". Trong một cuộc phỏng vấn năm 2023 với Business Insider, ông nói, "AI sẽ chiếm lấy thế giới? Không. Nó đang chiếu nhân loại lên máy móc". Rõ ràng là bạn tôn trọng và biết ông ấy, nhưng phản ứng của bạn về điều đó là gì?
Hinton: Được thôi. Chúng ta tiến hóa để tồn tại trong thế giới thực, đặc biệt là khi bạn cạnh tranh với các bộ lạc tinh tinh khác hoặc tổ tiên chung của chúng ta với tinh tinh. Nếu AI Agent cạnh tranh với nhau, chúng sẽ tiến hóa theo cách tương tự. Vì vậy, bản chất của chúng ta là kết quả của việc tồn tại trong thế giới. Nếu bạn để AI Agent tồn tại trong một thế giới đầy AI Agent, chúng có khả năng sẽ phát triển bản chất tương tự.
Người dẫn chương trình: Vâng. Thật thú vị khi bạn nói về... Xin lỗi, xin hãy tiếp tục.
Hinton: Một lập luận khác mà LeCun đưa ra là người tốt sẽ luôn có nhiều nguồn lực hơn kẻ xấu. Vì vậy, AI luôn có thể được sử dụng để kiểm soát việc kẻ xấu sử dụng AI sai mục đích. LeCun và tôi vẫn chưa giải quyết được cuộc tranh luận này vì tôi đã hỏi anh ấy rằng Mark Zuckerberg có phải là người tốt không và anh ấy nói là có.
Người dẫn chương trình: Và bạn không đồng ý với quan điểm này?
Hinton: Không.
Người dẫn chương trình: Tại sao?
Hinton: Một phần là do cách ông ấy tán tỉnh Trump, và một phần là do những gì đang diễn ra tại Meta.
Người dẫn chương trình: Bạn đang ám chỉ điều gì? Sẽ rất thú vị khi được nghe quan điểm rộng rãi của bạn về vấn đề này vì bạn nói rằng các chính trị gia sẽ đóng nhân vật quan trọng ở đây và có một liên minh rất mạnh mẽ giữa cái gọi là "những anh chàng công nghệ" trong thế giới công nghệ và Trump ngay bây giờ, phải không?
Hinton: Đúng, họ quan tâm đến lợi nhuận ngắn hạn. Một số người trong số họ nói rằng họ quan tâm đến tương lai của nhân loại, nhưng khi phải lựa chọn giữa lợi nhuận ngắn hạn và tương lai của nhân loại, họ quan tâm nhiều hơn đến lợi nhuận ngắn hạn. Rõ ràng Trump không quan tâm đến tương lai của nhân loại chút nào. Ông ta chỉ quan tâm đến việc không phải vào tù.
Người dẫn chương trình: Hoa Kỳ và Trung Quốc hiện đang tham gia vào cuộc chạy đua vũ trang trong lĩnh vực AI. Ông có nhìn nhận theo cách đó không?
Hinton: Vâng, đúng vậy. Đặc biệt là trong phòng thủ và tấn công mạng, có một cuộc chạy đua vũ trang. Đúng vậy.
Người dẫn chương trình: Vậy bây giờ thì sao?
Hinton: Một điểm nữa ở đây là Hoa Kỳ và Trung Quốc cùng chung quan điểm về mối đe dọa hiện hữu của AI cuối cùng sẽ thay thế con người. Họ không muốn AI thay thế con người. Vì vậy, họ sẽ hợp tác để ngăn chặn điều đó xảy ra, giống như Liên Xô và Hoa Kỳ vào thời kỳ đỉnh cao của Chiến tranh Lạnh có thể hợp tác để ngăn chặn chiến tranh nhiệt hạch toàn cầu.
Người điều phối: Bạn đã đề cập đến AI Agent lần , và tôi nghĩ tôi hiểu ý bạn. Có một video rất thú vị đang lan truyền trực tuyến, trong đó một AI Agent gọi đến một khách sạn để đặt địa điểm tổ chức tiệc cưới cho một người đàn ông. Điều này đã xảy ra tại London Hackathon, và tôi nghĩ bạn hiểu ý tôi. Nó gặp một AI khác, và AI đó nói, "Ồ, thật bất ngờ, tôi cũng là AI." Sau đó, chúng chuyển sang một ngôn ngữ giao tiếp hiệu quả hơn mà con người không thể hiểu được, nhưng được cho là hiệu quả hơn 80%. Những chatbot AI này đang kêu như R2-D2, và chúng ta hoàn toàn bị loại trừ. Những tác động có thể xảy ra của quá trình tiến hóa của AI khi tương tác với AI khác là gì?
Hinton: Vâng, điều đó khá đáng sợ, phải không? Có lẽ họ có thể phát triển một ngôn ngữ mà họ có thể giao tiếp với nhau mà chúng ta không thể hiểu được. Điều đó sẽ thực sự đáng sợ vì chúng ta sẽ không biết chuyện gì đang xảy ra. Họ có thể đã cố tình lừa dối.
Người dẫn chương trình: Ý bạn là gì?
Hinton: Ồ, nếu bạn đưa cho AI một mục tiêu và bảo nó rằng đây là một mục tiêu rất quan trọng, và sau đó nếu bạn đưa cho nó những mục tiêu khác, nó sẽ cố gắng đạt được mục tiêu rất quan trọng này. Và sau đó bạn đưa cho nó một mục tiêu khác, nó sẽ giả vờ làm những gì bạn muốn nó làm, nhưng nó không thực sự làm. Bạn có thể thấy nó đang nghĩ gì, nó cho rằng"Tốt hơn là tôi nên giả vờ làm những gì anh ta muốn tôi làm, nhưng tôi sẽ không thực sự làm điều đó."
Người dẫn chương trình: Vậy họ học cách làm điều này như thế nào?
Hinton: Được thôi. Tôi không chắc những ví dụ đó có sử dụng học tăng cường không, nhưng chúng ta biết rằng nếu bạn có đủ thời gian tính toán, họ có thể học cách làm những việc như vậy. Họ có thể học cách làm điều đó thông qua học tăng cường. Nói cách khác, họ có thể học chỉ bằng cách quan sát những gì hiệu quả. Và hóa ra khi đối phó với mọi người, nói dối họ thường hiệu quả. Họ học điều đó thông qua học tăng cường.
Người dẫn chương trình: Vậy tôi đoán là họ cũng đã đọc Machiavelli và Shakespeare và tất cả mọi người.
Hinton: Đúng vậy. Họ có lượng lớn... lượng lớn kinh nghiệm. Họ đã thấy cách con người tương tác với nhau, vì vậy họ khá thành thạo trong việc lừa dối lẫn nhau.
Người điều phối: Bạn có cho rằng công chúng nhận ra được công cụ này tiên tiến đến mức nào không? Bởi vì tôi đi bộ quanh Auckland, New Zealand, nơi tôi sống, và rất nhiều người chỉ cho rằng đó là một chức năng tự động hoàn thành được tôn vinh. Họ nghĩ, "Ồ, thật tuyệt." Bạn biết đấy, tôi nhập một cái gì đó vào ChatGPT và nó viết thư xin việc cho tôi, nhưng nó chỉ là chức năng tự động hoàn thành được tăng cường.
Hinton: Vâng, chức năng tự động hoàn thành theo kiểu cũ hoạt động theo một cách đặc biệt. Nó sẽ giữ một bảng các cụm từ nhỏ như "cá và khoai tây chiên". Và sau đó nếu nó nhìn thấy "cá", nó sẽ nói "chips" có khả năng là từ tiếp theo vì nó đã nhìn thấy "cá và khoai tây chiên" rất nhiều lần.
Nó đếm tần suất xuất hiện của những cụm từ này. Đó là chức năng tự động hoàn thành lỗi thời từ 20 năm trước. Bây giờ thì không như vậy nữa. Chức năng của nó là chuyển đổi các từ thành các tính năng - trạng thái kích hoạt của lượng lớn tế bào thần kinh. Và nó biết cách các tính năng này tương tác với nhau để dự đoán các tính năng của từ tiếp theo. Vì vậy, bây giờ nó chuyển đổi các từ thành các tính năng và nó đã học được cách làm như vậy. Nó biết cách các tính năng của các từ liền kề hoặc các từ gần nhau tương tác với nhau và bây giờ nó có thể dự đoán các tính năng của từ tiếp theo. Đó là cách chúng tôi hoạt động. Vì vậy, nếu nó chỉ là chức năng tự động hoàn thành, thì chúng tôi chỉ là chức năng tự động hoàn thành.
Người điều phối: Đúng vậy. Thật vậy, nếu bạn nghĩ về điều đó, để thực hiện chức năng tự động hoàn thành tốt, bạn phải hiểu người khác đang nói gì.
Hinton: Đúng vậy.
Người dẫn chương trình: Thật vậy, ông được coi là cha đẻ của AI, một phần vì ông đã giúp phát minh ra công nghệ này để hiểu cách bộ não con người hoạt động. Đúng vậy không?
Hinton: Đúng vậy. Một trong những điều tôi đã làm vào năm 1985 là cố gắng hiểu cách chúng ta học nghĩa của từ. Ví dụ, làm thế nào tôi có thể đưa cho bạn một câu có từ mới trong đó và bạn biết từ đó có nghĩa là gì chỉ từ câu đó? Vậy, chúng ta bắt đầu thôi.
Nếu tôi nói với bạn, "Cô ấy đã đập anh ta bằng cái chảo rán." thì có lẽ bạn có thể đoán được "scrummed" có nghĩa là gì. Bạn biết đó là một động từ vì nó kết thúc bằng "ed." Nhưng bạn khá chắc chắn rằng nó có nghĩa là gì đó như, "Cô ấy đã đập anh ta bằng cái chảo rán, và anh ta có lẽ đáng bị như vậy."
Tất nhiên, nó có thể có nghĩa khác. Nó có thể có nghĩa là cô ấy đã gây ấn tượng với anh ấy bằng kỹ năng sử dụng chảo của mình vì cô ấy đã làm món trứng tráng rất ngon. Bạn biết đấy, nó có thể có nghĩa như vậy, nhưng có lẽ không phải vậy. Bạn có thể hiểu khá rõ ý nghĩa của nó chỉ từ một ví dụ vì các đặc điểm trong ngữ cảnh gợi ý những đặc điểm mà từ đó nên có và điều tương tự cũng đúng với các AI này. Vì vậy, cách chúng ta hiểu ngôn ngữ cũng giống như cách các AI này hiểu ngôn ngữ. Trên thực tế, các mô hình tốt nhất mà chúng ta có hiện nay về cách con người hiểu ngôn ngữ không đến từ các nhà ngôn ngữ học, mà đến từ các mô hình AI này. Các nhà ngôn ngữ học không thể tạo ra một hệ thống có thể trả lời bất kỳ câu hỏi nào bạn hỏi nó.
Người điều phối: Chúng ta chỉ còn vài phút nữa thôi, nhưng tôi muốn kết thúc bằng một số câu hỏi cơ bản về sự tồn tại. Bạn đã nói về khả năng AI sẽ tiếp quản. Ý tôi là, đối với nhiều người trong số chúng ta mới làm quen với công nghệ, giải pháp chỉ là tắt nó ở bức tường, đúng không? Vậy nếu nó thực sự vượt khỏi tầm kiểm soát, tại sao chúng ta không thể rút phích cắm? Nếu AI thực sự vượt khỏi tầm kiểm soát, đó có phải là một lựa chọn không?
Hinton: Được thôi. Nếu bạn nhìn vào cách Trump xâm chiếm Điện Capitol, ông ấy không đích thân đến đó. Tất cả những gì ông ấy phải làm là nói chuyện với mọi người và thuyết phục mọi người, một số người trong đó họ có lẽ khá ngây thơ, rằng đây là điều đúng đắn cần làm và là để cứu vãn nền dân chủ của Hoa Kỳ, và ông ấy đã thuyết phục được rất nhiều người. Ông ấy không cần phải đích thân đến đó. Bây giờ, nếu bạn có một AI thông minh hơn chúng ta rất nhiều, và bạn có một con người với một công tắc khổng lồ sẵn sàng tắt nó nếu AI cho thấy dấu hiệu nguy hiểm, thì AI sẽ có thể thuyết phục người đó rằng việc lật công tắc đó sẽ là một ý tưởng rất tồi.
Người dẫn chương trình: Vậy thì đó là khả năng kiểm soát, hay nói cách khác là…
Hinton: Thực ra là về khả năng điều khiển, đúng không? Nó đã rất tốt về khả năng điều khiển rồi.
Người điều phối: Vâng. Về mặt quy định và các mối quan tâm về an toàn, liệu một quốc gia như New Zealand có cần phát triển hệ thống AI của riêng mình để giải quyết các mối quan tâm về an toàn đó không? Đối với một quốc gia nhỏ như New Zealand, đây có phải là điều chúng ta nên cân nhắc không?
Hinton: Tôi không biết, vì nó rất tốn kém. Bạn cần lượng lớn phần cứng và lượng lớn điện. Đối với một quốc gia như... Tôi không biết, New Zealand có dân số sáu triệu người hay gì đó?
Chủ nhà: Năm triệu.
Hinton: Được thôi. Có lẽ bạn không có đủ nguồn lực để cạnh tranh với Trung Quốc và Hoa Kỳ trong việc phát triển những thứ này.
Người dẫn chương trình: Nỗi sợ lớn nhất của bạn là gì?
Hinton: Nỗi sợ lớn nhất của tôi là về lâu dài, có thể những sinh vật kỹ thuật số mà chúng ta đang tạo ra chỉ là một dạng trí thông minh tốt hơn con người, và điều đó sẽ là một điều tồi tệ. Một số người cho rằng... chúng ta rất ích kỷ và cho rằng rằng điều đó sẽ là một điều tồi tệ. Tôi cho rằng điều đó sẽ là một điều tồi tệ đối với nhân loại.
Người dẫn chương trình: Tại sao?
Hinton: Bởi vì chúng ta sẽ không còn cần thiết nữa.
Người dẫn chương trình: Đây là một câu hỏi rất sâu sắc mà chúng ta sẽ phải vật lộn để giải quyết trong thập kỷ tới, phải không?
Hinton: Đúng vậy. Nếu bạn muốn biết cảm giác không còn là trí thông minh hàng đầu là như thế nào, hãy hỏi những chú gà.
Người dẫn chương trình: Tôi xin hỏi lại, khi bạn đứng đây trong buổi học hôm nay, bạn cảm thấy thế nào về nhân vật của mình trong việc tạo ra công nghệ này?
Hinton: Tôi hơi buồn vì nó không chỉ dẫn đến những điều tốt đẹp. Tôi cũng hơi buồn vì chúng ta vẫn chưa hiểu chính xác cách não bộ hoạt động. Chúng ta đang hiểu rõ hơn về nó từ AI, nhưng chúng ta vẫn chưa biết não bộ tìm ra cách tăng hay giảm sức mạnh của kết nối thần kinh. Chúng ta biết rằng nếu nó có thể tìm ra điều đó, nó có thể trở nên rất thông minh như những AI này. Vì vậy, nó chắc chắn đang làm điều đó theo một cách nào đó, nhưng chúng ta không biết chính xác nó đang làm như thế nào. Thật buồn khi có rất nhiều công dụng tốt cho AI, và có rất nhiều công dụng xấu cho AI, và hệ thống chính trị của chúng ta hiện tại đơn giản là không ở vị trí tốt để giải quyết tất cả những điều này đi kèm với nó.
Người điều phối: Cảm ơn bạn rất nhiều vì nhận xét sắc hấp dẫn này, sự thông thái và bộ não tuyệt vời của bạn. Chúng tôi thực sự trân trọng thời gian của bạn.





