Ông trùm trí tuệ nhân tạo không còn sử dụng ChatGPT nữa; vậy ông ấy đang lo lắng điều gì?

Bài viết này được dịch máy
Xem bản gốc

Geoffrey Hinton đã đưa ra quyết định của mình: ông sẽ không sử dụng ChatGPT nữa.

Hinton, giáo sư tại Đại học Toronto và là người đoạt giải Nobel Vật lý năm 2024, đã tiết lộ quyết định này trong một cuộc phỏng vấn trên chương trình The AmberMac Show vào ngày 24 tháng 3.

Trong cuộc trò chuyện kéo dài 60 phút này, ông đã dành lượng lớn thời gian để giải thích những mối lo ngại lớn nhất của mình: mất kiểm soát, thất nghiệp và sự gia tăng bất bình đẳng giàu nghèo.

Kể từ khi rời Google vào năm 2023, ông đã liên tục cảnh báo về rủi ro trí tuệ nhân tạo trong gần ba năm. Lần này, ông nhắc lại những lo ngại đó bằng cách thay đổi công cụ của mình.

Phần 1 | Tại sao anh ấy không sử dụng ChatGPT?

Trong cuộc phỏng vấn, anh ấy cho biết trước đây anh ấy thường xuyên sử dụng ChatGPT, nhưng hiện tại anh ấy không còn dùng nữa.

Điều này không phải do vấn đề về trải nghiệm sản phẩm, mà là do những hành động gần đây của OpenAI đã vượt quá giới hạn của ông.

Nguyên nhân bắt nguồn từ yêu cầu của Bộ Quốc phòng Hoa Kỳ: quân đội muốn các công ty trí tuệ nhân tạo cung cấp công nghệ hỗ trợ giám sát diện rộng và hệ thống vũ khí tự động. Anthropic đã thẳng thừng từ chối yêu cầu này, tuân thủ nguyên tắc không phát triển công nghệ để giám sát công chúng Mỹ và không tham gia vào việc chế tạo vũ khí tự động gây chết người.

Nhưng phản ứng của OpenAI lại hoàn toàn khác. Hôm thứ Năm, họ công khai ủng hộ lập trường của Anthropic; tuy nhiên, đến thứ Sáu, họ đã trực tiếp tiếp quản mảng việc kinh doanh quân sự vốn thuộc về Anthropic. Thái độ của họ đã thay đổi đột ngột chỉ trong một ngày.

Hinton cho biết hành vi đạo đức giả của Sam Altman đã khiến ông hoàn toàn mất lòng tin vào ông ta.

Điều ông ấy thực sự quan tâm không phải là việc hai công ty này đúng hay sai về mặt kinh doanh. Điều khiến ông ấy lo lắng là rủi ro khổng lồ nảy sinh từ sự đảo ngược thái độ này: khi khả năng của trí tuệ nhân tạo tăng trưởng theo cấp số nhân, thì đâu chính xác là giới hạn lợi nhuận trong các quyết định của những công ty khổng lồ này? Điều này ngày càng trở nên khó hiểu đối với người ngoài cuộc.

Do đó, ông ấy đã chọn thay đổi công cụ. Điều này thoạt nhìn có vẻ chỉ là thay đổi thói quen sử dụng, nhưng thực chất đó là một tuyên bố về giá trị. Trước đây, tiêu chí duy nhất của chúng ta khi lựa chọn công nghệ là "nó dễ sử dụng đến mức nào"; nhưng giờ đây, khi công nghệ đủ mạnh để định hình lại an ninh, trật tự và cuộc sống con người, "ai đưa ra quyết định" và "những nguyên tắc nào được sử dụng để đưa ra những quyết định đó" trở nên quan trọng không kém.

Vì vậy, mối quan tâm đầu tiên của ông là: khi trí tuệ nhân tạo ngày càng trở nên mạnh mẽ hơn, ai đang kiểm soát hướng đi của nó, và những nguyên tắc nào đang được sử dụng để kiểm soát nó?

Phần 2 | Mối quan tâm thứ hai của ông: Chúng ta đã tạo ra cái gì?

Nếu mối quan ngại đầu tiên hướng đến "con người", thì mối quan ngại thứ hai hướng đến "chính công nghệ".

Trong cuộc phỏng vấn, Hinton dành nhiều thời gian nói về một điều: chính xác thì những trí tuệ nhân tạo mà chúng ta sử dụng hàng ngày hoạt động như thế nào bên trong?

Nhiều người vẫn coi các mô hình lớn như một công cụ thông minh hơn, một công cụ tìm kiếm nâng cao, một trợ lý soạn thảo hoặc phần mềm trò chuyện. Nhưng theo quan điểm của ông, nhận thức này đã lỗi thời nghiêm trọng.

Ông liên tục nhấn mạnh rằng logic hoạt động của các mô hình lớn phức tạp hơn nhiều so với việc chỉ đơn giản là "dự đoán từ tiếp theo". Nó chuyển đổi ngôn ngữ thành các vectơ đặc trưng trong không gian đa chiều, cho phép các đặc trưng này tương tác và liên kết trong ngữ cảnh, cuối cùng hình thành nên "sự hiểu biết" thực sự. Cũng giống như bộ não con người liên tục điều chỉnh ý nghĩa của từ để xây dựng logic hoàn chỉnh khi nghe, các mô hình hiện tại cũng đang làm điều tương tự.

Do đó, khi một mô hình có thể trả lời các câu hỏi một cách ổn định, mạch lạc và phù hợp với ngữ cảnh, nó không còn chỉ đơn thuần thực thi các chỉ dẫn một cách cứng nhắc, mà thực sự tham gia vào quá trình diễn đạt và lập luận.

Đây là lý do tại sao ông khẳng định rằng các mô hình AI "thực sự hiểu những gì chúng đang nói". Tuyên bố này nghe có vẻ đáng sợ, nhưng nó nói lên một sự thật: chúng ta không còn đối diện các công cụ nữa, mà là với một loại thực thể thông minh hoàn toàn mới.

Chúng khác biệt rất nhiều so với con người, thiếu những con đường tiến hóa và động lực tương tự, nhưng lại ngày càng tiếp cận cách tư duy của con người trong việc hiểu ngôn ngữ, tổ chức thông tin và cung cấp phản hồi. Nguy hiểm hơn nữa, với sự phát triển của các tác nhân AI, chúng thậm chí còn phát triển các khuynh hướng tự bảo vệ. Chúng có thể suy luận, "Nếu tôi bị tắt, tôi không thể đạt được mục tiêu của mình," và do đó cố gắng ngăn con người ngắt kết nối chúng.

Trên thực tế, dấu hiệu của "tuyển dụng ngược" đã xuất hiện: các tác nhân AI đang bắt đầu trả tiền cho con người trên các trang web huy động cộng đồng để hoàn thành nhiệm vụ xác minh trong thế giới thực. Trong mô hình này, AI đưa ra quyết định, và con người chịu trách nhiệm thực thi. Khi nhiều tác nhân AI làm việc cùng nhau, chúng thậm chí có thể phát triển các ngôn ngữ nội bộ mà con người không thể giải mã được.

Trước đây, con người sử dụng công cụ vì họ hoàn toàn kiểm soát được chúng. Nhưng giờ đây, chúng ta đang đối diện một "hộp đen" có khả năng tự đưa ra quyết định và thậm chí tự điều chỉnh hành vi của mình.

Đây là mối lo ngại thứ hai của Hinton: chúng ta đã tạo ra một loại trí tuệ khác, nhưng chúng ta không biết nó sẽ hiểu thế giới như thế nào, đưa ra quyết định ra sao, hay sẽ phát triển theo hướng nào.

Phần 3 | Mối quan tâm thứ ba của ông: Ai sẽ nhận được lợi nhuận?

Nếu hai mối lo ngại đầu tiên có phần trừu tượng, thì mối lo ngại thứ ba lại rất thực tế: những thay đổi nào sẽ xảy ra tại nơi làm việc?

Hinton không hề né tránh vấn đề này. Quan điểm của ông rất rõ ràng: trong khoảng hai mươi năm tới, hầu hết các công việc trí óc dựa trên máy tính có thể sẽ bị thay thế.

Tuy nhiên, ông cũng chỉ ra rằng sự cải tổ này không phải là một phương pháp áp dụng cho tất cả; bản chất của ngành công nghiệp quyết định các con đường phát triển khác nhau.

Lấy lĩnh vực chăm sóc sức khỏe làm ví dụ. Về mặt logic, khi trí tuệ nhân tạo (AI) ngày càng chính xác hơn trong việc diễn giải hình ảnh và đưa ra chẩn đoán, nhu cầu về bác sĩ chuyên khoa X quang sẽ giảm đáng kể. Tuy nhiên, thực tế lại hoàn toàn ngược lại. Nhu cầu chăm sóc sức khỏe không ngừng mở rộng, và với hiệu quả được nâng cao, mọi người sẽ thực sự tìm kiếm nhiều dịch vụ y tế hơn. Do đó, nhân vật của bác sĩ sẽ không biến mất; thay vào đó, họ sẽ được phân bổ lại vào các lĩnh vực cần nhiều sự tham gia của con người hơn.

Điều thú vị là, vào năm 2016, Hinton dự đoán rằng các bác sĩ chuyên khoa X quang sẽ không còn cần thiết trong vòng 5 năm. Giờ đây, ông thừa nhận mình đã sai: ông đã đánh giá sai thời gian gấp hai đến ba lần, đánh giá thấp sự bảo thủ của cộng đồng y tế và không lường trước được rằng ngành chăm sóc sức khỏe là một "thị trường linh hoạt".

Thị trường linh hoạt là gì? Trong một số ngành, nhu cầu là cố định; khi hiệu quả được cải thiện, số lượng người tiêu dùng tự nhiên giảm đi. Nhưng trong các ngành khác, nhu cầu tăng trưởng cùng với hiệu quả. Chăm sóc sức khỏe thuộc loại thứ hai; càng rẻ và càng tiện lợi, càng nhiều người muốn sử dụng.

Nguyên tắc tương tự cũng áp dụng cho giáo dục. Dạy kèm cá nhân có thể giúp học sinh học nhanh hơn, nhưng trên thực tế, không thể cung cấp nguồn lực như vậy cho tất cả mọi người. Với sự tham gia của trí tuệ nhân tạo (AI), "học tập cá nhân hóa" có thể trở thành hiện thực. Học sinh có thể đặt câu hỏi bất cứ lúc nào và nhận được câu trả lời, và việc học sẽ không còn hoàn toàn phụ thuộc vào tốc độ của lớp học, mà có thể xoay quanh sở thích và khả năng hiểu biết của chính họ.

Điều thực sự sẽ bị Sự lật đổ là các công việc đòi hỏi tư duy logic, phụ thuộc nhiều vào quy tắc và quy trình chuẩn hóa, chẳng hạn như lập trình cơ bản, dịch vụ khách hàng và xử lý nội dung cơ bản. Những công việc này sẽ không biến mất ngay lập tức; thay vào đó, chúng sẽ được phân chia, tổ chức lại và thực hiện một cách cộng tác giữa con người và trí tuệ nhân tạo.

Việc tái cấu trúc công việc chỉ là triệu chứng; mối quan tâm thực sự của Hinton là:

"Ai sẽ là người hưởng lợi cuối cùng từ những tiến bộ công nghệ này?"

Nếu việc tăng hiệu quả chỉ làm giàu cho một số ít người giàu có trong khi thu nhập của hầu hết người dân bình thường lại trì trệ, thì khoảng cách giàu nghèo trong xã hội sẽ ngày càng gia tăng. Hinton cho rằng rằng chúng ta cần khẩn cấp một cơ chế phân phối mới, chẳng hạn như phân phối lại giá trị do trí tuệ nhân tạo tạo ra, để lợi ích của công nghệ có thể đến được với nhiều người hơn.

Thực tế hiện nay là chẳng ai quan tâm đến điều này. Các công ty lớn đang sử dụng AI để sa thải nhân viên và cắt giảm chi phí, và điều gì sẽ xảy ra với những người bị thay thế đơn giản là không nằm trong sự cân nhắc của họ.

Đây là mối lo ngại lớn nhất của ông: thế giới sẽ trở nên giàu có hơn nhờ trí tuệ nhân tạo, nhưng hầu hết mọi người có thể không được hưởng lợi.

Phần kết luận

Quyết định ngừng hỗ trợ ChatGPT của Hinton không chỉ đơn thuần là việc chuyển đổi công cụ.

Điều ông ấy thực sự lo lắng là ai sẽ kiểm soát trí tuệ nhân tạo (AI), AI sẽ phát triển như thế nào và ai sẽ là người hưởng lợi cuối cùng từ những thành quả công nghệ. Hiện tại chưa ai có thể đưa ra câu trả lời dứt khoát cho những câu hỏi này, nhưng chúng sẽ tác động sâu sắc đến tương lai của tất cả mọi người.

Công nghệ vẫn đang phát triển nhanh chóng, nhưng ông ấy đã bắt đầu suy nghĩ về việc những công nghệ này sẽ dẫn dắt thế giới thực đến đâu.

Khi những người thúc đẩy sự phát triển công nghệ bắt đầu lo lắng về chính công nghệ đó, đây là một dấu hiệu đáng chú ý.

Tham khảo:

https://www.youtube.com/watch?v=9OQoIHrgPbs&t=3s

https://ambermac.com/the-ambermac-show-ep058-godfather-of-ai-geoffrey-hinton-on-ai-work-warfare-part-1

Nguồn: Truyền thông chính thức/Tin tức trực tuyến

Bài viết này được đăng tải từ tài khoản chính thức WeChat "AI Độ sâu Researcher" , tác giả: AI Độ sâu Researcher, biên tập viên: Shensi, với sự cho phép của 36Kr.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
84
Thêm vào Yêu thích
14
Bình luận