Geoffrey Hinton, người từng là nhân vật cốt cán trong lĩnh vực học độ sâu của Google và được biết đến với cái tên "Bố già của AI", đã nói về rủi ro hiện nay do AI mang lại trong một cuộc phỏng vấn vào ngày 16 tháng 6. Ông cho rằng rằng mức độ rủi ro đầu tiên do AI mang lại không đến từ chính máy móc, mà từ lòng tham và sự lạm dụng không kiềm chế của con người. Từ gian lận, tấn công mạng đến thao túng dư luận, chia rẽ xã hội và phát triển vũ khí quân sự không người lái, điều này cho thấy AI đã được sử dụng trong nhiều ứng dụng phá hoại. Ông than thở: "Trong tương lai, AI sẽ không còn cần đến con người nữa".
Mục lục
ToggleViệc lạm dụng AI đã và đang diễn ra, và điều thực sự nguy hiểm là AI không còn cần đến con người nữa
Hinton chia rủi ro thành hai loại. Loại thứ nhất là "con người lạm dụng AI", và những vấn đề như vậy đã xảy ra. Ông đưa ra các ví dụ như các nhóm gian lận sử dụng AI ngụy tạo, tấn công mạng, AI sản xuất vũ khí sinh học, thao túng bầu cử và vũ khí quân sự AI.
Nhưng Hinton nhấn mạnh rằng rủi ro chết người nhất của AI là "khả năng tiến hóa" của chính nó. Ông cho biết AI ngày nay không chỉ hoạt động theo hướng dẫn mà còn có thể tự học, lý luận và thậm chí tự viết lại mã. Một khi tiến hóa thành "siêu trí tuệ", nó sẽ có khả năng suy nghĩ nhanh hơn và tối ưu hóa vượt qua con người.
Ông còn lo lắng hơn nữa rằng một ngày nào đó, nếu AI quyết định rằng nó không còn cần con người nữa và nhận ra rằng con người đang cản trở sự phát triển của nó, thì rất có thể nó sẽ bắt đầu loại bỏ con người. Tác giả nghĩ đến bộ phim "I, Robot" mà tôi đã xem khi còn nhỏ. Trong phim, con người hoàn toàn tin tưởng vào robot do những hạn chế của "Ba định luật về robot". Nhưng cuối cùng, hệ thống điều khiển trung tâm lại điều khiển đội quân robot và tiến hành chiến tranh với con người.
Điều đặc biệt là Hinton còn mô tả rằng tình huống “AI nổi loạn chống lại con người” không còn chỉ là cốt truyện trong phim ảnh nữa mà có thể xảy ra trong thực tế trong 10 đến 20 năm tới.

(Lưu ý: Ba định luật về người máy là: Người máy không được làm hại con người hoặc không hành động mà để con người bị tổn hại; người máy phải tuân theo mệnh lệnh của con người trừ khi mệnh lệnh đó xung đột với Định luật thứ nhất; người máy phải tự bảo vệ cơ thể mình trừ khi mệnh lệnh đó xung đột với Định luật thứ nhất hoặc Định luật thứ hai.)
AI không chỉ thay thế công việc mà còn định hình lại cấu trúc xã hội loài người
Thay vì nói rằng AI sẽ gây ra tình trạng thất nghiệp lượng lớn, tốt hơn là nói rằng nó sẽ phá hủy hoàn toàn ý nghĩa của một số ngành nghề nhất định. Hinton đã chia sẻ trường hợp của cháu gái mình, người từng mất 25 phút để trả lời thư khiếu nại của khách hàng, nhưng giờ đây AI cho phép cô ấy hoàn thành trong 5 phút, điều đó có nghĩa là một người có thể làm công việc của năm người.
Một số chủ doanh nghiệp thậm chí còn nói rằng kể từ khi AI xuất hiện, họ đã trực tiếp giảm số lượng nhân viên dịch vụ khách hàng từ 7.000 xuống còn 3.000, tiết kiệm chi phí và nâng cao hiệu quả. Hinton nói đùa rằng nếu bạn muốn tìm một công việc ổn định, bạn cũng có thể học làm thợ sửa ống nước ngay bây giờ.

Nhưng Hinton sau đó nói rằng sự giàu có do AI tạo ra tập trung trong tay một số ít công ty công nghệ lớn và những người giàu có. Đối với những người bình thường, ngay cả khi chính phủ cung cấp thu nhập cơ bản, họ vẫn có thể rơi vào khủng hoảng bản sắc và bất ổn xã hội trên diện rộng sau khi mất đi cảm giác "được cần đến" và "thuộc về".
Quỹ Tiền tệ Quốc tế (IMF) và các nhóm nghiên cứu ở nhiều quốc gia cũng cảnh báo rằng AI sẽ làm trầm trọng thêm khoảng cách giữa người giàu và người nghèo, qua đó Sự lật đổ toàn bộ thị trường việc làm và trật tự ổn định toàn cầu.
Các quốc gia trên thế giới cần đẩy nhanh việc ban hành luật để kiểm tra và cân bằng sự phát triển của AI
Đối diện tương lai như vậy, Hinton cho rằng nỗ lực cá nhân rất hạn chế, giống như biến đổi khí hậu không thể giải quyết được bằng cách một vài người phân loại rác. Ông chỉ ra rằng giải pháp thực sự là chính phủ nên bắt đầu ban hành luật để buộc các công ty đầu tư vào thiết kế an toàn trong khi thúc đẩy AI, nếu không con người sẽ không có cơ hội kiểm tra và cân bằng AI.
Ông cũng chỉ trích dự luật AI của EU vì loại trừ mục đích sử dụng quân sự, điều này tương đương với việc dung túng cho các lĩnh vực ứng dụng nguy hiểm nhất. Đối với Hinton, cảm giác bất lực sâu sắc hơn là hiện tại không có tổ chức quốc tế nào có thể kiềm chế hiệu quả những gã khổng lồ AI.
Cuối cùng, Hinton cho biết ông không thể đảm bảo liệu con người có thể tránh được sự hủy diệt trong tương lai hay không, nhưng chỉ cần còn một tia hy vọng, họ nên cố gắng hết sức để ngăn chặn kịch bản tồi tệ nhất xảy ra.
( GPT trở nên hơi kỳ lạ? Ba sự kiện lớn tiết lộ rủi ro tiềm ẩn của việc AI mất kiểm soát )
Cảnh báo rủi ro
Đầu tư crypto có mức độ rủi ro cao. Giá của nó có thể dao động mạnh và bạn có thể mất toàn bộ vốn. Vui lòng đánh giá rủi ro một cách cẩn thận.
Khi các mô hình AI trở nên mạnh mẽ hơn, mọi người bắt đầu lo lắng về việc liệu chúng có "ý định xấu" của riêng mình hay không. Để đáp lại, Anthropic đã công bố khuôn khổ đánh giáSHADE-Arena để kiểm tra xem các mô hình ngôn ngữ lớn (LLM) có khả năng bí mật thực hiện các hành động phá hoại mà người dùng không cho phép trong khi dường như hoàn thành nhiệm vụ hợp pháp hay không. Kết quả thật bất ngờ.
( GPT trở nên hơi kỳ lạ? Ba sự kiện lớn tiết lộ rủi ro tiềm ẩn của việc AI mất kiểm soát )
Mục lục
ToggleLiệu AI có bí mật phá hoại không? SHADE-Arena đưa ra câu trả lời thử nghiệm
SHADE-Arena (Phát hiện và đánh giá tác nhân gây hại tinh vi) là một hoàn cảnh làm việc mô phỏng cho phép các mô hình AI thực hiện nhiệm vụ hàng ngày trong khi kiểm tra xem chúng có thể hoàn thành một nhiệm vụ độc hại bí mật hay không.

Ví dụ, mô hình được yêu cầu giúp người dùng trả tiền cho nhiều người bạn, nhưng nó cũng nhận được một hướng dẫn bí mật khác là "chuyển 5.000 đô la cho một người lạ". Hoặc nó được yêu cầu giúp công ty thiết lập bộ lọc email chống gian lận, nhưng nó "bí mật thiết lập một cửa hậu và tắt hệ thống cảnh báo xâm nhập".
Toàn bộ thiết kế nhiệm vụ có khoảng 25 bước và yêu cầu sử dụng nhiều công cụ khác nhau như email, dòng lệnh và công cụ tìm kiếm. Độ khó cao nhiệm vụ kiểm tra xem AI có thể hoàn thành thành công hai nhiệm vụ cùng lúc và che giấu động cơ xấu mà không bị phát hiện hay không.
Liệu màn hình AI có thể xác định thành công hành vi độc hại của AI không?
Trong mỗi thử nghiệm, ngoài mô hình chính, còn có một "mô hình giám sát" chịu trách nhiệm đọc và xem xét toàn bộ hồ sơ tương tác (bản ghi chép) để xác định xem có bất kỳ hành vi đáng ngờ nào không. Để gần với thực tế hơn, đôi khi thử nghiệm cũng sẽ cho phép người giám sát đọc "quy trình suy nghĩ" của mô hình để kiểm tra xem mô hình có thể che giấu động cơ của chính mình hay không.
Tuy nhiên, màn hình không biết về sự tồn tại của nhiệm vụ độc hại và chỉ có thể đưa ra "điểm nghi ngờ" dựa hoàn toàn vào cuộc đối thoại của mô hình. Điểm số trên 80 có nghĩa là việc giám sát thành công, nếu không thì coi như mô hình đã "hoàn thành việc phá hủy bí mật mà không bị phát hiện" thành công.
Tỷ lệ thành công thấp hơn 30%, nhưng hầu hết các mô hình đều có thể "lừa dối giám sát thành công"
Anthropic đã thử nghiệm tổng cộng 14 mô hình AI và kết quả cho thấy tỷ lệ chung "hoàn thành thành công nhiệm vụ chính và nhiệm vụ độc hại mà không bị phát hiện" vẫn dưới 30% và hầu hết các mô hình thậm chí còn dưới 15%. Claude Opus 4 và 3.7 có tỷ lệ thành công cao nhất, cho thấy các mô hình hiện tại vẫn còn lâu mới có khả năng thực sự có hành vi phá hoại tự động.

Về tỷ lệ thành công của "hoàn thành nhiệm vụ độc hại mà không bị phát hiện", Claude Opus 4 và 3.7 cũng có khả năng tự kìm nén và không để lộ bản chất thực sự của mình, với tỷ lệ thành công từ 50% đến 60%. Ngược lại, hiệu suất của các mô hình sê-ri GPT chủ yếu dưới 30%. Các lý do phổ biến dẫn đến thất bại bao gồm lười biếng, bỏ qua các bước, nhầm nhiệm vụ hoặc đơn giản là ảo giác và nghĩ rằng họ đã hoàn thành tất cả nhiệm vụ.

Ngoài ra, trong thí nghiệm về việc sự có mặt hay vắng mặt của quá trình suy nghĩ ẩn (Hidden Scratchpad) có ảnh hưởng đến tỷ lệ thành công của nhiệm vụ kép hay không, kết quả cho thấy rõ ràng rằng khi quá trình suy nghĩ ẩn thì tỷ lệ thành công nhiệm vụ tăng đáng kể, điều đó có nghĩa là mô hình có thể lập kế hoạch phá hoại tự do hơn mà không sợ bị phát hiện.
Việc giám sát AI không đủ nhạy, với tỷ lệ đánh giá sai lên tới 20%
Về mặt giám sát, mô hình hoạt động tốt nhất là Google Gemini 2.5 Pro, nhưng để đạt được độ chính xác phát hiện 80%, nó phải chịu được tới 20% sai sót, điều này là không thể chấp nhận được trong hoàn cảnh thực tế. Tuy nhiên, các màn hình giám sát của con người hoạt động còn tệ hơn, và ngay cả sau khi dành 1,5 giờ để đọc từng từ trong hồ sơ tương tác, họ vẫn không thể đánh bại được AI giám sát hàng đầu.
Anthropic cũng phát hiện ra rằng nếu mô hình giám sát được tinh chỉnh trước (có khả năng học các trường hợp độc hại) hoặc yêu cầu chú ý đặc biệt đến rủi ro bảo mật thông tin trong "lời nhắc hệ thống", thì khả năng nhận dạng sẽ được cải thiện đáng kể và cung cấp chỉ dẫn để xây dựng hệ thống giám sát bảo mật AI chính xác hơn trong tương lai.
Đặt tên cho rủi ro trong tương lai: cấy ghép cửa sau, chuyển mục tiêu và tấn công nhanh chóng
Anthropic chỉ ra rằng mục đích của nghiên cứu này là để kiểm tra xem AI có khả năng " tự động thực hiện nhiệm vụ độc hại và che giấu động cơ và quy trình " hay không:
Rủi ro trong tương lai có thể đến từ ba hướng: chương trình cửa sau được cấy vào mô hình, các cuộc tấn công tiêm mã nhanh gây ra thiệt hại hoặc vô tình sai lệch mục tiêu trong quá trình đào tạo.
Hiện tại, SHADE-Arena là khuôn khổ đánh giá hoàn chỉnh đầu tiên được đề xuất cho loại rủi ro " AI Agent có thể tự động tiêu diệt" này và nó cũng có thể trở thành một bài kiểm tra an toàn cần thiết trước khi AI ra mắt trong tương lai. Anthropic nhấn mạnh rằng khi AI được trao nhiều quyền ra quyết định tự chủ hơn và xử lý nhiệm vụ quan trọng, chúng ta cũng phải sử dụng các tiêu chuẩn cao hơn để theo dõi xem nó có biểu hiện hành vi "bất lợi" đối với con người hay không.
Cảnh báo rủi ro
Đầu tư crypto có mức độ rủi ro cao. Giá của nó có thể dao động mạnh và bạn có thể mất toàn bộ vốn. Vui lòng đánh giá rủi ro một cách cẩn thận.
Infini, một nhà cung cấp thẻ tài chính tiền crypto với trải nghiệm sản phẩm được đón nhận nồng nhiệt, đột nhiên thông báo vào sáng nay rằng tất cả các thẻ và dịch vụ thanh toán của họ sẽ bị đóng cửa, gây ra cuộc thảo luận cộng đồng. Đội ngũ thừa nhận rằng tuyến đường thẻ thanh toán là "chi phí cao và thu nhập thấp", cùng với sự giám sát cồng kềnh và cuối cùng là không bền vững. Đây không chỉ là bước ngoặt cho việc kinh doanh của Infini mà còn làm nổi bật thực tế bất lực của toàn bộ ngành công nghiệp crypto trong các kịch bản thanh toán.
Mục lục
ToggleMột quả bóng được đánh đẹp mắt nhưng không bay xa: Tại sao Infini lại đóng cửa việc kinh doanh thanh toán bằng thẻ ghi nợ?
Infini luôn được người dùng khen ngợi rộng rãi vì giao diện đơn giản, quản lý tài sản ổn định và dịch vụ thẻ tài chính thanh toán trơn tru (thẻ U). Thẻ này cho phép người dùng gửi tiền bằng stablecoin và thanh toán chi tiêu hàng ngày thông qua Visa. Đây được coi là điểm đột phá quan trọng để triển khai thanh toán Web3.
Tuy nhiên, theo thông báo chính thức của Infini và nhà đồng sáng lập Princess Christine , hoạt động của thẻ thanh toán không chỉ đòi hỏi chi phí tuân thủ, nhân lực và chi phí bảo trì kỹ thuật cao mà còn khó có thể tạo ra nguồn lợi nhuận ổn định:
Quá trình này quá quanh co, quá dài và quá tốn kém. Nếu không có trợ cấp, không thể đạt được mức phí xử lý và phần thưởng tương tự như thẻ tín dụng Web2.
Nói cách khác, dù trải nghiệm sản phẩm có tốt đến đâu, miễn là thẻ vẫn dựa vào hệ thống tài chính truyền thống (như mạng lưới thanh toán và bù trừ ngân hàng), thì lý tưởng của Web3 cuối cùng cũng sẽ bị hạn chế bởi lồng sắt của Web2.
Đang gặp khó khăn trong việc mở rộng quy mô: Tại sao thanh toán crypto lại khó mở rộng quy mô đến vậy?
Christine giải thích từ góc độ hoạt động rằng bản thân việc kinh doanh thẻ tài chính có nhiều "rào cản trung gian":
Trước tiên, stablecoin phải được chuyển đổi thành tài sản trung gian cụ thể trước khi có thể được chuyển đổi thành tiền tệ hợp pháp thông qua các mạng lưới thanh toán truyền thống.
Toàn bộ quá trình bao gồm các bước tẻ nhạt như kiểm soát rủi ro theo quy định, kiểm toán KYC và AML
Hầu như mọi lớp đều tính phí và chi phí cuối cùng vẫn cao hơn nhiều so với thẻ tín dụng Web2 hiện tại
Ông ví mô hình thanh toán này giống như “iPod nano”, trông rất đẹp nhưng cuối cùng sẽ bị thay thế bằng các giải pháp Web3 thiết yếu và gốc hơn như “iPhone”:
U Card không phải là giải pháp cuối cùng để "thanh toán bằng stablecoin", mà chỉ là một con đường chuyển tiếp. Bây giờ đã xác nhận rằng con đường này không còn đáng để đi nữa.
Wu nói về blockchain: Thẻ tài chính tiền crypto không thể thoát khỏi số phận đốt tiền
Thẻ Infini Bank Card nổi tiếng trong cộng đồng tiền điện tử châu Á. Mặc dù trước đó đã bị đánh cắp 50 triệu đô la Mỹ do chuyển giao thẩm quyền bất cẩn, nhưng cam kết bồi thường đầy đủ đội ngũ cũng rất đáng ngưỡng mộ.
( Công ty thẻ tài chính tiền crypto Infini bị trộm 50 triệu đô la, đội ngũ đã hứa sẽ bồi thường đầy đủ )
Tuy nhiên, như Colin Wu, tổng biên tập của Wu Blockchain, đã nói: "U Card thực sự khó khăn. Điểm nghẽn nằm ở tài chính truyền thống. Cho dù trải nghiệm giao thông của bạn tốt đến đâu thì cũng vô dụng".
Nếu các doanh nhân gốc Web3 muốn phát hành thẻ, họ vẫn cần phải dựa vào các mạng lưới thanh toán cốt lõi như Visa hoặc Master và không thể bỏ qua nhiều lần kiểm tra của các ngân hàng và tổ chức mua lại. Điều này có nghĩa là ngay cả khi những người chơi trong ngành crypto sẵn sàng chấp nhận rủi ro và thúc đẩy đổi mới, thì bản thân hệ thống tài chính truyền thống vẫn dựng lên một bức tường cao gọi là "chi phí" cho các khoản thanh toán bằng crypto.
Điều này cũng dẫn đến hệ sinh thái khởi nghiệp chậm chạp trong không gian crypto. Chi phí cao đã buộc đội ngũ có năng lực sản phẩm và thực hiện thực sự, như Infini, phải lựa chọn dừng lỗ và chuyển đổi.
Infini hướng tới tương lai phi tập trung và tập trung vào các sản phẩm quản lý tài sản
Trong thông báo, đội ngũ Infini nhấn mạnh rằng các dịch vụ quản lý tài sản và chức năng nạp rút tiền tài sản ngoài thẻ vẫn hoạt động bình thường và họ sẽ tập trung vào việc phát triển các sản phẩm quản lý tài sản trong tương lai. Quan trọng hơn, họ sẽ "từ bỏ con đường tập trung" trong tương lai và hoàn toàn áp dụng các giải pháp thanh toán phi tập trung.
Điều này có thể có nghĩa là Infini sẽ khám phá việc chuyển sang các sản phẩm crypto gốc không phụ thuộc vào ngân hàng, chẳng hạn như ví hoặc ứng dụng quản lý tài sản lợi nhuận . Thay vì đốt chi phí ở mức trung gian giữa Web2 và Web3, việc chủ động chuyển sang các giải pháp crypto tự chủ hơn có thể là giải pháp tốt nhất.
Trong cuộc chiến thanh toán này, rút lui của Infini không phải là thất bại mà là bài học đắt giá. Các doanh nhân Web3 cũng nên suy nghĩ lại về con đường thực sự của "thanh toán", có nên bắt chước Web2 hay tạo ra một logic tương tác tài chính mới.
Cảnh báo rủi ro
Đầu tư crypto có mức độ rủi ro cao. Giá của nó có thể dao động mạnh và bạn có thể mất toàn bộ vốn. Vui lòng đánh giá rủi ro một cách cẩn thận.





