
Sáng thứ Hai, Phố Wall đã làm điều mà họ giỏi nhất: bán trước, suy nghĩ sau.
Chỉ số Nasdaq giảm 1,4%, và chỉ số S&P 500 giảm 1,2%. IBM lao dốc 13%, và Mastercard cùng American Express cũng chịu sụt giảm mạnh. Điều đẩy thị trường vào tình trạng hoảng loạn này không phải là Cục dự trữ liên bang Hoa Kỳ, không phải báo cáo việc làm, và cũng không phải báo cáo lợi nhuận của bất kỳ gã khổng lồ công nghệ nào, mà là một bài báo. Tiêu đề của nó nghe giống như một cơn ác mộng được cố tình viết ra cho người giao dịch : "Cuộc khủng hoảng trí tuệ toàn cầu năm 2028". Theo bài báo, đây không phải là một báo cáo nghiên cứu thông thường, mà là một bản ghi nhớ kinh tế vĩ mô giả định "từ ngày 30 tháng 6 năm 2028", mô tả cách trí tuệ nhân tạo (AI) có thể phát triển từ một công cụ hiệu quả thành một cuộc khủng hoảng tài chính hệ thống; kịch bản kết thúc được mô phỏng bao gồm tỷ lệ thất nghiệp tăng lên 10,2% và chỉ số S&P 500 giảm 38% so với mức cao nhất năm 2026. Bài báo lan truyền nhanh chóng sau khi được phát hành và gây ra biến động đáng kể trên thị trường chứng khoán Mỹ vào ngày 23 tháng 2.
Thị trường có thể bị ảnh hưởng bởi một bài báo không phải vì nó thực sự tin vào từng con số. Thị trường không bao giờ cần phải hoàn toàn tin vào một câu chuyện; nó chỉ cần được nhắc nhở rằng một nỗi sợ hãi trước đây không được nói ra giờ đã tìm được ngôn ngữ để giao dịch.
Hiệu quả của bài báo của Citrini không nằm ở những gì nó "dự đoán", mà ở tên gọi mà nó đặt ra. Bài báo đã đặt ra thuật ngữ " GDP ma ", đề cập đến một hiện tượng đang nổi lên. Luận điểm cốt lõi là khi các tác nhân AI thâm nhập vào các doanh nghiệp, năng suất lao động tăng vọt, GDP danh nghĩa vẫn mạnh mẽ, nhưng của cải ngày càng tập trung vào tay người nắm giữ tỷ lệ băm và vốn, không còn tham gia vào chu kỳ tiêu dùng thực tế. Điều này dẫn đến sự sụp đổ của tiêu dùng, vỡ nợ tín dụng và áp lực lên tín dụng nhà ở và tiêu dùng, sụp đổ ngành công nghiệp phần mềm và tư vấn trước khi lan sang cho vay quỹ đầu tư tư nhân và hệ thống ngân hàng truyền thống.
"GDP ma" là một thuật ngữ hay vì nó nắm bắt được một trong những nghịch lý nguy hiểm nhất của kỷ nguyên mới: tăng trưởng vẫn đang diễn ra, nhưng tăng trưởng bắt đầu mất đi người tiêu dùng.
Trong hai thế kỷ qua, người ta đã quen với việc hiểu các cuộc cách mạng công nghệ như một câu chuyện về phía cung. Động cơ hơi nước, điện, dây chuyền lắp ráp, internet—chúng chủ yếu được mô tả như những chiến thắng về hiệu quả cao hơn, chi phí thấp hơn và sản lượng lớn hơn. Ngay cả khi những cuộc cách mạng này gây ra nạn thất nghiệp, lo lắng và sự phân phối lại của cải, câu chuyện chủ đạo vẫn tin rằng công nghệ cuối cùng sẽ tạo ra việc làm mới, phân phối lại và tổ chức lại xã hội trên quy mô lớn hơn. Sự khắc nghiệt ngắn hạn của công nghệ được che giấu bởi lời hứa về sự thịnh vượng lâu dài.
Trí tuệ nhân tạo (AI) khiến câu chuyện cũ này trở nên kém thuyết phục hơn bao lần.
Bởi vì AI không chỉ tấn công vào "ngân sách công cụ", mà còn ngày càng trực tiếp nhắm vào "ngân sách lao động". Bản tóm tắt "Sự trỗi dậy của AI năm 2025" của Sequoia đã nêu rất thẳng thắn: cơ hội của AI không chỉ là định nghĩa lại thị trường phần mềm, mà còn là tái cấu trúc thị trường dịch vụ nhân lực toàn cầu, chuyển từ "bán công cụ" sang "bán kết quả". Mặt khác của tuyên bố này lại khá đáng lo ngại: nếu các công ty không còn mua phần mềm giúp nhân viên làm việc, mà thay vào đó là mua kết quả trực tiếp thay thế một phần lực lượng lao động của họ, thì hậu quả chính của AI không chỉ là "hiệu quả cao hơn", mà còn là "cách phân phối tiền lương, cách duy trì tiêu dùng và ai vẫn còn sức mua trong hệ thống kinh tế này".
Nói cách khác, điều mà Phố Wall thực sự lo sợ không phải là trí tuệ nhân tạo (AI) sẽ mắc sai lầm, mà là AI sẽ quá thành công. Đó là điều khiến "Cuộc khủng hoảng trí tuệ toàn cầu năm 2028" trở nên hấp dẫn đến vậy. Nó không phải về việc máy móc tự nhận thức được bản thân, cũng không phải về sự tuyệt chủng của loài người, hay thậm chí chủ yếu là về nạn thất nghiệp. Nó nói về một điều gì đó mang tính tư bản hơn và hiện đại hơn: điều gì sẽ xảy ra nếu các doanh nghiệp trở nên hiệu quả hơn, nhưng khu vực hộ gia đình lại trở nên yếu hơn?
Câu trả lời là một xã hội có thể tăng trưởng về mặt thống kê nhưng lại suy yếu về mặt thực tế.
Một quốc gia có thể có năng suất cao hơn nhưng lại có cơ sở người tiêu dùng dễ bị tổn thương hơn.
Thị trường có thể phấn khích trước hệ số biên lợi nhuận được cải thiện, và hoảng loạn trước sự sụt giảm nhu cầu hỗ trợ cho những lợi nhuận đó.
Đây không phải là khoa học viễn tưởng; đây là kinh tế vĩ mô.
Nhưng dừng lại ở đó chỉ dẫn đến sự lo lắng tột độ. Câu hỏi thực sự quan trọng bây giờ không phải là "Liệu AI có quá mạnh mẽ?", mà là: Khi AI thực sự trở nên mạnh mẽ, xã hội sẽ xử lý nó như thế nào? Câu trả lời phổ biến nhất, và lười biếng nhất, là "Hãy chậm lại." Đừng để các tác nhân tự động xâm nhập vào doanh nghiệp quá nhanh, đừng để tự động hóa viết lại các tổ chức quá nhanh, và đừng để công nghệ phát triển quá xa trước khi hệ thống sẵn sàng. impulses này có thể hiểu được, nhưng nó lại nhầm lẫn khi coi AI như một vấn đề về công cụ có thể được giải quyết bằng cách làm chậm lại. Trên thực tế, AI ngày càng ít giống một vấn đề về công cụ và giống một vấn đề về trật tự hơn.
Bởi vì một khi các tác nhân tham gia vào các lớp thanh toán, hợp tác, thực thi, bộ nhớ và ra quyết định, thách thức thực sự không còn là liệu một mô hình nào đó đang nói điều vô nghĩa hay không, mà là: khi có hàng trăm triệu hoặc hàng tỷ tác nhân trên mạng, ai sẽ viết ra các quy tắc cho chúng?
Internet hiện đại đã cung cấp sẵn hai câu trả lời mặc định cho câu hỏi này.
Câu trả lời đầu tiên là câu trả lời về nền tảng. Nền tảng cung cấp danh tính, quyền hạn, giao diện thanh toán, hệ thống đánh giá uy tín và ranh giới kiểm duyệt. Nền tảng lưu trữ mọi thứ và định nghĩa mọi thứ. Ưu điểm lớn nhất của nó là sự vận hành trơn tru, hiệu quả và dễ quản lý; nguy hiểm lớn nhất của nó cũng nằm chính ở đây: nếu các nền văn minh dựa trên tác nhân trong tương lai được xây dựng trên con đường này, nhân loại sẽ không đạt được một xã hội mở, mà chỉ là một phiên bản nâng cấp của đế chế nền tảng. Các quy tắc sẽ không được ghi trong hiến pháp, mà chỉ được ghi trong điều khoản dịch vụ.
Câu trả lời thứ hai nghe có vẻ tự do hơn: trả lại mọi thứ cho thiết bị đầu cuối cá nhân. Mỗi người quản lý tác nhân của riêng mình, xử lý quyền hạn, bộ nhớ, thanh toán, bảo mật và hợp tác. Tầm nhìn này phù hợp với thẩm mỹ tự do của Thung lũng Silicon, nhưng vấn đề của nó rất đơn giản: hầu hết mọi người đơn giản là thiếu khả năng quản lý một tác nhân có năng lực cao trong thời gian dài, chứ chưa nói đến một mạng lưới các tác nhân gọi đến, trả tiền và kế thừa trạng thái của nhau. Quyền tự chủ của thiết bị đầu cuối ở đây dễ dàng thoái hóa thành việc thiết bị đầu cuối hoàn toàn bị phơi bày.
Nếu câu trả lời của nền tảng quá giống một đế chế, và câu trả lời của thiết bị đầu cuối quá giống sự hỗn loạn, thì con đường thứ ba không còn là một lựa chọn nữa, mà chính là vấn đề của nền văn minh.
Đây chính là điểm mà LazAI xứng đáng được chú ý nghiêm túc. Không phải vì số lượng mô-đun kỹ thuật mà nó sở hữu, mà bởi vì nó đề xuất một ý tưởng ít được thảo luận hơn nhưng mang tính tương lai hơn: nâng cấp các thử nghiệm xã hội của Web3 về định danh, tài sản , thanh toán, đồng thuận, bằng chứng và quản trị thành một cỗ máy thể chế cho kỷ nguyên AI . LazAI nêu rõ mục tiêu này. Nó không phải là "tạo ra những nô lệ thông minh hơn", mà là nuôi dưỡng "những công dân kỹ thuật số bình đẳng": những tác nhân này sở hữu danh tính (EIP-8004), sở hữu tài sản (DAT), giao dịch thông qua các giao thức (x402), hành vi của chúng bị ràng buộc bởi toán học (Verified Computing), và cuối cùng phù hợp với lợi ích của con người thông qua iDAO. Một số nguồn thậm chí còn tóm tắt con đường này như sau: xây dựng hiến pháp và chính sách tiền tệ cho xã hội kỹ thuật số tương lai .
Đây là một phát biểu rất chung chung. Nhưng chung chung không có nghĩa là trống rỗng.
Bởi vì nếu phân tích kỹ khái niệm này, nó sẽ trả lời chính xác năm câu hỏi cơ bản mà một nền văn minh cần phải giải đáp.
Câu hỏi đầu tiên là: Ai là ai ?
EIP-8004 nỗ lực chuyển đổi các tác nhân từ các tiến trình nặc danh trên máy chủ thành các thực thể có danh tính, uy tín và hồ sơ xác minh. Nếu không có lớp này, các mạng lưới trong tương lai sẽ bị quá tải bởi các thực thể tự động không rõ ràng, không ai biết ai đang hoạt động hoặc ai chịu trách nhiệm. Cơ sở tri thức của LazAI tóm tắt lớp này như một hệ thống nhận dạng và tín nhiệm của tác nhân.
Câu hỏi thứ hai là: ai sở hữu cái gì ?
DAT chuyển đổi dữ liệu, mô hình và kết quả tính toán từ "tài nguyên" thành "tài sản", biến tài sản này thành có thể lập trình, truy vết và sinh lời. Tài liệu nêu rõ rằng sự đổi mới cốt lõi của DAT là chuyển đổi dữ liệu và mô hình AI thành tài sản Chuỗi có thể kiểm chứng, truy vết và sinh lời. Đây không phải là một sự điều chỉnh nhỏ. Điều này có nghĩa là giá trị trong nền kinh tế AI không nhất thiết phải chỉ nằm ở phần phụ trợ của nền tảng, cũng không nhất thiết phải chỉ chảy về tay các nhà cung cấp mô hình và người nắm giữ tỷ lệ băm .
Câu hỏi thứ ba là: họ giao dịch như thế nào ?
Ý nghĩa của x402 và GMPayer không chỉ đơn thuần là "có khả năng thanh toán", mà còn cho phép máy móc có ngôn ngữ riêng để định giá và quyết toán. Tài liệu của LazAI mô tả rõ ràng đây là cơ sở hạ tầng quan trọng để giải quyết những khó khăn trong việc trao đổi tài nguyên và thanh toán giữa các tác nhân. Máy móc không chỉ trao đổi thông tin mà còn cả ngân sách, trách nhiệm và giá trị—đây chính là nền kinh tế tác nhân, chứ không chỉ là "phần mềm có thể trò chuyện".
Câu hỏi thứ tư là: Làm thế nào bạn biết hệ thống thực sự đang hoạt động theo đúng quy tắc ? Tuyên bố của LazAI ở đây rất xuất sắc: "Bằng chứng là lợi thế cạnh tranh của AI." Khung tính toán xác minh của nó, kết hợp TEE và ZKP, chuyển đổi quan điểm "tin tưởng vào thương hiệu" của AI truyền thống thành "tin tưởng vào bằng chứng." AI truyền thống là "Hãy tin tôi đi," trong khi LazAI là "Đừng tin tưởng, hãy xác minh." Đây không chỉ là một nâng cấp công nghệ; nó đang chuyển niềm tin từ danh tiếng doanh nghiệp sang việc thực thi có thể kiểm chứng được.
Câu hỏi thứ năm là: Điều gì sẽ xảy ra nếu có sự xung đột giữa các quy tắc ?
Đây là vị thế của iDAO. Nó không chỉ là một hệ thống bỏ phiếu đơn thuần, mà còn là nền tảng của các giá trị, tiêu chuẩn gia nhập, phân phối lợi nhuận, thu hồi quyền hạn và cơ chế trừng phạt đằng sau các tác nhân. LazAI đặt nó ngang hàng với tính toán xác minh như một yếu tố cốt lõi của cơ chế tin cậy. Điều này có nghĩa là các tác nhân trong tương lai sẽ không chỉ được "cho phép hoạt động", mà sẽ tồn tại trong một không gian thể chế dựa trên lý thuyết trò chơi, có trách nhiệm giải trình và có thể thu hồi quyền hạn. Kết hợp tất cả những điều này, bạn sẽ thấy rằng "hiến pháp thuật toán" không chỉ là một phép ẩn dụ hoa mỹ. Đó là một tham vọng thể chế rất cụ thể: duy trì trật tự ngay cả khi không có một người đứng đầu duy nhất .
Dĩ nhiên, khó khăn thực sự nằm ở chỗ các yếu tố thể chế này không tự động dẫn đến các giải pháp xã hội.
Việc xác nhận quyền sở hữu tài sản không đồng nghĩa với việc khôi phục sức mua.
Chia sẻ lợi nhuận không đồng nghĩa với sự ổn định kinh tế vĩ mô.
Quản trị Chuỗi không giống với khế ước xã hội trong thế giới thực.
Những người chịu ảnh hưởng nhiều nhất bởi AI không nhất thiết đang ở vị thế thuận lợi trong hệ thống mới.
Đây là lý do tại sao Citrini và LazAI thực chất không mâu thuẫn với nhau, mà chỉ đang thảo luận về các vấn đề từ cùng một thời kỳ.
Các cấp độ khác nhau. Cấp độ trước chỉ ra các triệu chứng: nếu lợi nhuận của AI chủ yếu chảy vào vốn và tỷ lệ băm, thay vì...
Nếu điều này tác động đến cơ cấu thu nhập xã hội một cách rộng rãi hơn, thì tiêu dùng, tín dụng và cảm giác an toàn của tầng lớp trung lưu sẽ là những đối tượng đầu tiên bị ảnh hưởng.
Cơ chế được đề xuất là: nếu xã hội không muốn hoàn toàn giao phó thế giới của các tác nhân cho các nền tảng, cũng như không muốn để nó hoành hành một cách bừa bãi...
Để giải quyết chứng bệnh nan y, cần phải phát minh ra những cấu trúc mới về định danh, tài sản, thanh toán, xác minh và quản trị.
Một trong số họ đang nói về bệnh tật.
Một bên đang nói về các cơ quan. Cả hai đều cần thiết, nhưng không cái nào là tất cả.
Điều này giải thích chính xác tại sao câu nói nổi tiếng của Vitalik Buterin — "Trí tuệ nhân tạo là động cơ, con người là vô lăng" — lại quan trọng nhưng vẫn chưa đầy đủ. Nó quan trọng vì nó nhắc nhở chúng ta rằng một hệ thống mạnh mẽ hơn không tự động có tính hợp pháp; các chức năng khách quan, phán đoán giá trị và các ràng buộc tối thượng không thể được giao phó cho một trí tuệ nhân tạo duy nhất hoặc một trung tâm duy nhất. Nó chưa đầy đủ vì nó không trả lời được một câu hỏi khó hơn đối với nhân loại: khi một hệ thống trở nên quá phức tạp đến mức một người không còn có thể nắm giữ vô lăng, thì điều gì sẽ xảy ra với vô lăng?
Giải pháp không thể là tiếp tục quản lý chi tiết mọi thứ.
Câu trả lời không thể là đặt hy vọng vào một trung tâm thông minh hơn, tử tế hơn.
Giải pháp khả thi duy nhất là thể chế hóa "vô lăng": chuyển đổi một số ràng buộc thành đăng ký danh tính, tích lũy uy tín, xác nhận tài sản, ràng buộc ngân sách, biên lai toán học, cơ chế thách thức, thu hồi quyền hạn và logic xử phạt.
Đây chính là lý do tại sao các thử nghiệm xã hội của Web3 đột nhiên trở nên nghiêm túc trở lại trong kỷ nguyên AI. Trước đây, nhiều người coi chúng như những mảnh vụn công nghệ mang tính suy đoán; nhưng khi độ phức tạp của hệ thống vượt quá khả năng quản lý trực tiếp của con người, những thử nghiệm về "liệu trật tự có thể được thiết lập mà không cần một người ủy thác tập trung" không còn là những mảnh vụn nữa. Chúng đột nhiên trở thành những cuộc diễn tập.
Như vậy, sự sắc bén thực sự của bài báo cuối cùng đã được bộc lộ.
Phố Wall đã lo ngại trước một bài báo về trí tuệ nhân tạo, không phải vì đây là lần đầu tiên họ nhận ra rằng trí tuệ nhân tạo sẽ thay thế việc làm.
Phố Wall đã rất lo ngại vì lần đầu tiên họ được nhắc nhở một cách thẳng thừng rằng khía cạnh nguy hiểm nhất của trí tuệ nhân tạo có thể không phải là việc làm cho máy móc giống con người hơn, mà là việc khiến chu kỳ thu nhập, logic tiêu dùng và tư duy thể chế của thế giới cũ đột nhiên trở nên lỗi thời.
Nếu Citrini đúng, thì trí tuệ nhân tạo không chỉ là một cuộc cách mạng về năng suất mà còn là một cuộc cách mạng về phân phối.
Nếu Vitalik đúng, thì trí tuệ nhân tạo không chỉ là vấn đề kỹ thuật mà còn là vấn đề chủ quyền. Nếu con đường của LazAI ít nhất cũng đúng một phần, thì giai đoạn cạnh tranh tiếp theo trong lĩnh vực trí tuệ nhân tạo sẽ không chỉ là cạnh tranh về khả năng của mô hình mà còn là cạnh tranh về thiết kế thể chế.
Vấn đề lớn thực sự không còn là:
Liệu mô hình này sẽ trở nên mạnh mẽ hơn nữa?
Liệu các tác nhân sẽ trở nên tự chủ hơn?
Công ty có sa thải thêm nhân viên nữa không?
Vấn đề lớn thực sự là:
Khi có hàng tỷ người dùng trên internet, ai sẽ soạn thảo hiến pháp cho họ?
Nếu câu trả lời là một nền tảng, thì điều chúng ta nhận được là một đế chế kỹ thuật số.
Nếu câu trả lời là thiết bị đầu cuối, thì điều chúng ta nhận được là sự rối loạn với chi phí cao.
Nếu câu trả lời là một tập hợp các quy tắc có thể kiểm chứng, kết hợp, mang tính trò chơi và có thể trừng phạt, thì ít nhất chúng ta đang bắt đầu tiến gần đến một khả năng khác: một xã hội thông minh không bị cai trị bởi những người chủ thông minh hơn, mà bị ràng buộc bởi các thể chế tốt hơn.
Vấn đề khó khăn nhất trong kỷ nguyên AI chưa bao giờ là việc xây dựng mô hình.
Đó là trật tự.
Trên thực tế, những gì Phố Wall đã bán vào ngày hôm đó có thể không chỉ là cổ phiếu.
Điều mà nó bán ra là một giả định cũ, hiển nhiên: công nghệ càng thành công thì xã hội càng dễ dàng tiếp nhận nó.




