Người sáng lập Intuition, Billy Luedtke cho biết các mô hình AI đang ngày càng mạnh mẽ hơn, nhưng dữ liệu mà chúng được đào tạo lại ngày càng tệ hơn.
- Billy Luedtke, người sáng lập Intuition, cho biết AI chỉ tốt bằng dữ liệu chúng ta cung cấp cho nó
- Chúng ta đang ở trong thời đại "đổ vào, đổ ra" khi AI trở nên đệ quy
- Các mô hình phi tập trung có lợi thế về công nghệ và trải nghiệm người dùng
Khi các hệ thống AI ngày càng phổ biến, người dùng ngày càng gặp phải những hạn chế khó khắc phục. Mặc dù các mô hình được cải thiện, dữ liệu cơ bản mà các mô hình này được đào tạo vẫn giữ nguyên. Hơn nữa, việc đệ quy, hay mô hình AI được đào tạo dựa trên dữ liệu do các AI khác tạo ra, thực sự có thể khiến vấn đề trở nên tồi tệ hơn.
Để bàn về tương lai của AI, crypto.news đã trò chuyện với Billy Luedtke, nhà sáng lập Intuition, một giao thức phi tập trung tập trung vào việc mang lại sự xác minh nguồn gốc, uy tín và quyền sở hữu dữ liệu cho AI. Luedtke giải thích lý do tại sao các tập dữ liệu AI hiện tại về cơ bản là có nhiều lỗi và có thể làm gì để khắc phục điều đó.
Crypto.news: Hiện tại, mọi người đều tập trung vào cơ sở hạ tầng AI — GPU, năng lượng, trung tâm dữ liệu. Liệu mọi người có đang đánh giá thấp tầm quan trọng của lớp tin cậy trong AI không? Tại sao nó lại quan trọng?
Billy Luedtke: 100%. Mọi người chắc chắn đang đánh giá thấp nó — và điều này quan trọng vì nhiều lý do.
Đầu tiên, chúng ta đang bước vào cái mà tôi gọi là kỷ nguyên "vào rồi ra". AI chỉ tốt bằng lượng dữ liệu nó tiếp nhận. Nhưng dữ liệu đó - đặc biệt là từ web mở - phần lớn đã bị ô nhiễm. Nó không sạch. Nó không phản ánh ý định của con người. Phần lớn đến từ hành vi trò chơi hóa trực tuyến: lượt thích, đánh giá, các mẹo tương tác - tất cả đều được lọc qua các thuật toán tối ưu hóa sự chú ý.
Vậy nên khi AI "quét" internet, những gì nó thấy không phải là bức tranh toàn cảnh về con người chúng ta. Nó chỉ thấy mọi người đang chơi nền tảng này. Tôi không hành xử giống như ngoài đời thực trên Twitter. Không ai trong chúng ta làm vậy cả. Chúng ta đang tối ưu hóa cho thuật toán — chứ không phải thể hiện suy nghĩ chân thành.
Nó cũng mang tính đệ quy. Các nền tảng đào tạo chúng ta, và chúng ta lại đưa vào những hành vi méo mó hơn. Điều đó tạo ra một vòng phản hồi — một vòng xoáy — làm méo mó nhận thức của AI về nhân loại hơn nữa. Chúng ta không dạy nó những gì chúng ta nghĩ; chúng ta dạy nó những gì chúng ta nghĩ sẽ nhận được lượt thích.
Người dùng trung bình không tra Google, so sánh nguồn hay tư duy phản biện. Họ chỉ hỏi ChatGPT hoặc một mô hình khác và chấp nhận câu trả lời theo đúng nghĩa đen.
Điều đó thật nguy hiểm. Nếu mô hình này không rõ ràng — một hộp đen — và công ty kiểm soát nó cũng kiểm soát thông tin bạn được hiển thị hoặc không được hiển thị, thì đó là sự kiểm soát tường thuật hoàn toàn. Nó tập trung, không chịu trách nhiệm và cực kỳ mạnh mẽ.
Hãy tưởng tượng bạn hỏi Grok podcast nào hay nhất, và câu trả lời sẽ là ai trả cho Elon nhiều nhất. Đó không phải là trí tuệ - đó chỉ là chiêu trò quảng cáo trá hình.
CN: Vậy chúng ta phải khắc phục điều đó như thế nào? Làm thế nào để xây dựng những hệ thống ưu tiên sự thật và giá trị thay vì sự gắn kết?
BL: Chúng ta cần đảo ngược các động lực. Những hệ thống này nên phục vụ con người — chứ không phải các tổ chức, cổ đông, hay nhà quảng cáo. Điều đó có nghĩa là xây dựng một lớp mới cho internet: các nguyên mẫu về danh tính và danh tiếng. Đó là những gì chúng tôi đang làm tại Intuition.
Chúng ta cần sự xác minh nguồn gốc: ai nói gì, khi nào và trong bối cảnh nào. Và chúng ta cần một danh tiếng di động, phi tập trung, giúp xác định mức độ tin cậy của chúng ta đối với bất kỳ nguồn dữ liệu nào — không dựa trên cảm xúc, mà dựa trên hồ sơ theo dõi ngữ cảnh thực tế.
Reddit là một ví dụ hoàn hảo. Đây là một trong những nguồn dữ liệu đào tạo mô hình lớn nhất. Nhưng nếu người dùng mỉa mai nói "Cứ tự xử đi", thông tin đó có thể bị thu thập và hiển thị trong đề xuất của mô hình cho người đang xin lời khuyên y tế.
Điều đó thật kinh khủng — và đó là điều xảy ra khi các mô hình không có bối cảnh, sự ghi nhận hoặc trọng số uy tín. Chúng ta cần biết: Người này có uy tín trong ngành y không? Họ có uy tín trong ngành tài chính không? Đây có phải là một nguồn đáng tin cậy, hay chỉ là một bình luận ngẫu nhiên?
CN: Khi nói về việc ghi nhận và uy tín, dữ liệu này cần được lưu trữ ở đâu đó. Ông nghĩ sao về vấn đề này xét về mặt cơ sở hạ tầng — đặc biệt là với các vấn đề như bản quyền và bồi thường?
BL: Đó chính xác là điều chúng tôi đang giải quyết tại Intuition. Một khi bạn có các nguyên mẫu quy kết có thể xác minh được, bạn sẽ biết ai đã tạo ra dữ liệu nào. Điều đó cho phép quyền sở hữu kiến thức được mã hóa — và cùng với đó là sự đền bù.
Vì vậy, thay vì dữ liệu của bạn nằm trên máy chủ của Google hoặc API của OpenAI, nó nằm trên một biểu đồ tri thức phi tập trung. Mọi người đều sở hữu những gì họ đóng góp. Khi dữ liệu của bạn được xử lý hoặc sử dụng trong đầu ra AI, bạn sẽ nhận được một phần giá trị mà nó tạo ra.
Điều đó quan trọng bởi vì hiện tại chúng ta là những nô lệ thời đại số. Chúng ta dành những nguồn lực quý giá nhất của mình — thời gian, sự chú ý và sức sáng tạo — để tạo ra dữ liệu mà người khác kiếm tiền. YouTube không có giá trị vì nó lưu trữ video; nó có giá trị vì mọi người quản lý nó. Không có lượt thích, bình luận hay đăng ký, YouTube sẽ trở nên vô giá trị.
Vì vậy, chúng tôi muốn một thế giới nơi mọi người đều có thể kiếm tiền từ giá trị họ tạo ra — ngay cả khi bạn không phải là người có sức ảnh hưởng hay hướng ngoại. Ví dụ, nếu bạn luôn tìm thấy nghệ sĩ mới sớm, gu thẩm mỹ của bạn sẽ có giá trị. Bạn nên xây dựng danh tiếng dựa trên điều đó và kiếm tiền từ nó.
CN: Nhưng ngay cả khi chúng ta minh bạch, những mô hình này vẫn rất khó diễn giải. Bản thân OpenAI không thể giải thích đầy đủ cách các mô hình của mình đưa ra quyết định. Vậy điều gì sẽ xảy ra?
BL: Ý kiến hay đấy. Chúng ta không thể diễn giải đầy đủ hành vi của mô hình — chúng quá phức tạp. Nhưng điều chúng ta có thể kiểm soát là dữ liệu huấn luyện. Đó là đòn bẩy của chúng ta.
Tôi sẽ cho bạn một ví dụ: Tôi đã nghe về một bài nghiên cứu trong đó một AI bị ám ảnh bởi loài cú và một AI khác rất giỏi toán. Họ chỉ được huấn luyện cùng nhau về các bài toán liên quan. Nhưng cuối cùng, AI toán học cũng bắt đầu yêu thích loài cú — chỉ bằng cách tiếp thu mô hình từ AI kia.
Thật điên rồ khi những mô hình này lại tiềm ẩn và tinh vi đến vậy. Vậy nên, cách phòng thủ thực sự duy nhất chính là ý định. Chúng ta cần cân nhắc kỹ lưỡng về dữ liệu mình cung cấp cho các mô hình này. Chúng ta cần "chữa lành bản thân", theo một cách nào đó, để xuất hiện trực tuyến một cách chân thực và mang tính xây dựng hơn. Bởi vì AI sẽ luôn phản ánh những giá trị và sự bóp méo của những người tạo ra nó.
CN: Hãy nói về kinh doanh. OpenAI đang đốt tiền. Cơ sở hạ tầng của họ cực kỳ tốn kém. Làm thế nào một hệ thống phi tập trung như Intuition có thể cạnh tranh được — cả về mặt tài chính lẫn kỹ thuật?
BL: Chúng tôi có hai lợi thế cốt lõi: khả năng kết hợp và phối hợp.
Các hệ sinh thái phi tập trung — đặc biệt là trong lĩnh vực tiền điện tử — có khả năng phối hợp cực kỳ tốt. Chúng ta có các nhóm toàn cầu, phân tán, cùng làm việc trên các thành phần khác nhau của cùng một vấn đề lớn hơn. Thay vì một công ty đốt hàng tỷ đô la để chống lại thế giới, chúng ta có hàng trăm cộng tác viên cùng chung tay xây dựng các công cụ tương tác.
Giống như một bức tranh ghép vậy. Một nhóm làm việc về danh tiếng của tác nhân, một nhóm khác về lưu trữ phi tập trung, một nhóm khác về các nguyên mẫu danh tính — và chúng tôi có thể ghép chúng lại với nhau.
Đó chính là siêu năng lực.
Ưu điểm thứ hai là trải nghiệm người dùng. OpenAI bị khóa chặt trong hào nước của mình. Họ không thể cho phép bạn chuyển ngữ cảnh từ ChatGPT sang Grok hoặc Anthropic — điều đó sẽ làm xói mòn khả năng phòng thủ của họ. Nhưng chúng tôi không quan tâm đến việc bị khóa chặt bởi nhà cung cấp.
Trong hệ thống của chúng tôi, bạn có thể sở hữu ngữ cảnh của riêng mình, mang nó theo bên mình và kết nối nó với bất kỳ tác nhân nào bạn muốn. Điều đó mang lại trải nghiệm tốt hơn. Mọi người sẽ lựa chọn nó.
CN: Còn chi phí cơ sở hạ tầng thì sao? Việc vận hành các mô hình lớn cực kỳ tốn kém. Anh có thấy một thế giới mà các mô hình nhỏ hơn có thể chạy cục bộ không?
BL: Đúng vậy, 100%. Tôi thực sự nghĩ rằng đó là hướng chúng ta đang hướng tới — hướng tới nhiều mô hình nhỏ chạy cục bộ, được kết nối như các tế bào thần kinh trong một Swarm phân tán.
Thay vì một trung tâm dữ liệu đơn khối khổng lồ, bạn có hàng tỷ thiết bị tiêu dùng đóng góp vào khả năng tính toán. Nếu chúng ta có thể phối hợp chúng — vốn là thế mạnh của tiền điện tử — thì đó sẽ là một kiến trúc vượt trội.
Và đây cũng là lý do tại sao chúng tôi đang xây dựng các lớp danh tiếng cho đại lý. Các yêu cầu có thể được chuyển đến đúng đại lý chuyên biệt cho công việc. Bạn không cần một mô hình khổng lồ để làm mọi thứ. Bạn chỉ cần một hệ thống thông minh để định tuyến tác vụ — giống như một lớp API trên hàng triệu đại lý.
CN: Còn thuyết tất định thì sao? Thạc sĩ Luật (LLM) không phù hợp với các bài toán đòi hỏi câu trả lời chính xác như toán học. Liệu chúng ta có thể kết hợp mã tất định với AI không?
BL: Đó chính là điều tôi muốn. Chúng ta cần đưa thuyết quyết định luận trở lại.
Chúng tôi bắt đầu với lý luận biểu tượng — hoàn toàn mang tính tất định — rồi chuyển mạnh sang học sâu, vốn không mang tính tất định. Điều đó đã mang lại sự bùng nổ mà chúng ta đang thấy hiện nay. Nhưng tương lai sẽ là thần kinh biểu tượng — kết hợp những điểm tốt nhất của cả hai.
Hãy để AI xử lý những suy luận mơ hồ. Nhưng cũng hãy để nó kích hoạt các mô-đun xác định — tập lệnh, hàm, công cụ logic — khi bạn cần độ chính xác. Hãy nghĩ xem: "Ai trong số bạn bè của tôi thích nhà hàng này?" Câu hỏi đó phải được xác định 100%.
CN: Nhìn rộng ra: chúng ta đã thấy các công ty tích hợp AI vào hoạt động của họ. Nhưng kết quả lại không đồng đều. Ông có nghĩ rằng thế hệ LLM hiện tại thực sự thúc đẩy năng suất không?
BL: Đúng vậy. Điểm kỳ dị đã ở đây rồi — chỉ là nó phân bố không đều.
Nếu bạn không sử dụng AI trong quy trình làm việc, đặc biệt là cho mã nguồn hoặc nội dung, bạn đang làm việc với tốc độ chỉ bằng một phần nhỏ so với những người khác. Công nghệ là có thật, và hiệu quả được cải thiện đáng kể. Sự gián đoạn đã xảy ra rồi. Chỉ là mọi người vẫn chưa nhận ra điều đó mà thôi.
CN: Câu hỏi cuối cùng. Nhiều người nói đây là bong bóng. Quỹ đầu tư mạo hiểm đang cạn kiệt. OpenAI đang đốt tiền. Nvidia đang tự tài trợ cho khách hàng của mình. Điều này sẽ kết thúc như thế nào?
BL: Đúng vậy, có bong bóng - nhưng công nghệ là có thật. Bong bóng nào rồi cũng vỡ, nhưng những gì còn lại sau đó là những công nghệ nền tảng. AI sẽ là một trong số đó. Những khoản tiền ngu ngốc - tất cả những ứng dụng đóng gói không có sự đổi mới thực sự - đang bị xóa sổ. Nhưng các đội ngũ cơ sở hạ tầng chuyên sâu thì sao? Họ sẽ tồn tại.
Trên thực tế, điều này có thể diễn ra theo một trong hai hướng: Chúng ta nhận được một sự điều chỉnh nhẹ và trở lại thực tế, nhưng tiến bộ vẫn tiếp tục. Hoặc, năng suất tăng trưởng quá lớn đến mức AI trở thành một lực lượng giảm phát cho nền kinh tế. GDP có thể tăng gấp 10 hoặc 100 lần về năng suất đầu ra. Nếu điều đó xảy ra, chi phí bỏ ra là xứng đáng — chúng ta đang nâng tầm xã hội.
Dù thế nào đi nữa, tôi vẫn lạc quan. Sẽ có hỗn loạn và mất việc làm, đúng vậy — nhưng cũng có tiềm năng cho một thế giới dư dả, hậu khan hiếm nếu chúng ta xây dựng đúng nền tảng.




