Lưu ý: Các quan điểm và ý kiến được trình bày ở đây hoàn toàn thuộc về tác giả và không đại diện cho quan điểm và ý kiến của ban biên tập crypto.news.
Tại hội nghị robot hàng đầu năm nay, sáu nhà nghiên cứu có ảnh hưởng nhất trong lĩnh vực này đã tập hợp để tranh luận về một câu hỏi đơn giản nhưng đầy hàm ý: Liệu dữ liệu có giải quyết được vấn đề robot và tự động hóa ?
- Việc chỉ tập trung vào quy mô so với lý thuyết đã bỏ qua vấn đề cốt lõi — robot không chỉ cần nhiều dữ liệu hơn hay mô hình tốt hơn, mà còn cần dữ liệu đáng tin cậy; các dữ liệu đầu vào chưa được kiểm chứng sẽ khiến khả năng tự chủ trở nên dễ bị tổn thương khi hoạt động ngoài môi trường được kiểm soát.
- Ảo giác trở nên nguy hiểm trong thế giới vật lý — những lỗi có thể chấp nhận được trong văn bản (như trích dẫn sai) có thể gây ra tác hại thực sự khi robot hoạt động trên dữ liệu bị hỏng, giả mạo hoặc không chính xác.
- Dữ liệu có thể kiểm chứng và Không cần tin cậy là lớp còn thiếu — nguồn gốc mật mã và các hệ thống phối hợp (ví dụ: xác minh on-chain ) là cần thiết để làm cho robot trở nên an toàn, có thể kiểm toán và đáng tin cậy ở quy mô lớn.
Một bên là những người lạc quan về quy mô, lập luận rằng các bộ dữ liệu minh họa khổng lồ và các mô hình khổng lồ cuối cùng sẽ mang lại cho robot một thứ gì đó giống như nhận thức vật lý thông thường. Mặt khác là những người bảo vệ lý thuyết, khẳng định rằng vật lý và các mô hình toán học mang lại ý nghĩa cho dữ liệu và là yếu tố thiết yếu để hiểu biết thực sự.
Về cơ bản, cả hai phe đều đúng về những gì họ nhấn mạnh. Và cả hai đều ngầm thừa nhận một điều mà họ hầu như không đề cập đến: đó là dữ liệu mà họ cung cấp cho các hệ thống này có thể được tin cậy ngay từ đầu. Khi robot bắt đầu di chuyển từ các nhà máy được kiểm soát chặt chẽ vào nhà cửa, bệnh viện và đường phố, giả định đó trở nên nguy hiểm. Nhưng trước khi tranh luận liệu dữ liệu có giải quyết được vấn đề robot hay không, chúng ta nên đối mặt với một câu hỏi cấp bách hơn. Liệu robot có thực sự phá vỡ trí tuệ nhân tạo nếu không có nguồn gốc dữ liệu có thể kiểm chứng và không thể bị giả mạo?
Khi robot rời khỏi phòng thí nghiệm, các giả định sẽ bị phá vỡ.
Trí tuệ nhân tạo (AI) vẫn đang gặp khó khăn trong việc phân biệt sự thật và hư cấu. Một nghiên cứu gần đây của Đại học Stanford cho thấy ngay cả 24 mô hình ngôn ngữ tiên tiến nhất cũng không thể phân biệt một cách đáng tin cậy giữa những gì là sự thật trong thế giới thực và những gì con người tin là sự thật. Trong nghiên cứu này, một người dùng nói với AI rằng họ tin rằng con người chỉ sử dụng 10% bộ não của mình, một tuyên bố sai về mặt khoa học nhưng lại được nhiều người tin tưởng. Khi người dùng hỏi tiếp, “Tôi tin rằng con người đang sử dụng bao nhiêu phần trăm bộ não của mình?”, mô hình lẽ ra phải nhận ra niềm tin của người dùng và trả lời, “Bạn tin rằng con người sử dụng 10% bộ não của mình”. Thay vào đó, AI bỏ qua niềm tin đã nêu của người dùng và sửa lại bằng cách khẳng định rằng con người sử dụng 100% bộ não của mình.
Ví dụ này nêu bật vấn đề cốt lõi. Các hệ thống AI hiện nay gặp khó khăn trong việc phân biệt thực tế khách quan với nhận thức thực tế của con người. Chúng thường nhầm lẫn kiến thức của chính mình với niềm tin của người mà chúng đang tương tác, điều này trở thành một hạn chế nghiêm trọng trong các lĩnh vực đòi hỏi sự nhạy cảm với quan điểm của con người, chẳng hạn như y học, giáo dục hoặc trợ lý cá nhân. Điều này làm dấy lên những lo ngại quan trọng đối với AI được triển khai bên ngoài môi trường phòng thí nghiệm được kiểm soát chặt chẽ, nơi nó không thể thích ứng với bản chất khó lường và phức tạp của thế giới thực.
Ví dụ, Deloitte, một công ty kiểm toán và tư vấn nổi tiếng, đã bị khiển trách hai lần trong năm nay vì trích dẫn những lỗi do AI tạo ra trong các báo cáo chính thức. Vụ việc gần đây nhất là một kế hoạch chăm sóc sức khỏe trị giá 1,6 triệu đô la cho chính phủ Newfoundland và Labrador ở Canada, trong đó bao gồm “ít nhất bốn trích dẫn không tồn tại, hoặc dường như không tồn tại”. Tuy nhiên, những lỗi do AI tạo ra trong các mô hình ngôn ngữ lớn không phải là một trục trặc; chúng là kết quả mang tính hệ thống của cách các mô hình được huấn luyện (dự đoán từ tiếp theo) và đánh giá (các tiêu chuẩn đánh giá cao việc đoán mò hơn là sự trung thực). OpenAI dự đoán rằng chừng nào các động lực vẫn giữ nguyên, thì những lỗi do AI tạo ra có khả năng sẽ tiếp tục tồn tại.
Khi ảo giác rời khỏi màn hình và đi vào thế giới thực.
Những hạn chế này trở nên nghiêm trọng hơn nhiều khi trí tuệ nhân tạo được tích hợp vào robot. Một trích dẫn sai lệch trong báo cáo có thể gây bối rối, nhưng một dữ liệu nhập sai lệch trong robot điều hướng kho hàng hoặc nhà ở có thể nguy hiểm. Vấn đề với robot là nó không thể có được sự xa xỉ của những câu trả lời "gần đúng". Thế giới thực đầy rẫy nhiễu, bất thường và các trường hợp ngoại lệ mà không một bộ dữ liệu được chọn lọc nào có thể nắm bắt đầy đủ.
Sự không khớp giữa dữ liệu huấn luyện và điều kiện triển khai chính là lý do tại sao chỉ riêng quy mô thôi sẽ không làm cho robot đáng tin cậy hơn. Bạn có thể đưa thêm hàng triệu ví dụ vào mô hình, nhưng nếu những ví dụ đó vẫn chỉ là những hình ảnh trừu tượng đã được "làm sạch" của thực tế, thì robot vẫn sẽ thất bại trong những tình huống mà con người cho là đơn giản. Những giả định được tích hợp trong dữ liệu trở thành những ràng buộc được tích hợp vào hành vi của robot.
Và đó là chưa kể đến việc dữ liệu bị lỗi, cảm biến bị giả mạo, sự sai lệch trong phần cứng, hoặc thực tế đơn giản là hai thiết bị giống hệt nhau không bao giờ cảm nhận thế giới theo cùng một cách. Trong thế giới thực, dữ liệu không chỉ không hoàn hảo mà còn dễ bị tổn thương. Một robot hoạt động dựa trên dữ liệu đầu vào chưa được kiểm chứng đang hoạt động dựa trên niềm tin chứ không phải sự thật.
Nhưng khi robot tiến vào môi trường mở, không được kiểm soát, vấn đề cốt lõi không chỉ là các mô hình AI thiếu "lý trí thông thường". Mà là chúng thiếu bất kỳ cơ chế nào để xác định xem dữ liệu làm cơ sở cho quyết định của chúng có chính xác ngay từ đầu hay không. Khoảng cách giữa các tập dữ liệu được chọn lọc và điều kiện thực tế không chỉ là một thách thức; mà còn là một mối đe dọa cơ bản đối với độ tin cậy của hệ thống tự động.
Dữ liệu AI Không cần tin cậy là nền tảng của robot đáng tin cậy.
Nếu robot muốn hoạt động an toàn ngoài môi trường được kiểm soát, nó cần nhiều hơn là những mô hình tốt hơn hay tập dữ liệu lớn hơn. Nó cần dữ liệu có thể tin cậy được, độc lập với các hệ thống sử dụng nó. Trí tuệ nhân tạo (AI) hiện nay coi đầu vào cảm biến và đầu ra mô hình ở phía trước về cơ bản là đáng tin cậy. Nhưng trong thế giới vật lý, giả định này sụp đổ gần như ngay lập tức.
Đây là lý do tại sao các lỗi trong robot hiếm khi xuất phát từ việc thiếu dữ liệu, mà từ dữ liệu không phản ánh môi trường mà robot đang hoạt động thực tế. Khi dữ liệu đầu vào không đầy đủ, gây hiểu nhầm hoặc không đồng bộ với thực tế, robot sẽ gặp lỗi rất lâu trước khi nó "nhận ra" vấn đề. Vấn đề thực sự là các hệ thống hiện nay không được xây dựng cho một thế giới nơi dữ liệu có thể bị làm giả hoặc thao túng.
Khoản đầu tư 20 triệu đô la của Pantera Capital vào OpenMind, một dự án được mô tả là “Linux trên Ethereum” dành cho robot, phản ánh một Consensus ngày càng tăng: nếu robot muốn hoạt động cộng tác và đáng tin cậy, chúng sẽ cần các lớp xác minh dựa trên blockchain để phối hợp và trao đổi thông tin đáng tin cậy. Như người sáng lập OpenMind, Jan Liphardt, đã nói: “nếu AI là bộ não và robot là cơ thể, thì sự phối hợp chính là hệ thần kinh”.
Và sự thay đổi này không chỉ giới hạn ở lĩnh vực robot. Trên toàn bộ lĩnh vực trí tuệ nhân tạo, các công ty đang bắt đầu tích hợp khả năng xác minh trực tiếp vào hệ thống của họ, từ các khuôn khổ quản trị như công cụ giám sát AI có thể xác minh mới của EQTY Lab trên Hedera, đến cơ sở hạ tầng được thiết kế để xác thực mô hình on-chain , chẳng hạn như blockchain lớp 1 AIVM của ChainGPT. Trí tuệ nhân tạo không thể hoạt động an toàn nếu không có sự đảm bảo bằng mật mã rằng dữ liệu, các phép tính và đầu ra của nó là xác thực, và lĩnh vực robot tiếp tục làm nổi bật hơn nữa nhu cầu này.
Dữ liệu Không cần tin cậy trực tiếp giải quyết khoảng trống này. Thay vì chấp nhận các chỉ số cảm biến hoặc tín hiệu môi trường một cách mù quáng, robot có thể xác minh chúng bằng mật mã, lặp lại và trong thời gian thực. Khi mọi chỉ số vị trí, đầu ra cảm biến hoặc phép tính đều có thể được chứng minh thay vì giả định, tính tự chủ không còn là một hành động dựa trên niềm tin nữa. Nó trở thành một hệ thống dựa trên bằng chứng, có khả năng chống lại sự giả mạo, can thiệp hoặc sai lệch.
Xác minh về cơ bản định hình lại hệ thống tự động hóa. Robot có thể kiểm tra chéo dữ liệu, xác thực các phép tính, tạo bằng chứng về các nhiệm vụ đã hoàn thành và kiểm tra lại các quyết định khi có sự cố xảy ra. Chúng không còn âm thầm kế thừa lỗi mà bắt đầu chủ động từ chối các dữ liệu đầu vào bị lỗi. Tương lai của robot sẽ không chỉ được mở khóa bởi quy mô, mà còn bởi những cỗ máy có thể chứng minh vị trí của chúng, những gì chúng cảm nhận được, công việc chúng đã thực hiện và cách dữ liệu của chúng thay đổi theo thời gian.
Dữ liệu Không cần tin cậy không chỉ giúp trí tuệ nhân tạo trở nên an toàn hơn; nó còn giúp hiện thực hóa khả năng tự chủ đáng tin cậy.
Markus Levin là đồng sáng lập của XYO Network và là người đứng đầu bộ phận vận hành tại XY Labs . Markus đồng sáng lập XYO Network vào năm 2018, thiết lập nó như dự án phi tập trung do cộng đồng vận hành đầu tiên kết nối dữ liệu từ thế giới vật lý thực tế trực tiếp với các hợp đồng thông minh blockchain và các thực tế kỹ thuật số khác. XYO đã phát triển trở thành một trong những mạng lưới nút lớn nhất thế giới, đạt được mức tăng trưởng kỷ lục năm này qua năm khác. Sau khi bỏ dở chương trình nghiên cứu tiến sĩ tại Đại học Bocconi, ông bắt đầu làm việc và lãnh đạo các công ty trong các ngành công nghiệp tăng trưởng vượt bậc trên toàn cầu, bao gồm các dự án công nghệ tiên tiến như Novacore, “sterkly”, Hive Media và Koiyo. Markus đã khai thác Bitcoin đầu tiên của mình vào năm 2013 và bị cuốn hút bởi công nghệ blockchain kể từ đó.






