Viết bởi: Messari
bản tóm tắt
- Xác minh phi tập trung cho phép Mira cải thiện độ tin cậy của dữ kiện bằng cách lọc đầu ra AI thông qua các mạng mô hình độc lập, giảm ảo giác mà không cần đào tạo lại hoặc giám sát tập trung.
- Cơ chế đồng thuận thay thế sự tin cậy của một mô hình duy nhất bằng cách yêu cầu nhiều mô hình hoạt động độc lập phải đạt được thỏa thuận trước khi bất kỳ khiếu nại nào được chấp thuận.
- Mira xác minh 3 tỷ token mỗi ngày trên các ứng dụng tích hợp , hỗ trợ hơn 4,5 triệu người dùng.
- Khi đầu ra được lọc qua quy trình đồng thuận của Mira trong hoàn cảnh sản xuất, độ chính xác thực tế tăng từ 70% lên 96%.
- Mira hoạt động như một cơ sở hạ tầng hơn là một sản phẩm dành cho người dùng cuối bằng cách nhúng xác minh trực tiếp vào AI của các ứng dụng như chatbot, công cụ công nghệ tài chính và nền tảng giáo dục.
Giới thiệu về Mira
Mira là một giao thức được thiết kế để xác minh đầu ra của hệ thống AI. Chức năng cốt lõi của nó tương tự như lớp kiểm toán /tin cậy phi tập trung . Bất cứ khi nào mô hình AI tạo ra kết quả đầu ra (có thể là câu trả lời hoặc bản tóm tắt), Mira đánh giá xem các tuyên bố "có thật" trong kết quả đầu ra đó có đáng tin cậy hay không trước khi kết quả đầu ra đến tay người dùng cuối.
Hệ thống hoạt động bằng cách chia nhỏ mỗi đầu ra của AI thành các đề xuất nhỏ hơn. Những tuyên bố này được đánh giá độc lập bởi nhiều nút xác thực trong mạng Mira. Mỗi nút chạy mô hình AI riêng, thường sử dụng kiến trúc, dữ liệu hoặc góc nhìn khác nhau. Mô hình sẽ bỏ phiếu cho từng tuyên bố, quyết định xem tuyên bố đó đúng hay sai hoặc có liên quan đến bối cảnh hay không. Kết quả cuối cùng được xác định bởi cơ chế đồng thuận: nếu phần lớn các mô hình đồng ý về tính hợp lệ của tuyên bố, Mira sẽ chấp thuận. Nếu có bất đồng, khiếu nại sẽ bị đánh dấu hoặc từ chối.
Không có cơ quan trung ương hay mô hình ẩn nào đưa ra quyết định cuối cùng. Thay vào đó, sự thật được xác định một cách tập thể, xuất hiện từ một mô hình phân tán và đa dạng. Toàn bộ quá trình đều minh bạch và kiểm toán. Mỗi đầu ra đã xác minh đều đi kèm với một chứng chỉ crypto : một bản ghi có thể theo dõi cho thấy những khiếu nại nào đã được đánh giá, những mô hình nào đã tham gia và cách chúng bỏ phiếu. Các ứng dụng, nền tảng và thậm chí cả cơ quan quản lý có thể sử dụng chứng chỉ này để xác nhận rằng đầu ra đã vượt qua lớp xác thực của Mira.
Mira được lấy cảm hứng từ công nghệ tích hợp tuệ nhân tạo và cơ chế đồng thuận của blockchain. Thay vì tổng hợp các dự đoán để cải thiện độ chính xác, nó tổng hợp đánh giá để xác định độ tin cậy. Nó lọc và từ chối các đầu ra không vượt qua được các bài kiểm tra tính xác thực phân tán.
Tại sao AI lại cần một hệ thống xác minh như Mira?
Các mô hình AI không mang tính xác định , nghĩa là chúng không phải lúc nào cũng trả về cùng một kết quả cho cùng một lời nhắc và không có gì đảm bảo rằng kết quả chúng tạo ra là đúng. Đây không phải là lỗi; Nó bắt nguồn trực tiếp từ cách các mô hình ngôn ngữ lớn được đào tạo: dự đoán đánh dấu tiếp theo theo xác suất thay vì theo xác định.
Bản chất xác suất này mang lại sự linh hoạt cho các hệ thống AI. Nó mang lại cho chúng sự sáng tạo, nhận thức tình huống và khả năng giống con người. Tuy nhiên, điều này cũng có nghĩa là chúng có thể tạo ra mọi thứ một cách tự nhiên.
Chúng ta đã thấy hậu quả rồi. Chatbot của Air Canada đã tạo ra chính sách giá vé tang lễ không tồn tại và chuyển tiếp chính sách này đến người dùng. Người dùng đã tin vào chatbot, đặt chuyến bay dựa trên thông tin sai lệch và bị thiệt hại về tài chính. Tòa án phán quyết rằng hãng hàng không phải chịu trách nhiệm về ảo giác của chatbot. Tóm lại, AI đã khẳng định tuyên bố của mình một cách tự tin và công ty trả giá.
Đây chỉ là một ví dụ. Ảo giác rất phổ biến. Chúng xuất hiện trong các bản tóm tắt nghiên cứu có trích dẫn không chính xác, các ứng dụng giáo dục trình bày sự thật lịch sử sai lệch và các bản tin ngắn do AI viết có chứa các tuyên bố sai lệch hoặc gây hiểu lầm. Điều này là do những kết quả đầu ra này thường trôi chảy và có thẩm quyền, nên người dùng có xu hướng tin tưởng chúng.
Ngoài ảo giác, còn có nhiều vấn đề về hệ thống hơn:
- Độ lệch : Các mô hình AI có thể phản ánh và khuếch đại độ lệch có trong dữ liệu đào tạo của chúng. Sự thiên vị này không phải lúc nào cũng rõ ràng. Có thể rất tinh tế, thông qua cách diễn đạt, giọng điệu hoặc thứ tự ưu tiên. Ví dụ, một trợ lý tuyển dụng có thể có thiên vị một cách có hệ thống đối với một nhóm người cụ thể. Các công cụ tài chính có thể tạo ra đánh giá rủi ro sử dụng ngôn ngữ méo mó hoặc kỳ thị.
- Tính không tất định : Hỏi cùng một câu hỏi cho cùng một mô hình lần có thể đưa ra hai câu trả lời khác nhau. Thay đổi lời nhắc một chút có thể dẫn đến những thay đổi không mong muốn. Sự không nhất quán này khiến đầu ra của AI khó kiểm toán, tái tạo hoặc khó dựa vào trong thời gian dài.
- Bản chất hộp đen : Khi một hệ thống AI đưa ra câu trả lời, nó thường không đưa ra bất kỳ lời giải thích hoặc lý luận có thể theo dõi nào. Nó không có manh mối rõ ràng nào để chỉ ra kết luận của nó. Do đó, khi mô hình mắc lỗi, rất khó để chẩn đoán nguyên nhân hoặc sửa lỗi.
- Kiểm soát tập trung : Hầu hết các hệ thống AI hiện tại đều là mô hình khép kín do một số công ty lớn kiểm soát. Nếu một mô hình bị lỗi, thiên vị hoặc bị kiểm duyệt, người dùng sẽ có ít lựa chọn hơn. Thiếu ý kiến thứ hai, quy trình kháng cáo minh bạch hoặc những giải thích mâu thuẫn. Điều này dẫn đến một cấu trúc kiểm soát tập trung khó có thể thách thức hoặc xác minh.
Phương pháp hiện có để cải thiện độ tin cậy của đầu ra AI và những hạn chế của chúng
Hiện nay có một số phương pháp để cải thiện độ tin cậy của đầu ra AI. Mỗi phương pháp đều mang lại một số giá trị, nhưng tất cả đều có hạn chế và không thể đạt được mức độ tin cậy cần thiết cho các ứng dụng quan trọng.
- Con người trong vòng lặp (HITL) : Phương pháp này bao gồm việc con người xem xét và phê duyệt đầu ra của AI. Nó hoạt động hiệu quả trong những trường hợp sử dụng khối lượng thấp. Tuy nhiên, đối với các hệ thống tạo ra hàng triệu phản hồi mỗi ngày (chẳng hạn như công cụ tìm kiếm, bot hỗ trợ hoặc ứng dụng gia sư), điều này có thể nhanh chóng trở thành điểm nghẽn. Việc đánh giá thủ công thường chậm, tốn kém và dễ dẫn đến thiên vị và không nhất quán. Ví dụ, Grok của xAI sử dụng gia sư AI để đánh giá và tinh chỉnh câu trả lời theo cách thủ công. Đây là giải pháp tạm thời và Mira cho rằng đó là giải pháp có tính đòn bẩy thấp: nó không mở rộng và không giải quyết được các vấn đề cơ bản tồn tại trong logic AI không thể xác minh.
- Bộ lọc quy tắc : Các hệ thống này sử dụng phương pháp cố định, chẳng hạn như đánh dấu các thuật ngữ bị cấm hoặc so sánh đầu ra với biểu đồ kiến thức có cấu trúc. Mặc dù chúng có thể áp dụng trong bối cảnh hẹp hơn, nhưng chúng chỉ áp dụng khi phù hợp với kỳ vọng của nhà phát triển. Họ không thể xử lý các truy vấn mới lạ hoặc mở và gặp khó khăn khi xử lý các lỗi tinh vi hoặc các câu lệnh mơ hồ.
- Tự xác thực : Một số mô hình bao gồm các cơ chế đánh giá mức độ tự tin của họ hoặc sử dụng các mô hình phụ trợ để đánh giá câu trả lời của họ. Tuy nhiên, hệ thống AI lại nổi tiếng là kém trong việc nhận ra lỗi của chính mình. Quá tự tin vào câu trả lời sai là một vấn đề dai dẳng mà phản hồi nội bộ thường không thể sửa chữa được.
- Mô hình tích hợp : Trong một số hệ thống, nhiều mô hình được kiểm tra chéo với nhau. Mặc dù điều này có thể cải thiện tiêu chuẩn chất lượng, nhưng các mô hình tích hợp truyền thống thường tập trung và đồng nhất. Nếu tất cả các mô hình đều có dữ liệu đào tạo tương tự nhau hoặc đến từ cùng một nhà cung cấp, chúng có thể có cùng điểm mù. Sự đa dạng về kiến trúc và góc nhìn sẽ bị hạn chế.
Mira tập trung giải quyết các vấn đề về nhận thức. Mục tiêu của nó là tạo ra một hoàn cảnh có thể nắm bắt và loại bỏ ảo giác, giảm thiểu sự thiên vị thông qua nhiều mô hình khác nhau, làm cho kết quả đầu ra có thể tái tạo và không có một thực thể nào kiểm soát quá trình xác minh tính xác thực. Nghiên cứu cách thức hoạt động của hệ thống Mira có thể giải quyết từng vấn đề này theo những cách mới lạ.
Mira cải thiện độ tin cậy của AI như thế nào
Phương pháp hiện tại để cải thiện độ tin cậy của AI (tập trung và dựa vào một nguồn thông tin duy nhất) lại khác. Mira giới thiệu một mô hình khác. Nó cho phép xác minh phi tập trung, xây dựng sự đồng thuận ở cấp độ giao thức và sử dụng khích lệ kinh tế để thực thi hành vi đáng tin cậy. Mira không phải là một sản phẩm độc lập hay một công cụ giám sát từ trên xuống mà là một lớp cơ sở hạ tầng mô-đun có thể tích hợp vào bất kỳ hệ thống AI nào.
Thiết kế của giao thức dựa trên một số nguyên tắc cốt lõi:
- Độ chính xác của sự việc không nên phụ thuộc vào kết quả của mô hình.
- Việc xác minh phải mang tính tự chủ và không thể dựa vào sự giám sát liên tục của con người.
- Niềm tin phải được xây dựng trên các giao thức độc lập chứ không phải sự kiểm soát tập trung.
Mira áp dụng các nguyên tắc điện toán phân tán vào việc xác minh AI. Khi một đầu ra được gửi đi (ví dụ: đề xuất chính sách, tóm tắt tài chính hoặc phản hồi của chatbot), trước tiên nó sẽ được chia thành các tuyên bố thực tế nhỏ hơn. Những khiếu nại này được cấu trúc dưới dạng các câu hỏi hoặc câu lệnh riêng biệt và được chuyển đến một mạng lưới nút xác thực.
Mỗi nút chạy một mô hình AI hoặc cấu hình khác nhau và đánh giá độc lập các yêu cầu được chỉ định của nó. Nó trả về một trong ba kết quả: đúng, sai hoặc không xác định. Sau đó Mira báo cáo lại kết quả. Nếu đạt được ngưỡng đa số có thể cấu hình được thì khiếu nại sẽ được xác thực. Nếu không hài lòng, nó sẽ được đánh dấu, loại bỏ hoặc trả về cảnh báo.
Thiết kế phân tán của Mira có nhiều ưu điểm về mặt kiến trúc:
- Sự dự phòng và tính đa dạng: Kiểm tra chéo các yêu cầu bồi thường với các mô hình có kiến trúc, dữ liệu và quan điểm khác nhau.
- Khả năng chịu lỗi: Một lỗi hoặc sai sót trong một mô hình khó có thể xảy ra ở nhiều mô hình khác.
- Tính minh bạch: Mọi kết quả xác thực đều được ghi lại trên Chuỗi, cung cấp dữ liệu kiểm toán về các mô hình đã tham gia và cách chúng bỏ phiếu.
- Tự động hóa: Mira chạy liên tục song song mà không cần sự can thiệp của con người.
- Khả năng mở rộng: Hệ thống có thể xử lý khối lượng công việc lượng lớn lên tới hàng tỷ token mỗi ngày.
Nhận định cốt lõi của Mira dựa trên số liệu thống kê: trong khi một mô hình duy nhất có thể tạo ra ảo giác hoặc phản ánh sự thiên vị, thì khả năng nhiều hệ thống độc lập mắc cùng một lỗi theo cùng một cách lại thấp hơn nhiều. Giao thức sử dụng tính đa dạng này để lọc ra nội dung không đáng tin cậy. Mira hoạt động theo nguyên tắc tương tự như học tập tích hợp, nhưng nó mở rộng ý tưởng thành một hệ thống phân tán, có thể xác minh và an toàn crypto, có thể nhúng vào các quy trình AI trong thế giới thực.
Nút Delegators và Tài nguyên tính toán
Cơ sở hạ tầng xác thực phi tập trung của Mira Network được hỗ trợ bởi cộng đồng những người đóng góp toàn cầu, những người cung cấp tài nguyên điện toán cần thiết để chạy nút xác thực. Những người đóng góp này, được gọi là đại biểu nút, đóng vai trò quan trọng trong việc mở rộng quy mô sản xuất xử lý giao thức và xác thực đầu ra AI.
Đại biểu nút là gì?
Người ủy quyền nút là cá nhân hoặc tổ chức thuê hoặc cung cấp tài nguyên điện toán GPU cho người vận hành nút đã được xác minh, thay vì tự mình vận hành nút xác thực. Mô hình ủy quyền này cho phép người tham gia đóng góp vào cơ sở hạ tầng của Mira mà không cần phải quản lý các mô hình AI phức tạp hoặc phần mềm nút. Bằng cách cung cấp quyền truy cập vào tài nguyên GPU, người ủy quyền cho phép người vận hành nút thực hiện nhiều xác thực song song hơn, do đó tăng cường năng lực và tính mạnh mẽ của hệ thống.
Người ủy quyền nút sẽ nhận được khích lệ tài chính khi tham gia. Đổi lại việc đóng góp sức mạnh tính toán, họ sẽ nhận được phần thưởng gắn liền với khối lượng công việc xác minh được thực hiện bởi nút hỗ trợ và chất lượng công việc. Điều này tạo ra một cấu trúc khích lệ phi tập trung , trong đó mở rộng mạng lưới được gắn trực tiếp với sự tham gia của cộng đồng thay vì đầu tư vào cơ sở hạ tầng tập trung.
Ai cung cấp các nhà điều hành nút?
Tài nguyên điện toán đến từ các đối tác vận hành nút sáng lập của Mira, những người đóng vai trò chủ chốt trong hệ sinh thái cơ sở hạ tầng phi tập trung:
- Io.Net : Mạng cơ sở hạ tầng vật lý phi tập trung(DePIN) dành cho điện toán GPU, cung cấp tài nguyên GPU mở rộng và tiết kiệm chi phí.
- Aethir : Nhà cung cấp dịch vụ GPU dưới dạng dịch vụ tập trung vào AI và trò chơi cấp doanh nghiệp, cung cấp cơ sở hạ tầng điện toán đám mây phi tập trung.
- Hyperbolic : Nền tảng đám mây AI mở cung cấp tài nguyên GPU giá cả phải chăng và được phối hợp để phát triển AI.
- Exabits : Công ty tiên phong trong điện toán đám mây phi tập trung AI, giải quyết vấn đề thiếu hụt GPU và tối ưu hóa việc phân bổ tài nguyên.
- Spheron : Một nền tảng phi tập trung giúp đơn giản hóa việc triển khai ứng dụng web, cung cấp các giải pháp minh bạch và có thể xác minh.
Mỗi đối tác chạy một nút xác thực trên Mạng Mira, tận dụng sức mạnh tính toán được ủy quyền để xác thực đầu ra AI ở quy mô lớn. Những đóng góp của họ cho phép Mira duy trì thông lượng xác thực cao, xử lý hàng tỷ token mỗi ngày trong khi vẫn duy trì tốc độ, khả năng chịu lỗi và phi tập trung.
Lưu ý : Mỗi người tham gia chỉ được mua một giấy phép Nút Delegator. Người dùng phải trải qua quy trình KYC "Xác minh video được hỗ trợ" để chứng minh sự tham gia thực sự của họ.
Sử dụng quy mô lớn và hỗ trợ dữ liệu của Mira trong lĩnh vực AI
Theo dữ liệu do đội ngũ cung cấp, mạng lưới Mira xác minh hơn 3 tỷ mã thông báo mỗi ngày . Trong mô hình ngôn ngữ, một mã thông báo đề cập đến một đơn vị văn bản nhỏ, thường là một đoạn từ, một từ ngắn hoặc một dấu chấm câu. Ví dụ, câu "Mira xác minh đầu ra" sẽ được chia thành nhiều mã thông báo. Khối lượng báo cáo này cho thấy Mira đang xử lý lượng lớn trên nhiều tích hợp khác nhau, bao gồm trợ lý trò chuyện, nền tảng giáo dục, sản phẩm công nghệ tài chính và các công cụ nội bộ sử dụng API. Ở cấp độ nội dung, năng suất này tương đương với đánh giá hàng triệu đoạn văn mỗi ngày.
Hệ sinh thái của Mira (bao gồm các chương trình đối tác) được cho là hỗ trợ hơn 4,5 triệu người dùng duy nhất, với khoảng 500.000 người dùng hoạt động hàng ngày. Những người dùng này bao gồm người dùng trực tiếp của Klok, cũng như người dùng cuối của các ứng dụng của bên thứ ba tích hợp lớp xác thực của Mira ở chế độ nền. Mặc dù hầu hết người dùng có thể sẽ không tương tác trực tiếp với Mira, nhưng hệ thống này hoạt động như một lớp xác thực thầm lặng, giúp đảm bảo nội dung do AI tạo ra đáp ứng ngưỡng chính xác nhất định trước khi đến tay người dùng cuối.
Theo một bài nghiên cứu của đội ngũ Mira, các mô hình ngôn ngữ lớn trước đây có độ chính xác thực tế khoảng 70% trong các lĩnh vực như giáo dục và tài chính, nhưng hiện nay, sau khi được sàng lọc thông qua quy trình đồng thuận của Mira, độ chính xác xác minh đã đạt tới 96%. Đáng chú ý là những cải tiến này đạt được mà không cần đào tạo lại chính mô hình. Thay vào đó, những cải tiến bắt nguồn từ logic lọc của Mira. Hệ thống sàng lọc nội dung không đáng tin cậy bằng cách yêu cầu nhiều mô hình chạy độc lập để đạt được sự đồng thuận. Hiệu ứng này đặc biệt quan trọng đối với ảo giác hoặc thông tin sai lệch chưa được xác minh do AI tạo ra, được báo cáo là đã giảm tới 90% trong ứng dụng tích hợp. Vì ảo giác thường mang tính cá biệt và không nhất quán nên chúng khó có thể vượt qua được cơ chế đồng thuận của Mira.
Ngoài việc cải thiện độ tin cậy thực tế, Giao thức Mira được thiết kế để hỗ trợ sự tham gia cởi mở. Việc xác minh không chỉ giới hạn ở một đội ngũ kiểm toán tập trung. Để phối hợp khích lệ, Mira áp dụng hệ thống phần thưởng và hình phạt kinh tế. Những người xác thực luôn tuân thủ sự đồng thuận sẽ nhận được phần thưởng dựa trên hiệu suất, trong khi những người xác thực đưa ra phán đoán bị thao túng hoặc không chính xác sẽ phải đối mặt với hình phạt. Cấu trúc này khuyến khích hành vi trung thực và thúc đẩy sự cạnh tranh giữa các cấu hình mô hình khác nhau. Bằng cách loại bỏ sự phụ thuộc vào quy định tập trung và nhúng các cơ chế phối hợp khích lệ vào lớp giao thức, Mira cho phép xác minh phi tập trung mở rộng trong hoàn cảnh có lưu lượng truy cập cao đồng thời đảm bảo các tiêu chuẩn đầu ra không bị ảnh hưởng.
kết luận
Mira cung cấp giải pháp mang tính cấu trúc cho một trong những thách thức cấp bách nhất của AI: không có khả năng xác minh đầu ra một cách đáng tin cậy và ở quy mô lớn. Thay vì dựa vào sự tin cậy của một mô hình duy nhất hoặc sự giám sát của con người sau đó, Mira giới thiệu một lớp xác minh phi tập trung chạy song song với quá trình tạo AI. Hệ thống hoạt động bằng cách chia nhỏ đầu ra thành các tuyên bố thực tế, phân phối chúng tới nút xác thực độc lập và áp dụng cơ chế đồng thuận để lọc ra nội dung không được hỗ trợ. Nó cải thiện độ tin cậy mà không cần phải đào tạo lại mô hình hoặc tập trung kiểm soát.
Dữ liệu cho thấy tỷ lệ áp dụng và độ chính xác thực tế đã tăng đáng kể và ảo giác AI đã giảm đáng kể. Mira đã được tích hợp vào nhiều lĩnh vực như giao diện trò chuyện, công cụ giáo dục và nền tảng tài chính và dần trở thành lớp cơ sở hạ tầng cho các ứng dụng quan trọng về độ chính xác. Khi giao thức ngày càng hoàn thiện và kiểm toán của bên thứ ba trở nên phổ biến hơn, tính minh bạch, khả năng tái tạo và sự tham gia cởi mở của Mira sẽ cung cấp một khuôn khổ tin cậy mở rộng cho các hệ thống AI hoạt động trong hoàn cảnh có khối lượng lớn hoặc được quản lý.





