Vitalik: Liệu bất kỳ AI nào cũng có thể tự do tham gia vào một thị trường mở cạnh tranh không?

Bài viết này được dịch máy
Xem bản gốc

Tên gốc: AI là động cơ, con người là tay lái

Tác giả: Vitalik, người sáng lập Ethereum; Dịch bởi Baishui, Jinse Finance

Xin gửi lời cảm ơn đặc biệt đến Devansh Mehta, Davide Crapis và Julian Zawistowski vì đã phản hồi và đánh giá, và đến Tina Zhen, Shaw Walters và những người khác vì đã thảo luận.

Nếu bạn hỏi mọi người rằng họ thích gì ở các cấu trúc dân chủ, dù là chính phủ, nơi làm việc hay DAO dựa trên blockchain, bạn sẽ thường nghe thấy những lập luận giống nhau: chúng tránh sự tập trung quyền lực, chúng cung cấp sự đảm bảo chắc chắn cho người dùng vì không một cá nhân nào có thể thay đổi hoàn toàn hướng đi của hệ thống theo ý thích và chúng có thể đưa ra các quyết định chất lượng cao hơn bằng cách thu thập quan điểm và trí tuệ của nhiều người.

Nếu bạn hỏi mọi người điều gì họ không thích ở các cấu trúc dân chủ, họ thường đưa ra những lời phàn nàn giống nhau: cử tri trung bình không tinh tế vì mỗi cử tri chỉ có một cơ hội nhỏ để tác động đến kết quả, ít cử tri đưa ra những suy nghĩ chất lượng khi đưa ra quyết định và thường có sự tham gia thấp (khiến hệ thống dễ bị tấn công) hoặc sự tập trung hóa trên thực tế vì mọi người đều mặc định tin tưởng và sao chép quan điểm của một số ít người có ảnh hưởng.

Mục tiêu của bài viết này là khám phá một mô hình có thể cho phép chúng ta sử dụng AI theo cách giúp chúng ta đạt được lợi ích của các cấu trúc dân chủ mà không có những tác động phụ tiêu cực. "Trí tuệ nhân tạo là động cơ và con người là tay lái." Con người chỉ cung cấp một lượng thông tin nhỏ cho hệ thống, có thể chỉ vài trăm bit, nhưng tất cả đều được cân nhắc kỹ lưỡng và có chất lượng cực kỳ cao. AI xử lý dữ liệu này như một “hàm mục tiêu” và không ngừng đưa ra lượng lớn quyết định để cố gắng hết sức đạt được các mục tiêu này. Đặc biệt, bài đăng này sẽ khám phá một câu hỏi thú vị: Liệu chúng ta có thể thực hiện điều này mà không cần đặt một AI duy nhất vào trung tâm, mà thay vào đó là dựa vào một thị trường mở cạnh tranh mà bất kỳ AI nào (hoặc con người-máy lai) đều có thể tự do tham gia hay không?

BcG3hVn6CGdh67liZCPlrVnXHAIVmrdpGm9P3uzD.jpeg

Mục lục

  • Tại sao không để AI đảm nhiệm?

  • Tương lai

  • Tinh chỉnh phán đoán của con người

  • Tài chính độ sâu

  • Tăng cường sự riêng tư

  • Lợi ích của thiết kế động cơ + vô lăng

Tại sao không giao cho AI phụ trách?

Phương pháp dễ nhất để đưa sở thích của con người vào cơ chế dựa trên AI là tạo ra một mô hình AI và để con người nhập sở thích của họ trong đó theo một cách nào đó. Có một phương pháp dễ dàng để thực hiện việc này: bạn chỉ cần đặt một tệp văn bản chứa danh sách hướng dẫn dành cho người đó vào dấu nhắc hệ thống. Sau đó, bạn có thể sử dụng một trong nhiều "khung AI tác nhân" để cấp cho AI quyền truy cập internet, trao cho nó chìa khóa để truy cập vào tài sản của tổ chức và hồ sơ mạng xã hội của bạn, thế là xong.

Sau lần lần lặp lại, điều này có thể đủ cho nhiều trường hợp sử dụng và tôi hoàn toàn tin tưởng rằng trong tương lai gần, chúng ta sẽ thấy nhiều cấu trúc liên quan đến AI đọc hướng dẫn do nhóm đưa ra (hoặc thậm chí đọc cuộc trò chuyện nhóm theo thời gian thực) và thực hiện hành động.

Điều không lý tưởng về cấu trúc này là nó đóng vai trò là cơ chế quản lý cho các tổ chức dài hạn. Một phẩm chất có giá trị mà một tổ chức lâu dài cần có là tính trung lập đáng tin cậy. Trong bài viết giới thiệu khái niệm này, tôi đã liệt kê bốn đặc tính có giá trị của tính trung lập đáng tin cậy:

  • Đừng viết những người cụ thể hoặc kết quả cụ thể vào cơ chế

  • Mã nguồn mở và triển khai có thể xác minh công khai

  • Giữ cho nó đơn giản

  • Đừng thay đổi thường xuyên

LLM (hoặc AI Agent) đáp ứng 0/4. Mô hình này chắc chắn sẽ mã hóa lượng lớn các sở thích cụ thể của cá nhân và kết quả trong quá trình đào tạo. Đôi khi điều này dẫn đến những hướng ưu tiên đáng ngạc nhiên cho AI, ví dụ, hãy xem một nghiên cứu gần đây cho thấy các LLM hàng đầu coi trọng mạng sống ở Pakistan hơn mạng sống ở Hoa Kỳ (!!). Có thể là tỷ trọng mở, nhưng điều đó không phải là mã nguồn mở; chúng ta không thực sự biết những con quỷ nào ẩn núp sâu bên trong mô hình. Điều này trái ngược với sự đơn giản: Độ phức tạp Kolmogorov của LLM lên tới hàng chục tỷ chữ số, dài bằng tất cả luật của Hoa Kỳ (liên bang + tiểu bang + địa phương) cộng lại. Và vì AI đang phát triển rất nhanh nên bạn phải thay đổi nó ba tháng một lần.

Vì lý do này, phương pháp khác mà tôi muốn khám phá trong nhiều trường hợp sử dụng là để một cơ chế đơn giản trở thành luật chơi và để AI đóng vai trò là người chơi. Chính nhận thức này khiến thị trường trở nên hiệu quả: các quy tắc là một hệ thống quyền sở hữu tương đối ngu ngốc, các vụ án nhỏ được quyết định bởi một hệ thống tòa án tích lũy và điều chỉnh tiền lệ một cách chậm rãi, và mọi thông tin tình báo đều đến từ các doanh nhân hoạt động "bên lề".

eX5akh6Nb0PMI4ABlb8cQ6j0g3hn4OcvTEyDbuKy.jpeg

Một "người chơi trò chơi" duy nhất có thể là một LLM, một nhóm LLM tương tác với nhau và gọi nhiều dịch vụ internet khác nhau, nhiều tổ hợp AI + con người và nhiều cấu trúc khác; bạn, với tư cách là nhà thiết kế cơ chế, không cần biết. Mục tiêu lý tưởng là có một cơ chế hoạt động tự động - nếu mục tiêu của cơ chế là lựa chọn tài trợ cho cái gì, thì nó phải hoạt động giống phần thưởng khối của Bitcoin hoặc Ethereum nhất có thể.

Lợi ích của phương pháp này là:

  • Nó tránh việc ép buộc bất kỳ mô hình đơn lẻ nào vào cơ chế; thay vào đó, bạn có được một thị trường mở với nhiều đối tượng và kiến ​​trúc khác nhau, tất cả đều có những thành kiến ​​riêng. Các mô hình mở, mô hình đóng, nhóm tác nhân, con người lai AI, robot, khỉ vô hạn, v.v. đều là mục tiêu hợp lệ; cơ chế này không phân biệt đối xử với bất kỳ ai.

  • Cơ chế này là mã nguồn mở. Trò chơi là mã nguồn mở, mặc dù người chơi thì không — và đây là một mô hình được hiểu khá rõ (các đảng phái chính trị và thị trường hoạt động theo cách này, ví dụ)

  • Cơ chế này đơn giản, do đó có tương đối ít cách để các nhà thiết kế cơ chế mã hóa các thành kiến ​​của riêng họ vào thiết kế.

  • Cơ chế này sẽ không thay đổi, ngay cả khi kiến ​​trúc của các trình điều khiển cơ bản cần được thiết kế lại ba tháng một lần kể từ bây giờ cho đến khi xảy ra Điểm kỳ dị.

Mục tiêu của cơ chế hướng dẫn là phản ánh trung thực các mục tiêu cơ bản của người tham gia. Nó chỉ cần cung cấp một lượng thông tin nhỏ, nhưng phải là thông tin chất lượng cao.

Bạn có thể cho rằng cơ chế này như một cách khai thác sự bất đối xứng giữa việc đưa ra câu trả lời và việc xác minh câu trả lời đó. Điều này tương tự như việc Sudoku rất khó giải nhưng lại dễ xác minh rằng giải pháp là đúng. Bạn (i) tạo ra một thị trường mở nơi người chơi đóng vai trò là “người giải quyết” và sau đó (ii) duy trì một cơ chế do con người điều hành thực hiện nhiệm vụ đơn giản hơn nhiều là xác thực các giải pháp được đề xuất.

Tương lai

Chủ nghĩa tương lai được Robin Hanson đề xuất lần đầu tiên, có nghĩa là "bỏ phiếu cho các giá trị, nhưng đặt cược vào niềm tin". Cơ chế bỏ phiếu sẽ lựa chọn một tập hợp các mục tiêu (có thể là bất kỳ mục tiêu nào, miễn là có thể đo lường được) sau đó được kết hợp thành một số liệu M. Khi bạn cần đưa ra quyết định (giả sử là CÓ/KHÔNG để đơn giản), bạn thiết lập một thị trường có điều kiện: bạn yêu cầu mọi người đặt cược vào (i) liệu họ sẽ chọn CÓ hay KHÔNG, (ii) giá trị của M nếu họ chọn CÓ, nếu không thì bằng 0, và (iii) giá trị của M nếu họ chọn KHÔNG, nếu không thì bằng 0. Với ba biến này, bạn có thể xác định xem thị trường cho rằng CÓ hay KHÔNG có lợi hơn cho giá trị của M.

OgWVXEuIRfs6sJjanF5tcOruiaB32UpbZLsg6Hw8.jpeg

“Giá cổ phiếu công ty” (hoặc trong trường hợp crypto, giá token thông báo) là chỉ báo được trích dẫn phổ biến nhất vì dễ hiểu và đo lường, nhưng cơ chế này có thể hỗ trợ nhiều loại chỉ báo khác nhau: số người dùng hoạt động hàng tháng, mức độ hạnh phúc số trung vị do một số nhóm tự báo cáo , một số chỉ báo phi tập trung có thể định lượng, v.v.

Chủ nghĩa tương lai ban đầu được phát minh trước thời đại trí tuệ nhân tạo. Tuy nhiên, Futarchy phù hợp một cách tự nhiên với mô hình “trình giải phức tạp, trình xác minh đơn giản” được mô tả ở phần trước và các nhà giao dịch trong Futarchy cũng có thể là AI (hoặc sự kết hợp giữa con người + AI). Vai trò của “người giải quyết” (nhà giao dịch thị trường dự đoán) là xác định cách thức mỗi kế hoạch được đề xuất sẽ ảnh hưởng đến giá trị của chỉ báo tương lai. Việc này thật khó. Nếu người giải đúng, họ sẽ kiếm được tiền, nếu người giải sai, họ sẽ mất tiền. Người xác thực (những người bỏ phiếu cho chỉ báo , điều chỉnh chỉ báo nếu họ nhận thấy chỉ báo đang bị "điều chỉnh" hoặc trở nên lỗi thời và xác định chỉ báo tại một thời điểm nào đó trong tương lai) chỉ cần trả lời một câu hỏi đơn giản hơn: "Giá trị của chỉ báo này hiện tại là bao nhiêu?"

Tinh chỉnh phán đoán của con người

Cải thiện khả năng phán đoán của con người là một loại cơ chế hoạt động như sau. Có lượng lớn(khoảng 1 triệu) câu hỏi cần được trả lời. Các ví dụ tự nhiên bao gồm:

  • Mỗi người trong danh sách này nên được ghi nhận bao nhiêu công lao cho sự đóng góp của họ vào một dự án hoặc nhiệm vụ?

  • Bình luận nào sau đây vi phạm quy định của nền tảng mạng xã hội (hoặc cộng đồng phụ)?

  • Trong số những địa chỉ Ethereum này, địa chỉ nào đại diện cho những người thực sự và duy nhất?

  • Trong số những vật thể vật lý này, vật thể nào đóng góp tích cực hay tiêu cực vào tính thẩm mỹ của hoàn cảnh?

Bạn có một đội ngũ có thể trả lời những câu hỏi này, nhưng phải tốn lượng lớn công sức cho mỗi câu trả lời. Bạn chỉ yêu cầu đội ngũ trả lời một vài câu hỏi (ví dụ, nếu danh sách có tổng cộng 1 triệu mục, đội ngũ có thể chỉ trả lời 100 trong đó). Bạn thậm chí có thể hỏi đội ngũ những câu hỏi gián tiếp: thay vì hỏi "Alice nên được hưởng bao nhiêu phần trăm tổng số điểm?", hãy hỏi "Alice hay Bob nên được hưởng nhiều điểm hơn và nhiều hơn bao nhiêu?". Khi thiết kế cơ chế bồi thẩm đoàn, bạn có thể tái sử dụng các cơ chế thực tế đã được thử nghiệm và chứng minh hiệu quả như ủy ban tài trợ, tòa án (để xác định giá trị phán quyết), đánh giá và tất nhiên, bản thân những người tham gia bồi thẩm đoàn có thể sử dụng các công cụ nghiên cứu AI mới để giúp họ tìm ra câu trả lời.

Sau đó, bạn cho phép bất kỳ ai gửi danh sách các câu trả lời bằng số cho toàn bộ các câu hỏi (ví dụ: cung cấp ước tính về số tín chỉ mà mỗi người tham gia sẽ nhận được trong toàn bộ danh sách). Những người tham gia được khuyến khích sử dụng trí tuệ nhân tạo để hoàn thành nhiệm vụ này, nhưng họ có thể sử dụng bất kỳ công nghệ nào: trí tuệ nhân tạo, công nghệ lai giữa người và máy, AI có khả năng truy cập vào tìm kiếm trên internet và khả năng tự động thuê những người lao động khác hoặc AI, khỉ được tăng cường điều khiển học, v.v.

Sau khi cả người cung cấp danh sách đầy đủ và bồi thẩm đoàn đều nộp câu trả lời, danh sách đầy đủ sẽ được đối chiếu với câu trả lời của bồi thẩm đoàn và một số kết hợp trong danh sách đầy đủ tương thích nhất với câu trả lời của bồi thẩm đoàn sẽ được chọn làm câu trả lời cuối cùng.

Cơ chế phán đoán tinh vi của con người khác với tương lai học, nhưng có một số điểm tương đồng quan trọng:

  • Trong tương lai học, “người giải” đưa ra dự đoán và “dữ liệu thực” mà dự đoán của họ dựa trên (được sử dụng để thưởng hoặc phạt người giải) là oracle đưa ra các giá trị chỉ báo , được điều hành bởi một ban giám khảo.

  • Trong một bài tập tinh chỉnh về khả năng phán đoán của con người, những "người giải quyết" đưa ra câu trả lời cho lượng lớn các câu hỏi, trong khi "dữ liệu thực" mà dự đoán của họ dựa trên là các câu trả lời chất lượng cao cho một tập hợp con nhỏ các câu hỏi này do ban giám khảo cung cấp.

exm0UEqPUEU7B2KRJfw4bHv5nv8GEhyRLMUSpQ04.jpeg

Để biết ví dụ cụ thể về cách tinh chỉnh khả năng phán đoán của con người để phân bổ tín chỉ, hãy xem mã Python tại đây. Kịch bản yêu cầu bạn đóng vai trò là bồi thẩm đoàn và bao gồm một số danh sách đầy đủ các mục do AI (và con người tạo ra) tạo ra được đưa sẵn vào mã. Cơ chế này xác định sự kết hợp tuyến tính phù hợp nhất với danh sách đầy đủ các câu trả lời của ban giám khảo. Trong trường hợp này, tổ hợp chiến thắng là 0,199 * câu trả lời của Claude + 0,801 * câu trả lời của Deepseek; tổ hợp này phù hợp hơn với câu trả lời của ban giám khảo so với bất kỳ mô hình đơn lẻ nào. Hệ số này cũng sẽ là phần thưởng dành cho người nộp bài.

Trong ví dụ “đánh bại Sauron” này, khía cạnh “con người là tay lái” thể hiện ở hai nơi. Đầu tiên, phán đoán chất lượng cao của con người được áp dụng cho từng vấn đề, mặc dù điều này vẫn sử dụng bồi thẩm đoàn như đánh giá hiệu suất “theo chủ nghĩa kỹ trị”. Thứ hai, có một cơ chế bỏ phiếu ngầm cho việc liệu "đánh bại Sauron" có phải là mục tiêu đúng đắn hay không (trái ngược với việc cố gắng thành lập liên minh với Sauron, hoặc trao cho hắn toàn bộ lãnh thổ phía đông một con sông quan trọng như một sự nhượng bộ hòa bình). Có những trường hợp sử dụng tinh tế khác cho phán đoán của con người , trong đó nhiệm vụ của bồi thẩm đoàn có giá trị trực tiếp hơn: ví dụ, hãy tưởng tượng một nền tảng truyền thông xã hội phi tập trung (hoặc cộng đồng phụ) trong đó nhiệm vụ của bồi thẩm đoàn là đánh dấu các bài đăng trên diễn đàn được chọn ngẫu nhiên là tuân thủ hay không tuân thủ các quy tắc của cộng đồng.

Trong quá trình tinh chỉnh mô hình phán đoán của con người, có một số biến số mở:

  • Lấy mẫu được thực hiện như thế nào? Vai trò của người nộp danh sách đầy đủ là cung cấp lượng lớn câu trả lời; vai trò của giám khảo là cung cấp câu trả lời chất lượng cao. Chúng ta cần chọn bồi thẩm đoàn và chọn câu hỏi cho bồi thẩm đoàn theo cách mà khả năng khớp câu trả lời của bồi thẩm đoàn của mô hình là dấu hiệu tốt nhất về hiệu suất tổng thể của mô hình. Một số cân nhắc bao gồm:

  • Đánh đổi giữa chuyên môn và thiên vị: Các bồi thẩm viên có chuyên môn thường chuyên sâu trong lĩnh vực chuyên môn của họ, vì vậy, bằng cách để họ tự chọn đánh giá, bạn sẽ có được thông tin đầu vào chất lượng cao hơn. Mặt khác, quá nhiều lựa chọn có thể dẫn đến thiên vị (bồi thẩm đoàn thiên vị nội dung từ những người mà họ kết nối) hoặc lấy mẫu điểm yếu (một số nội dung không được đánh giá một cách có hệ thống)

  • Counter-Goodhart: Sẽ có nội dung cố gắng “chơi khăm” các cơ chế AI, ví dụ, nơi những người đóng góp tạo ra lượng lớn mã trông ấn tượng nhưng vô dụng. Điều này có nghĩa là bồi thẩm đoàn có thể phát hiện ra điều này, nhưng mô hình AI tĩnh sẽ không thể phát hiện ra trừ khi họ cố gắng hết sức. Một phương pháp khả thi để phát hiện hành vi này là thêm một cơ chế thử thách mà qua đó cá nhân có thể đánh dấu những nỗ lực như vậy, đảm bảo rằng bồi thẩm đoàn sẽ đánh giá họ (do đó khích lệ các nhà phát triển AI đảm bảo họ bị phát hiện đúng). Nếu bồi thẩm đoàn đồng ý, người tố giác sẽ nhận được phần thưởng, còn nếu bồi thẩm đoàn không đồng ý, họ sẽ phải nộp phạt.

  • Bạn sử dụng chức năng chấm điểm nào? Một ý tưởng được sử dụng trong chương trình thí điểm Độ sâu Grant hiện tại là hỏi bồi thẩm đoàn "A hay B nên được nhiều điểm hơn và nhiều hơn bao nhiêu?". Hàm tính điểm là score(x) = sum((log(x[B]) - log(x[A]) - log(juror_ratio)) ** 2 for (A, B, juror_ratio) in jury_answers): nghĩa là, đối với mỗi câu trả lời của bồi thẩm đoàn, hàm sẽ hỏi tỷ lệ trong danh sách đầy đủ cách xa tỷ lệ do bồi thẩm đoàn cung cấp bao nhiêu và thêm một hình phạt tỷ lệ với bình phương khoảng cách (trong không gian logarit). Điều này cho thấy không gian thiết kế của các hàm chấm điểm rất phong phú và việc lựa chọn hàm chấm điểm có liên quan đến việc bạn chọn câu hỏi nào để hỏi bồi thẩm đoàn.

  • Bạn thưởng cho người nộp danh sách đầy đủ như thế nào? Trong trường hợp lý tưởng, bạn muốn thường xuyên trao phần thưởng khác không cho nhiều người tham gia để tránh cơ chế độc quyền, nhưng bạn cũng muốn có đặc tính là người tham gia không thể tăng phần thưởng của mình bằng cách gửi cùng một bộ câu trả lời (hoặc đã sửa đổi một chút) lần. Một phương pháp đầy hứa hẹn là tính toán trực tiếp các tổ hợp tuyến tính của danh sách đầy đủ các câu trả lời phù hợp nhất của ban giám khảo (với Hệ số không âm có tổng bằng 1) và sử dụng Hệ số này để chia phần thưởng. Có thể còn có phương pháp khác nữa.

Nhìn chung, mục tiêu là sử dụng các cơ chế phán đoán của con người vốn được biết là có hiệu quả, giảm thiểu sự thiên vị và đã vượt qua được thử thách của thời gian (ví dụ, hãy tưởng tượng cấu trúc đối đầu của hệ thống tòa án bao gồm hai bên tranh chấp có lượng lớn thông tin nhưng bị thiên vị và một thẩm phán có ít thông tin nhưng có thể không bị thiên vị) và sử dụng thị trường AI mở làm chỉ báo có độ trung thực cao và chi phí rất thấp cho các cơ chế đó (điều này tương tự như cách hoạt động của "sự tinh chỉnh" LLM).

Tài chính độ sâu

Tài chính độ sâu là về việc áp dụng phán đoán tinh tế của con người để điền vào tỷ trọng trên biểu đồ ở trên: “Tỷ lệ phần trăm tín dụng của X thuộc về Y là bao nhiêu?”

Phương pháp dễ nhất để minh họa điều này là bằng một ví dụ:

1Iuz9D6Ge2TFHr29H66pF9V8jmfrbBNwhn079k3k.jpeg

Đầu ra của ví dụ về tài chính độ sâu hai cấp: Nguồn gốc tư tưởng của Ethereum. Xem mã Python tại đây .

Mục tiêu ở đây là ghi nhận những đóng góp về mặt triết học cho Ethereum . Hãy cùng xem một ví dụ:

  • Lần vốn độ sâu mô phỏng được trình bày ở đây cho thấy 20,5% tín dụng dành cho phong trào cypherpunk và 9,2% dành cho chủ nghĩa tiến bộ công nghệ.

  • Tại mỗi nút, bạn đặt câu hỏi: đến mức nào thì đó là đóng góp ban đầu (để nó xứng đáng được ghi nhận) và đến mức nào thì đó là sự kết hợp lại của các ảnh hưởng ngược dòng khác? Đối với phong trào cypherpunk, có 40% là mới và 60% là phụ thuộc.

  • Sau đó, bạn có thể xem xét tác động ngược dòng của nút này: Chính phủ nhỏ theo chủ nghĩa tự do và chủ nghĩa vô chính phủ đã giành được 17,3% công lao cho phong trào Cypherpunk, nhưng nền dân chủ trực tiếp của Thụy Sĩ chỉ nhận được 5%.

  • Nhưng lưu ý rằng chủ nghĩa chính phủ nhỏ tự do và chủ nghĩa vô chính phủ cũng truyền cảm hứng cho triết lý tiền tệ của Bitcoin, vì vậy nó ảnh hưởng đến triết lý của Ethereum theo hai cách.

  • Để tính thị phần đóng góp của chủ nghĩa tự do và chủ nghĩa vô chính phủ cho Ethereum , bạn cần nhân các cạnh trên mỗi đường dẫn rồi cộng các đường dẫn lại với nhau: 0,205 * 0,6 * 0,173 + 0,195 * 0,648 * 0,201 ~= 0,0466. Vì vậy, nếu bạn phải quyên góp 100 đô la để thưởng cho tất cả những người đóng góp cho triết lý của Ethereum, dựa trên vòng tài trợ độ sâu mô phỏng này, các nhà hoạt động theo chủ nghĩa tự do ở các quốc gia nhỏ và những người theo chủ nghĩa vô chính phủ sẽ nhận được 4,66 đô la.

Phương pháp này được thiết kế để áp dụng trong những lĩnh vực mà công trình được xây dựng dựa trên công trình trước đó và có tính cấu trúc cao. Học viện (ví dụ: biểu đồ trích dẫn) và phần mềm mã nguồn mở(ví dụ: sự phụ thuộc vào thư viện và fork) là hai ví dụ điển hình.

Mục tiêu của một hệ thống tài trợ độ sâu hoạt động tốt là tạo ra và duy trì một biểu đồ toàn cầu, trong đó bất kỳ nhà tài trợ nào quan tâm đến việc hỗ trợ một dự án cụ thể sẽ có thể gửi tiền đến địa chỉ đại diện cho nút đó và số tiền đó sẽ tự động lan truyền đến các phụ thuộc của nó (và theo cách đệ quy đến các phụ thuộc của chúng, v.v.) dựa trên tỷ trọng của các cạnh của biểu đồ.

Bạn có thể tưởng tượng một giao thức phi tập trung phát hành token của mình với cơ chế tài chính độ sâu tích hợp sẵn: quản trị phi tập trung trong giao thức sẽ chọn ra một bồi thẩm đoàn và bồi thẩm đoàn sẽ vận hành cơ chế tài chính độ sâu khi giao thức tự động phát hành token và gửi chúng vào nút tương ứng với chính nó. Bằng cách đó, giao thức sẽ tự động thưởng cho tất cả những người đóng góp trực tiếp và gián tiếp, tương tự như cách phần thưởng khối của Bitcoin hoặc Ethereum thưởng cho một loại người đóng góp cụ thể (thợ đào). Bằng cách tác động tỷ trọng của biên độ, ban giám khảo có thể liên tục xác định loại đóng góp mà họ coi trọng. Cơ chế này có thể đóng vai trò là giải pháp thay thế phi tập trung và bền vững lâu dài cho khai thác, bán hoặc airdrop một lần.

Tăng cường sự riêng tư

Thông thường, việc đưa ra phán đoán đúng đắn về những câu hỏi như trong ví dụ trên đòi hỏi phải có quyền truy cập vào thông tin riêng tư: nhật ký trò chuyện nội bộ của một tổ chức, các ý kiến ​​đóng góp bí mật từ các thành viên cộng đồng, v.v. Một lợi ích của việc “chỉ sử dụng một AI duy nhất”, đặc biệt là trong hoàn cảnh nhỏ hơn, là việc cung cấp cho một AI quyền truy cập thông tin sẽ được chấp nhận hơn là cung cấp thông tin đó cho tất cả mọi người.

Để đưa ra phán đoán tinh tế của con người hoặc học độ sâu trong những trường hợp này, chúng ta có thể thử sử dụng các kỹ thuật crypto để cấp cho AI quyền truy cập thông tin riêng tư một cách an toàn. Ý tưởng là sử dụng tính toán bên long(MPC), crypto đồng dạng hoàn toàn (FHE), hoàn cảnh thực thi đáng tin cậy (TEE) hoặc các cơ chế tương tự để cung cấp thông tin riêng tư, nhưng chỉ cho các cơ chế mà đầu ra duy nhất của chúng là "gửi danh sách đầy đủ" được đưa trực tiếp vào cơ chế.

Nếu bạn làm điều này, thì bạn phải giới hạn bộ cơ chế cho các mô hình AI (không phải con người hoặc sự kết hợp AI+con người, vì bạn không thể để con người nhìn thấy dữ liệu) và cụ thể cho các mô hình chạy trên một số chất nền cụ thể (ví dụ: MPC, FHE, phần cứng đáng tin cậy). Một hướng nghiên cứu chính là tìm ra những phiên bản thực tế, có hiệu quả và ý nghĩa đủ lớn trong tương lai gần.

Ưu điểm của thiết kế động cơ + vô lăng

Thiết kế như vậy mang lại nhiều lợi ích mong muốn. Lợi ích quan trọng nhất cho đến nay là chúng cho phép xây dựng DAO theo cách trao quyền kiểm soát hướng đi cho cử tri, nhưng họ không bị choáng ngợp trước quá nhiều quyết định. Họ đưa ra một sự thỏa hiệp trong đó mỗi người không phải đưa ra N quyết định, nhưng họ có quyền đưa ra nhiều hơn một quyết định (cách thức ủy quyền thường hoạt động) và có thể gợi ra những sở thích phong phú khó có thể diễn đạt trực tiếp.

Hơn nữa, cơ chế như vậy dường như có đặc tính làm mịn khích lệ. Điều tôi muốn nói ở đây khi nói đến "sự cân bằng khích lệ" là sự kết hợp của hai yếu tố:

  • Sự lan truyền: Không có hành động đơn lẻ nào của cơ chế bỏ phiếu có thể gây ra tác động lớn đến lợi ích của bất kỳ người tham gia nào.

  • Nhầm lẫn: Mối liên hệ giữa quyết định bỏ phiếu và cách chúng ảnh hưởng đến lợi ích của người tham gia phức tạp hơn và khó tính toán hơn.

Các thuật ngữ che giấu và khuếch tán được lấy từ mật mã học, trong đó chúng là các đặc tính chính của tính bảo mật của mật khẩu và hàm băm.

Một ví dụ điển hình về việc làm trơn tru khích lệ trong thế giới thực ngày nay chính là pháp quyền: thay vì định kì thực hiện các hành động theo hình thức "trao cho công ty của Alice 200 triệu đô la", "phạt công ty của Bob 100 triệu đô la", v.v., các cấp chính quyền cao hơn sẽ thông qua các quy tắc được thiết kế để áp dụng đồng đều cho lượng lớn bên tham gia, sau đó được một nhóm bên tham gia khác diễn giải. Khi phương pháp này có hiệu quả, lợi ích là nó làm giảm đáng kể động cơ hối lộ và các hình thức tham nhũng khác. Khi nguyên tắc này bị vi phạm (thường xảy ra trong thực tế), những vấn đề này có thể nhanh chóng trở nên trầm trọng hơn rất nhiều.

AI rõ ràng sẽ đóng vai trò quan trọng trong tương lai và chắc chắn sẽ trở thành một phần quan trọng trong hoạt động quản trị trong tương lai. Nhưng có rủi ro rõ ràng nếu bạn để AI tham gia vào hoạt động quản trị: AI có thành kiến, nó có thể bị cố tình làm hỏng trong quá trình đào tạo và công nghệ AI đang tiến bộ rất nhanh đến mức "đưa AI vào quyền lực" thực sự có thể có nghĩa là "đưa những người chịu trách nhiệm nâng cấp AI vào quyền lực". Sự phán đoán tinh tế của con người mở ra một con đường thay thế, cho phép chúng ta khai thác sức mạnh của AI theo cách thị trường tự do cởi mở trong khi vẫn duy trì nền dân chủ dưới sự kiểm soát của con người.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận