Tác giả gốc: Người biết
Tổng hợp gốc: Luffy, Tin tức tầm nhìn xa

Bạn bè, lâu rồi không gặp. Tôi hy vọng tất cả các bạn đều thích thú với một số hành động giá tích cực gần đây trong không gian crypto . Để nhận được phần thưởng xứng đáng, tôi quyết định viết báo cáo chính thức về dự án crypto trí tuệ nhân tạo Bittensor. Tôi không phải là chuyên gia về crypto, vì vậy bạn có thể cho rằng tôi không rành lắm về trí tuệ nhân tạo. Tuy nhiên, trên thực tế, tôi dành lượng lớn thời gian rảnh rỗi để nghiên cứu AI bên ngoài crypto và đã làm quen với các bản cập nhật, tiến bộ quan trọng cũng như cơ sở hạ tầng hiện có trong không gian AI trong 3-4 tháng qua.
Mặc dù một số tweet có cách diễn đạt không chính xác và thiếu phân tích, tôi muốn làm rõ sự thật. Sau khi đọc bài viết này, bạn sẽ biết nhiều về Bittensor hơn bạn mong đợi. Đây là một báo cáo hơi dài và tôi không có ý dài dòng vì điều này phần lớn là do lượng lớn hình ảnh và ảnh chụp màn hình. Vui lòng không nhập bài viết vào ChatGPT để lấy tóm tắt, tôi đầu tư lượng lớn thời gian vào việc này và bạn sẽ không hiểu được toàn bộ câu chuyện theo cách đó.
Khi tôi viết báo cáo này, một người bạn (tình cờ là KOL của Twitter về tiền điện tử) đã nói với tôi, “AI + crypto= tương lai của tài chính”. Hãy ghi nhớ điều này khi bạn đọc bài viết này.

Trí tuệ nhân tạo có phải là mảnh ghép cuối cùng để crypto bắt đầu chiếm lĩnh thế giới hay chỉ là một bước nhỏ hướng tới mục tiêu của chúng ta? Việc tìm ra câu trả lời là tùy thuộc vào bạn, tôi chỉ đưa ra một số điều để bạn suy ngẫm.
Thông tin bối cảnh
Theo cách nói của Bittensor, Bittensor về cơ bản là ngôn ngữ để viết nhiều thị trường hàng hóa phi tập trung hoặc "mạng con" nằm trong một hệ thống token thống nhất. Mục tiêu của nó là truyền sức mạnh thị trường kỹ thuật số đến các mặt hàng kỹ thuật số quan trọng nhất của xã hội. --AI.
Sứ mệnh của Bittensor là xây dựng một mạng lưới phi tập trung, thông qua cơ chế khích lệ độc đáo và kiến trúc mạng con tiên tiến, có thể cạnh tranh với các mô hình trước đó mà “chỉ những công ty khổng lồ như OpenAI mới có thể đạt được”. Bittensor được hình dung tốt nhất như một hệ thống hoàn chỉnh gồm các bộ phận có thể tương tác, một cỗ máy được xây dựng với sự trợ giúp của blockchain để tạo điều kiện thuận lợi hơn cho việc phổ biến khả năng trí tuệ nhân tạo trên chuỗi.
Có hai người chơi chính quản lý mạng Bittensor, họ là thợ đào và người xác nhận. Thợ đào là những cá nhân gửi các mô hình được đào tạo trước lên mạng để đổi lấy thị phần phần thưởng. Người xác thực có trách nhiệm xác nhận tính hợp lệ, chính xác của các kết quả đầu ra của mô hình này và chọn ra kết quả đầu ra chính xác nhất để trả về cho người dùng. Ví dụ: nếu người dùng Bittensor yêu cầu chatbot AI trả lời một câu hỏi đơn giản liên quan đến phái sinh hoặc sự kiện lịch sử, câu hỏi sẽ được trả lời bất kể có bao nhiêu nút hiện đang chạy trong mạng Bittensor.
Các bước để người dùng tương tác với mạng Bittensor được mô tả ngắn gọn như sau: người dùng gửi một truy vấn đến trình xác thực, trình xác thực sẽ truyền truy vấn đó đến thợ đào khai thác, trình xác thực sau đó xếp hạng các đầu ra thợ đào và đầu ra của thợ đào được xếp hạng cao nhất sẽ được gửi quay lại với người dùng.
Tất cả đều rất đơn giản.
Thông qua khích lệ, các mô hình thường cung cấp đầu ra tốt nhất và Bittensor tạo ra một vòng phản hồi tích cực trong đó thợ đào cạnh tranh với nhau để giới thiệu các mô hình tinh tế, chính xác và hiệu suất cao hơn nhằm giành được thị phần TAO (token) lớn hơn) và thúc đẩy trải nghiệm người dùng tích cực hơn .
Để trở thành người xác thực, người dùng phải là một trong 64 người nắm giữ TAO đầu tiên và đăng ký UID trên bất kỳ mạng con nào của Bittensor (một thị trường kinh tế độc lập cung cấp quyền truy cập vào nhiều dạng trí tuệ nhân tạo khác nhau). Ví dụ: mạng con 1 tập trung vào dự đoán đánh dấu thông qua lời nhắc văn bản và mạng con 5 tập trung vào việc tạo hình ảnh. Hai mạng con có thể sử dụng các mô hình khác nhau vì nhiệm vụ của chúng rất khác nhau và có thể yêu cầu các thông số, độ chính xác và các tính năng cụ thể khác nhau.
Một khía cạnh quan trọng khác trong kiến trúc của Bittensor là cơ chế đồng thuận Yuma, tương tự như CPU phân phối các tài nguyên có sẵn cho Bittensor trên toàn bộ mạng con. Yuma được mô tả là sự kết hợp giữa PoW và PoS, với chức năng bổ sung là truyền tải và hỗ trợ thông tin ngoài chuỗi. Trong khi Yuma cung cấp phần lớn mạng lưới Bittensor, các mạng con có thể chọn tham gia hoặc không dựa vào sự đồng thuận của Yuma. Các chi tiết cụ thể rất phức tạp và mơ hồ, đồng thời có nhiều mạng con và Github tương ứng khác nhau, vì vậy nếu bạn chỉ muốn hiểu tổng quát, việc biết cách tiếp cận từ trên xuống đối với sự đồng thuận của Yuma sẽ có phương pháp dụng.

Nhưng còn người mẫu thì sao?
Trái với suy nghĩ của nhiều người, Bittensor không tự đào tạo mô hình. Đây là một quá trình cực kỳ tốn kém mà chỉ các phòng thí nghiệm AI hoặc tổ chức nghiên cứu lớn hơn mới có thể thực hiện được và có thể mất nhiều thời gian. Tôi đã cố gắng đưa ra câu trả lời tuyệt đối về việc liệu đào tạo mô hình có được đưa vào Bittensor hay không, nhưng những phát hiện duy nhất của tôi không có tính thuyết phục.

Cơ chế đào tạo phi tập trung tuy hơi khó phát âm nhưng cũng không khó hiểu. Trình xác thực Bittensor có nhiệm vụ “chơi một trò chơi liên tục đánh giá các mô hình thợ đào tạo ra trên dữ liệu đánh dấu T- Token của Falcon Refined Web 6” để đánh giá từng mô hình dựa trên hai tiêu chí: dấu thời gian và tổn thất so với các mô thợ đào khác. Hàm mất mát là một thuật ngữ học máy được sử dụng để mô tả sự khác biệt giữa giá trị dự đoán và giá trị thực tế trong một loại mô phỏng nhất định, biểu thị mức độ lỗi hoặc độ không chính xác của dữ liệu đầu vào và đầu ra của mô hình.

Về chức năng mất, đây là hiệu suất mới nhất của sn 9 (mạng con có liên quan) mà tôi lấy từ Discord ngày hôm qua, hãy nhớ rằng tổn thất tối thiểu không nhất thiết có nghĩa là tổn thất trung bình:

“Nếu bản thân Bittensor không đào tạo mô hình thì nó có thể làm được gì nữa?!”
Trên thực tế, quá trình “sáng tạo” mô hình ngôn ngữ lớn (LLM) được chia làm 3 giai đoạn chính là đào tạo, tinh chỉnh và học theo ngữ cảnh (thêm một chút lý luận).
Trước khi chuyển sang một số định nghĩa cơ bản, hãy xem báo cáo về LLM của Sequoia Capital vào tháng 6 năm 2023. Phát hiện của họ là: “Thông thường, ngoài việc sử dụng API LLM, 15% công ty bắt đầu lại từ đầu hoặc xây dựng trên các thư viện mã nguồn mở. mô hình ngôn ngữ được xây dựng. Việc đào tạo mô hình tùy chỉnh đã nhiều hơn đáng kể so với chỉ vài tháng trước. Điều này đòi hỏi ngăn xếp điện toán riêng, trung tâm mô hình, lưu trữ, khung đào tạo, theo dõi thử nghiệm, v.v. đến từ Hugging Face, Replica, Foundry, Tecton, Beloved các công ty như Weights & Biases, PyTorch, Scale, v.v.

Xây dựng một mô hình từ đầu là một nhiệm vụ khó khăn và 85% người sáng lập và đội ngũ được khảo sát không sẵn lòng thực hiện nó. Khối lượng công việc tự lưu trữ, theo dõi kết quả, tạo hoặc nhập các kịch bản đào tạo phức tạp và nhiều nhiệm vụ khác thật khó khăn khi hầu hết các công ty khởi nghiệp và nhà phát triển độc lập chỉ muốn tận dụng các mô hình ngôn ngữ lớn trong các ứng dụng bên ngoài hoặc dịch vụ dựa trên phần mềm quá lớn. Đối với 99% ngành công nghiệp AI, việc tạo ra thứ gì đó có thể so sánh được với GPT-4 hoặc Llama 2 là không khả thi.
Đây là lý do tại sao các nền tảng như Ôm mặt rất phổ biến vì bạn có thể tải xuống các mô hình đã được đào tạo từ trang web của họ, một quy trình rất quen thuộc và phổ biến đối với những người làm trong ngành AI.
Việc tinh chỉnh khó hơn nhưng phù hợp với những ai muốn cung cấp các ứng dụng hoặc dịch vụ dựa trên mô hình ngôn ngữ lớn trong một phân khúc cụ thể. Đây có thể là một công ty khởi nghiệp dịch vụ pháp lý đang phát triển một chatbot với mô hình được tinh chỉnh dựa trên nhiều dữ liệu và ví dụ cụ thể của luật sư hoặc một công ty khởi nghiệp công nghệ sinh học đang phát triển một mô hình cụ thể dựa trên những thông tin có thể liên quan đến công nghệ sinh học.

Dù mục đích là gì, tinh chỉnh là việc kết hợp sâu hơn tính cách hoặc kiến thức chuyên môn vào mô hình của bạn, làm cho mô hình phù hợp hơn và chính xác hơn khi thực hiện nhiệm vụ. Mặc dù không thể phủ nhận rằng nó hữu ích và dễ tùy chỉnh hơn nhưng mọi người cho rằng nó khó, ngay cả a16z cũng cho rằng như vậy:

Mặc dù Bittensor không thực sự đào tạo mô hình, nhưng thợ đào gửi mô hình của riêng họ lên mạng yêu cầu tinh chỉnh các mô hình dưới một số hình thức, mặc dù thông tin này không được công bố rộng rãi (hoặc ít nhất là khó xác minh). Thợ đào giữ bí mật cấu trúc mô hình và chức năng của mình để bảo vệ lợi thế cạnh tranh của mình, mặc dù một số có thể truy cập được.

Hãy lấy một ví dụ đơn giản: nếu bạn đang tham gia một cuộc thi với giải thưởng 1 triệu đô la và mọi người đang cạnh tranh xem ai có LLM hoạt động tốt nhất, nếu tất cả các đối thủ của bạn đang sử dụng GPT-2, bạn có Tiết lộ rằng bạn đang sử dụng không? GPT-4? Mặc dù tình hình thực tế phức tạp hơn ví dụ này minh họa nhưng nó cũng không khác mấy. Thợ đào được khen thưởng dựa trên độ chính xác đầu ra của họ, điều này mang lại cho họ lợi thế so với thợ đào tinh chỉnh ít mô hình hơn hoặc các mô hình có hiệu suất trung bình kém hơn.
Tôi đã đề cập đến việc học theo ngữ cảnh trước đây và đây có lẽ là phần cuối cùng của thông tin không phải Bittensor mà tôi sẽ đề cập đến, nhưng học theo ngữ cảnh là một quá trình được xác định rộng rãi để hướng dẫn các mô hình ngôn ngữ hướng tới các đầu ra mong muốn hơn. Suy luận là quá trình mà một mô hình liên tục trải qua khi đánh giá đầu vào và kết quả huấn luyện của nó có thể ảnh hưởng đến độ chính xác của đánh dấu đầu ra. Mặc dù việc đào tạo rất tốn kém nhưng nó chỉ xảy ra khi mô hình đã sẵn sàng đạt đến cấp độ đào tạo đội ngũ chỉ định trong quá trình tạo mô hình. Việc suy luận luôn diễn ra và nhiều dịch vụ bổ sung khác nhau được sử dụng để tạo điều kiện thuận lợi cho quá trình suy luận.
Trạng thái Bittensor
Với bối cảnh, tôi sẽ khám phá một số chi tiết về hiệu suất mạng con Bittensor, chức năng hiện tại và các kế hoạch trong tương lai. Thành thật mà nói, thật khó để tìm được những bài viết chất lượng về chủ đề này. May mắn thay, các thành viên cộng đồng Bittensor đã gửi cho tôi một số tin nhắn, nhưng ngay cả khi đó, việc đưa ra ý kiến vẫn tốn rất nhiều công sức. Tôi ẩn nấp trong Discord của họ để tìm kiếm câu trả lời và trong quá trình đó, tôi nhận ra mình đã là thành viên được khoảng một tháng nhưng chưa xem bất kỳ kênh nào (tôi chưa bao giờ sử dụng Discord, nhiều Telegram và Slack hơn).
Dù sao đi nữa, tôi quyết định xem xét viễn cảnh mong đợi ban đầu của Bittensor và đây là những gì tôi tìm thấy trong báo cáo trước đó:

Tôi sẽ đề cập đến nó trong một vài đoạn tiếp theo, nhưng lý thuyết về khả năng kết hợp không có giá trị. Đã có một số nghiên cứu về chủ đề này và ảnh chụp màn hình trước đó đến từ cùng một báo cáo xác định mạng Bittensor là mô hình hỗn hợp thưa thớt (một khái niệm được đề xuất trong một bài nghiên cứu năm 2017).
Bittensor có rất nhiều mạng con nên tôi cảm thấy cần phải dành toàn bộ phần cho chúng trong báo cáo này. Dù bạn có tin hay không, mặc dù những điều này rất quan trọng đối với tính hữu ích của web và làm nền tảng cho tất cả các công nghệ, Bittensor không có phần dành riêng trên trang web của mình để mô tả những điều này và cách chúng hoạt động. Tôi thậm chí còn hỏi trên Twitter, nhưng có vẻ như bí mật của mạng con chỉ có những người lang thang hàng giờ trên Discord và tự mình tìm hiểu hoạt động của từng mạng con mới hiểu được. Bất chấp khối lượng nhiệm vụ trước mắt, tôi vẫn làm được một số việc.
Subnet 1 (thường được viết tắt là sn 1) là mạng con lớn nhất trong mạng Bittensor và chịu trách nhiệm về dịch vụ tạo văn bản. Trong số 10 trình xác nhận hàng đầu của sn 1 (tôi sử dụng cùng thứ hạng top 10 cho các mạng con khác), có khoảng 4 triệu TAO được đặt cược, tiếp theo là sn 5 (chịu trách nhiệm tạo hình ảnh), có khoảng 3,85 triệu TAO Pledge. Nhân tiện, tất cả dữ liệu này có thể được tìm thấy trên TaoStats .
Mạng con đa phương thức (sn 4) có khoảng 3,4 triệu TAO, sn3 (dữ liệu Scraping) có khoảng 3,4 triệu TAO và sn 2 (đa phương thức) có khoảng 3,7 triệu TAO. Một mạng con khác tăng trưởng nhanh chóng gần đây là sn 11, chịu trách nhiệm đào tạo văn bản và có số lượng cam kết TAO tương tự như sn 1.
Sn 1 cũng là công ty dẫn đầu tuyệt đối về hoạt động khai thợ đào và xác thực, với hơn 40/128 trình xác thực đang hoạt động và 991/1024 thợ đào đang hoạt động. Sn 11 thực sự có nhiều thợ đào nhất trong tất cả các mạng con, với 2017/2048. Biểu đồ bên dưới mô tả chi phí đăng ký mạng con trong một tháng rưỡi qua:

Chi phí hiện tại để đăng ký một mạng con là 182,12 TAO, giảm đáng kể so với mức đỉnh 7.800 TAO trong tháng 10, mặc dù tôi không hoàn toàn chắc chắn con số đó là chính xác. Bất chấp điều đó, với hơn 22 mạng con đã đăng ký và sự chú ý ngày càng tăng của Bittensor, chúng ta có thể sẽ thấy nhiều mạng con được đăng ký hơn trong thời gian tới. Một số mạng con trong đó dường như phải mất một thời gian mới có được lực kéo.
Đối với các mạng con khác, sn 9 là một mạng con thú vị dành riêng cho đào tạo:

Dưới đây là hướng dẫn cho mạng con thu thập thông tin Bittensor:

Mô hình mạng con rất độc đáo và là ví dụ về một kỹ thuật phổ biến trong nghiên cứu máy học được gọi là hỗn hợp các chuyên gia (MoE), trong đó mô hình được chia thành các phần và được cung cấp đánh dấu riêng lẻ, thay vì được giao toàn bộ nhiệm vụ. Điều này thật thú vị đối với tôi vì Bittensor không phải là một mô hình thống nhất mà thực sự là một mạng lưới các mô hình được truy vấn theo cách bán ngẫu nhiên. Một ví dụ về quy trình này là BitAPI, một sản phẩm được xây dựng trên sn 1 lấy mẫu ngẫu nhiên 10 thợ đào hàng đầu được người dùng trong nước truy vấn. Mặc dù có thể có hàng chục hoặc thậm chí hàng trăm thợ đào trong bất kỳ mạng con nhất định nào, nhưng những mô hình hoạt động tốt nhất sẽ nhận được phần thưởng lớn hơn.

Hiện tại, việc kết hợp hoặc tổng hợp nhiều mô hình để thêm hoặc "xếp chồng" chức năng là không khả thi. Đây không phải là cách các mô hình ngôn ngữ lớn hoạt động. Tôi đã cố gắng lý luận với các thành viên trong cộng đồng, nhưng tôi cho rằng điều quan trọng cần lưu ý là, như hiện tại, Bittensor không phải là một ví dụ về một bộ sưu tập mô hình thống nhất, chỉ là một mạng lưới các mô hình với các khả năng khác nhau.
Một số người đã so sánh Bittensor với oracle trên chuỗi có quyền truy cập vào các mô hình ML. Bittensor tách logic cốt lõi của blockchain khỏi việc xác minh mạng con, chạy mô hình ngoài chuỗi để chứa nhiều dữ liệu hơn và chi phí tính toán cao hơn, từ đó đạt được các mô hình mạnh mẽ hơn. Bạn có thể nhớ lại rằng quy trình duy nhất được thực hiện trên chuỗi là suy luận. Xem phần giải thích bên dưới về Bittensor:

Tôi cho rằng nhiều người trong cộng đồng quá tập trung vào việc cố gắng thuyết phục mọi người rằng Bittensor sẽ thay đổi thế giới, trong khi thực tế họ chỉ đang đạt được tiến bộ trong việc cố gắng thay đổi cách tương tác giữa trí tuệ nhân tạo và crypto. Khó có khả năng họ có thể biến toàn bộ mạng lưới các mô hình tải lên của thợ đào thành một siêu máy tính cực kỳ thông minh - đó không phải là cách hoạt động của máy học. Ngay cả những mẫu máy có hiệu suất tốt nhất và đắt nhất hiện nay vẫn còn phải mất nhiều năm nữa mới đạt được định nghĩa về trí tuệ nhân tạo tổng quát (AGI).
Khi cộng đồng máy học tiếp tục lặp đi lặp lại và các tính năng mới được triển khai, định nghĩa về AGI thường khác nhau, nhưng ý tưởng cơ bản là AGI có thể suy luận, suy nghĩ và học hỏi chính xác như con người. Trong đó đố cốt lõi đến từ việc các nhà khoa học phân loại con người là những sinh vật có ý thức và ý chí tự do, điều này rất khó định lượng ở con người chứ đừng nói đến hệ thống mạng lưới thần kinh mạnh mẽ.
Như hiện tại, mạng con là một cách độc đáo để chia nhỏ nhiệm vụ khác nhau liên quan đến các ứng dụng dựa trên AI và cộng đồng và đội ngũ có trách nhiệm thu hút các nhà xây dựng muốn tận dụng các khả năng cốt lõi này của Mạng Bittensor.
Điều đáng nói thêm ở đây là Bittensor rất hiệu quả trong lĩnh vực học máy ngoài crypto. Opentensor và Cerebras đã phát hành LLM mã mã nguồn mở BTLM-3 b-8k vào đầu tháng 7 năm nay. Kể từ đó, BTLM đã được tải xuống hơn 16.000 lần trên Hugging Face và nhận được những đánh giá rất tích cực.
Một số người nói rằng do cấu trúc nhẹ của BTLM, BTLM-3 b được xếp hạng cao cùng loại với Mistral-7 b và MPT-30 b, trở thành "mô hình tốt nhất trên mỗi VRAM". Dưới đây là biểu đồ đến từ cùng một tweet liệt kê các mô hình và phân loại khả năng truy cập dữ liệu của chúng, trong đó BTLM-3 b nhận được xếp hạng khá:

Tôi đã nói trên Twitter rằng Bittensor không làm bất cứ điều gì để tăng tốc nghiên cứu AI, vì vậy tôi cho rằng việc thừa nhận sai lầm của mình ở đây là điều đúng đắn. Ngoài ra, tôi nghe nói rằng BTLM-3 b được sử dụng để xác minh trong một số trường hợp vì nó rẻ và chạy nhanh trên hầu hết phần cứng.
TAO dùng để làm gì?
Đừng lo lắng, tôi không quên token.
Bittensor mượn lượng lớn cảm hứng từ Bitcoin nhưng cũng lấy từ lối chơi trong sách giáo khoa OG và kết hợp cấu trúc kinh tế token rất giống nhau, tức là tối đa 21 triệu TAO và cơ chế giảm nửa nửa cứ sau 10,5 triệu khối. Tính đến thời điểm viết bài này, số lượng TAO đang lưu hành là khoảng 5,6 triệu, giá trị vốn hóa thị trường gần 800 triệu ĐÔ LA. Sự phân phối của TAO được cho rằng cực kỳ công bằng và báo cáo Bittensor này nêu rõ rằng những người ủng hộ ban đầu không nhận được bất kỳ token. Mặc dù rất khó để xác minh tính xác thực nhưng chúng tôi tin tưởng vào nguồn của mình.
TAO vừa là token phần thưởng vừa là token truy cập của mạng Bittensor. Người nắm giữ TAO có thể đặt cọc, tham gia quản trị hoặc sử dụng TAO của họ để xây dựng các ứng dụng trên mạng Bittensor. 1 TAO đúc sau 12 giây và token mới đúc sẽ được phân bổ đều cho thợ đào và người xác thực.
Theo tôi, kinh tế học token của TAO dễ dàng hình dung ra một thế giới trong đó việc giảm khối lượng phát hành thông qua giảm nửa một nửa dẫn đến sự cạnh tranh ngày càng tăng giữa thợ đào, dẫn đến các mô hình chất lượng cao hơn và trải nghiệm người dùng tổng thể tốt hơn. Tuy nhiên, cũng có một vấn đề ở đây, đó là phần thưởng nhỏ hơn sẽ có tác dụng ngược và thay vì thu hút sự cạnh tranh mạnh mẽ sẽ dẫn đến số lượng mô hình được triển khai hoặc thợ đào cạnh tranh trì trệ.
Tôi có thể tiếp tục về tiện ích token TAO, triển vọng giá và động lực tăng trưởng , nhưng báo cáo nói trên thực hiện khá tốt vấn đề này. Hầu hết Twitter về tiền điện tử đã xác định rằng có một câu chuyện rất chắc chắn đằng sau Bittensor và TAO, và không có gì tôi có thể thêm vào thời điểm này sẽ làm tăng thêm phần kem trên bánh. Từ góc độ bên ngoài, tôi có thể nói rằng đây là kinh tế học token khá tốt và không có gì khác thường. Tuy nhiên, tôi nên đề cập rằng việc mua TAO hiện rất khó khăn vì nó chưa được ra mắt hầu hết sàn giao dịch . Tình trạng này có thể thay đổi sau 1-2 tháng nữa và tôi sẽ rất ngạc nhiên nếu Binance không sớm ra mắt TAO.
tiềm năng
Tôi chắc chắn là người hâm mộ của Bittensor và hy vọng họ nhận ra sứ mệnh táo bạo của mình. Như đội ngũ đã nêu trong bài báo Bittensor Paradigm , Bitcoin và Ethereum mang tính cách mạng vì chúng dân chủ hóa khả năng tiếp cận tài chính và biến ý tưởng về thị trường kỹ thuật số hoàn toàn không cần cấp phép thành hiện thực. Bittensor cũng không ngoại lệ và nhằm mục đích dân chủ hóa các mô hình trí tuệ nhân tạo trong các mạng thông minh rộng lớn. Bất chấp sự ủng hộ của tôi, rõ ràng là họ vẫn còn cách xa những gì họ muốn đạt được, điều này đúng với hầu hết các dự án được xây dựng bằng crypto. Đây là một cuộc chạy marathon, không phải chạy nước rút.
Nếu Bittensor muốn giữ địa vị, họ cần tiếp tục thúc đẩy sự cạnh tranh và đổi mới thân thiện giữa thợ đào đồng thời mở rộng khả năng của kiến trúc mô hình lai thưa thớt, ý tưởng MoE và khái niệm về trí tuệ tổng hợp theo cách phi tập trung. Chỉ thực hiện tất cả những điều này đã khó, việc thêm crypto vào trong đó khiến việc này càng khó khăn hơn.
Bittensor vẫn còn một chặng đường dài phía trước. Mặc dù các cuộc thảo luận xung quanh TAO đã gia tăng trong những tuần gần đây nhưng tôi không cho rằng hầu hết cộng đồng crypto đều nhận thức đầy đủ về cách thức hoạt động của Bittensor. Có một số câu hỏi rõ ràng không có giải pháp dễ dàng, trong đó là: a) liệu có thể suy luận quy mô lớn chất lượng cao hay không, b) vấn đề thu hút người dùng và c) liệu việc theo đuổi mục tiêu tổng hợp ngôn ngữ lớn có hợp lý hay không các mô hình.
Dù bạn có tin hay không thì việc hỗ trợ câu chuyện về tiền tệ phi tập trung thực sự là một thách thức khá lớn, mặc dù những tin đồn về ETF đang khiến việc này trở nên dễ dàng hơn một chút.
Việc xây dựng một mạng lưới phi tập trung gồm các mô hình thông minh lặp đi lặp lại và học hỏi lẫn nhau nghe có vẻ quá tốt đến mức khó tin và một phần lý do là như vậy. Trong những hạn chế hiện tại của cửa sổ bối cảnh và mô hình ngôn ngữ lớn, một mô hình không thể tự cải thiện nhiều lần cho đến khi đạt đến điểm mà với AGI, ngay cả những mô hình tốt nhất vẫn còn hạn chế. Tuy nhiên, tôi cho rằng việc xây dựng Bittensor như một nền tảng lưu trữ LLM phi tập trung với khích lệ kinh tế mới và khả năng kết hợp tích hợp không chỉ là một điều tích cực mà nó thực sự là một trong những thử nghiệm thú vị nhất về crypto hiện nay.
Việc tích hợp khích lệ tài chính vào hệ thống AI có những thách thức riêng và Bittensor nói rằng nếu thợ đào hoặc người xác thực cố gắng đánh lừa hệ thống dưới bất kỳ hình thức nào, họ sẽ điều chỉnh khích lệ theo từng trường hợp cụ thể. Đây là một ví dụ từ tháng 6 năm nay, khi số lượng phát hành token giảm 90%:

Điều này hoàn toàn có thể dự đoán được trong một hệ thống blockchain, vì vậy đừng giả vờ rằng Bitcoin hoặc Ethereum sẽ hoàn hảo 100% trong suốt vòng đời của nó.
Việc áp dụng crypto trong lịch sử là một viên thuốc khó nuốt đối với người ngoài và trí tuệ nhân tạo cũng gây tranh cãi không kém, nếu không muốn nói là nhiều hơn. Việc kết hợp cả hai sẽ tạo ra thách thức cho bất kỳ ai trong việc duy trì tăng trưởng và hoạt động của người dùng, việc này sẽ mất một thời gian. Nếu Bittensor cuối cùng có thể đạt được mục tiêu của các mô hình ngôn ngữ lớn tổng hợp thì đây có thể là một điều rất quan trọng.





