加密數據規模問題

本文為機器翻譯
展示原文

現在是 2024 年,你會認為獲取加密數據很容易,因為有了 Etherscan、Dune 和Nansen ,你可以隨時查看想要的數據。嗯,有點兒像。

規模

你看,在正常的 web2 領域,當你的公司有 10 名員工和 100,000 名客戶時,你產生的數據量可能不超過 100 GB(處於上風)。這個數據規模足夠小,你的 iPhone 可以處理你的任何問題並存儲所有內容。然而,一旦你有 1,000 名員工和 100,000,000 名客戶,你處理的數據量可能現在有數百 TB,甚至 PB。

這從根本上來說是一個完全不同的挑戰,因為你要處理的規模需要更多的考慮。要處理數百 TB 的數據,你需要一個分佈式計算機集群來發送作業。在發送這些作業時,你必須考慮:

這些都是在處理跨多臺機器的大數據計算時需要考慮的事項。規模會產生一些問題,而這些問題對於那些不使用它的人來說是看不見的。數據是這樣的領域之一,規模越大,需要的基礎設施就越多,才能正確管理它。對大多數人來說,這些問題是看不見的。要處理這種規模,您還面臨著其他挑戰:

有趣的是,在 web2 中,每個人都希望數據公開。在 web3 中,終於可以公開了,但很少有人知道如何做必要的工作來理解它。一個欺騙性的事實是,通過一些幫助,你可以相當輕鬆地從全局數據集中獲取你的數據集,這意味著“本地”數據很容易,但“全局”數據很難獲得(與每個人和每件事有關的東西)。

碎片化

好像事情已經不具有挑戰性了,因為你必須處理的規模。現在有一個新的維度讓加密數據變得具有挑戰性,那就是由於市場的經濟激勵,加密數據會不斷分裂。例如:

由於你無法量化你不知道的東西,碎片化可能特別具有挑戰性。你永遠不會知道世界上存在的所有 L2 以及總共會出現的虛擬機。一旦它們達到足夠的規模,你就能跟上,但這是另一個故事了。

開放,但不可互操作

我認為最後一個問題讓很多人感到驚訝,那就是數據是開放的,但不能輕易實現互操作。你看,團隊拼湊起來的所有智能合約就像一個大型數據庫中的小型數據庫。我喜歡把它們看作模式。所有的數據都在那裡,但開發智能合約的團隊通常知道如何將它們拼湊在一起。如果你願意,你可以花時間自己去理解它,但你必須對所有潛在的模式進行數百次這樣的操作——而且,在沒有交易另一方買家的情況下,你怎麼能不花大筆錢就做到這一點呢?

如果覺得這個太抽象了,我來舉個例子。你說“這個用戶使用橋樑的頻率是多少?”。雖然這看起來是一個問題,但裡面嵌套了很多問題。讓我們來分解一下:

上述每個挑戰都很難解決,而且需要大量的資源。

結果

那麼這一切會導致什麼呢?好吧,我們今天的生態系統狀況是……

我希望本文能幫助您瞭解加密數據領域的現實情況。如果您面臨這些問題或想了解如何克服這些問題,請聯繫我們 - 我和我的團隊正在解決這些問題。

相关赛道:
來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
6
收藏
1
評論