本期節目的嘉賓是 Hyperliquid 創始人 Jeff Yan。Jeff 的職業生涯始於 Hudson River 的高頻交易領域,隨後轉向加密世界,在該賽道打造了規模龐大的做市商之一。
文章作者:@flirting with models
文章來源:Aki 吳說區塊鏈
本期節目的嘉賓是 Hyperliquid 創始人 Jeff Yan。Jeff 的職業生涯始於 Hudson River 的高頻交易領域,隨後轉向加密世界,在該賽道打造了規模龐大的做市商之一。深入討論了中心化加密交易所的基礎設施、對抗性的算法,以及為什麼 HFT(高頻交易)的盈虧實際上可能對中期價格走勢具有預測性。解釋了他眼中當前去中心化交易所存在的問題,並介紹了 Hyperliquid 的早期理念。本期節目發佈於 2023 年 5 月 8 日,可以從中看到 Jeff Yan 早期的很多想法。
如何從哈佛走進加密交易
Jeff Yan:我的經歷大概和很多 HFT 從業者相似:我畢業於哈佛大學,主修計算機科學和數學,隨後直接加入 Hudson River Trading,這是一家在傳統金融裡規模較大的做市機構。我當時做的是美股,體驗非常好。我入職時公司大概 150 人,現在已經大了很多。在這裡讓我受益匪淺,能接觸到最有意思的問題,工程與數學可以完美結合,對量化來說幾乎是“天堂”。到了 2018 年,伴隨以太坊智能合約的熱潮,我讀了(以太坊)Yellow Paper,瞬間就“開竅了”,我確信那會是未來,於是離職去做一種 L2 方向的交易所協議。
當時我們選擇切入預測市場方向,是因為彼時 Augur 已經呈現出較強的產品市場匹配(PMF)跡象,而我們自身更擅長、也更關注交易所底層技術能力。因此我們完成融資後,搬到 San Francisco 組建團隊。但幾個月後,我還是決定關停項目,因為時機並不成熟:一方面監管不確定性極高;另一方面用戶獲取非常困難。彼時大多數人並不熟悉智能合約,興趣更多集中在代幣投機上,對 DeFi 的真實需求尚未形成,所以項目最終被擱置。
隨後我花了一段時間反思與旅行,最終選擇回到交易。相較於持續在市場裡“苦找 PMF”,交易本身更直接、更有趣。起初我也考慮過加入一家成熟公司,但想到自己做過加密產品、對行業機制更熟悉,便先從自營加密交易做起。最開始這只是副業,但很快我就看到了顯著機會,業務擴張速度遠超預期。市場的低效程度令我驚訝。此後我幾乎埋頭投入了近三年:真正系統化啟動是在 2020 年初,時點也恰好與市場週期共振。隨著市場規模與成交量增長 10 倍甚至 100 倍,我們也同步做大,最終市場份額進入中心化交易所(CEX)做市商的第一梯隊。
約一年前,我們開始系統評估 DeFi 交易機會。這與早期切入 CEX 交易時的觀察相似 — — 低效環節廣泛存在。但不同之處在於,部分 DeFi 協議在機制設計上存在先天不足,導致交易體驗與資本效率受限。與此同時,FTX 事件後,市場對“not your keys, not your coins”以及對手方風險的認知顯著強化,對真正去中心化產品的需求持續上升。基於上述變化,我們判斷構建去中心化交易所的窗口期已經到來。過去一到兩個季度,我們持續投入資源推進該方向;高頻交易(HFT)業務則更多處於相對穩定的運行與維護狀態,而當前的主要投入與關注重點,集中在將這條去中心化交易技術棧紮實落地並完成體系化搭建。
做市還是吃單:兩者有何區別
Jeff Yan:在我看來,這確實是進入高頻交易時首先需要作出的重大決策。從宏觀層面看,兩者有不少相似之處:本質上都對基礎設施要求極高,且對時延高度敏感。但在許多關鍵環節上,兩者又呈現出相反的側重:做市更倚重基礎設施能力;吃單更倚重統計與數學建模。
我認為選擇哪條路徑,主要取決於你更傾向投入哪類工作與研究。以做市為例,你在一定程度上受制於“將報價打穿”的對手盤,容錯空間很小。通常通過槓桿、在多個品種與多個價位掛單,會形成較大的隱含風險敞口;一旦出現錯誤,尾部風險的代價往往很高。相比之下,吃單策略可以一天只觸發一次 — — 仍可能是有效的高頻策略,可能基於新聞,也可能基於某類細分信號。
正因觸發較少,你有空間將模型做得更精細:大部分時間不觸發並不影響,只要觸發時表現足夠好即可。相反,做市並不具備這種彈性 — — 即便 99% 的時間運行良好,只要有 1% 的時間略慢、未能及時跟隨數據,相關損失就可能足以抹去其餘 99% 的全部 PnL。這就是“基礎設施驅動”與“模型驅動”的根本差異。
Corey Hoffstein:是否可以這樣更直觀地理解:選擇“吃單”的一方之所以願意跨越買賣價差,是因為其預期價格將沿自身方向繼續運行,因此願意承擔點差成本;而“做市”的一方則希望價格在其交易時間窗內儘量保持穩定 — — 當有人跨價差與其成交後,再在另一側完成對沖或反向成交,從而獲取點差收益。以此區分是否合理?即一方在所處時間窗內更希望市場橫盤,另一方則更希望出現方向性運動。
Jeff Yan:是的,基本可以這樣理解。在高頻交易中,我們通常以極短的時間窗來評估 markout(回看收益),但這一判斷放到更一般的交易頻率同樣成立:只要你選擇“吃單”,在以中間價計量的那一刻,你會立刻承擔一筆確定性損失(點差與費用)。只有在隨後、在你設定的預測時間窗內,價格的平均走勢能夠覆蓋這筆即時損失並進一步補償費用,你的策略才具有正期望。
做市則恰好相反:在成交瞬間,你的“初始 PnL”往往處於該筆交易可能實現的最高水平 — — 因為你剛剛獲取了一個點差。你所押注的是,這部分收益在平均意義上不會被“劣化選擇”完全侵蝕。
因此,在做市場景下,如果將所有成交按時間維度進行 markout 觀察,PnL 隨時間遞減通常是更常見的形態;你的期望只是其遞減幅度不要演變為負值。
Corey Hoffstein:我們通話前你提到,把業務規模做大,最難的部分其實不在研究,而在基礎設施。我也在 X 上看到你有類似表述:“會做數據歸一化不保證你能賺錢,但不會做你肯定賺不到。”能否談談你們在基礎設施方面最大的經驗教訓,以及為什麼它如此關鍵?
Jeff Yan:這個問題大致可以拆成兩部分,並且二者緊密相關:一是“交易基礎設施”,二是“研究基礎設施”。數據清洗更偏向後者,屬於統計實踐的一部分;前者則是狹義的高頻交易系統。兩者都極其重要。
研究層面雖然更為人所熟知,但需要強調的是:高頻交易中的“信噪比”與噪聲形態,比學術研究中多數對象要糟糕幾個數量級,因此對異常值的處理重要得多。
如果對這些問題缺乏正確的處理框架,僅僅簡單忽略異常值,那麼一旦出現黑天鵝尾部事件,模型可能被直接擊穿;但如果又未能做好規範化或過濾,極端樣本又會主導模型訓練與參數選擇。具體實踐中,在許多任務裡使用分位數往往比直接使用原始數值更為魯棒;即便使用原始數值,也需要在“丟棄異常值”與“裁剪異常值”之間作出明確取捨,而這些選擇對最終效果的影響往往非常顯著。
最大的教訓聽起來很樸素:必須親自審閱數據。不要以為自己足夠聰明、管道足夠“乾淨”,模型輸入就會自動符合預期。用於檢查原始數據的時間很難被視為“過多” — — 因為每一次審閱幾乎都會帶來新的發現。團隊早期應當將交易所提供的全部原始數據流完整落盤,逐條核對,主動識別異常並進行一致性校驗。
有一個看似荒誕但真實發生過的案例:某段時間,一家交易所在行情推送中出現缺陷,將“價格”和“數量”字段對調。比如比特幣的 20,000 / 0.1 被記錄為 0.1 / 20,000,導致我們內部的統計與計數邏輯全面失真。許多團隊因此不得不緊急停機或切換至備用數據源。這類事件說明:無論你的邏輯設計得多麼“健壯”,都不可能覆蓋所有異常情形,因此應儘可能保持對原始數據的貼近與可追溯性。
並且還要高度關注時間戳。交易所往往會在數據中提供多種時間戳,其真實含義需要自行拆解與對齊。這一點對於理解“黑盒時延”尤為關鍵 — — 你究竟在測量什麼?你是確實“跟上”了市場,還是對方在推送質量較差的數據?通過時間戳的拆分與比對,可以較好地區分這些情形,從而判斷鏈路是否健康、時延是否處於可控區間。
什麼是“公允價(fair)”?如何度量,為何高頻做市要圍繞它交易?
Jeff Yan:不同交易公司對 fair 的定義確有差異,往往取決於各自的交易風格。但其共通點在於:fair 本質上是將你的建模結果凝練為一個“預測價格”。這一抽象非常有價值,因為它把“如何構建可盈利策略”拆解為兩部分且同等困難的任務:價格預測與訂單執行。
這也呼應你此前關於做市與吃單的提問:做市更偏向執行側,吃單更偏向建模側。對吃單策略而言,研究與決策幾乎都圍繞“公允價”展開。至於公允價應納入哪些信息,取決於你認為自己在哪些數據處理環節具備優勢,以及市場的效率缺口具體存在於何處。
此外,公允價並不必然只有一個。在更偏機器學習的框架下,你可以同時維護不同預測期限的公允價,例如 1 秒預測與 1 天預測;執行策略會以不同方式加以利用,而對應的優化目標也可能在 PnL 維度上各不相同。
對入門者而言,一個相對有效的“粗切法”是:先給出一個你願意圍繞其進行報價或跨越價差的單一數值,並將其視為你的“預言機”;隨後在擁有歷史價格序列的前提下,進一步思考如何圍繞該數值實現最優執行。
Corey Hoffstein:是否可以將其簡化理解為:觀察某一交易所,若假設 Binance 匯聚了幾乎全部流動性,則可將 Binance 的價格視為公允價;若其他交易所(如 OKX)在毫秒到秒級存在滯後,則可依據 Binance 的公允價跨越價差進行交易,等待其“追價”。當然也存在更偏統計的做法,即不以單一交易所為“真值”,而是結合訂單簿相關信號來估計公允價。這樣的解釋是否成立?我也並不完全確定。
Jeff Yan:是的,思路正確。以流動性最強的交易場所作為公允價(fair),確實是一個很好的第一近似。早期各交易所之間常出現 10% 量級的價差,彼時的主要難點並非價格預測,而在於如何在交易所之間高效轉移資金;因此這種方法在當時非常有效。近幾年市場經歷了一個演變過程:流動性先是分散,隨後又回流並向幣安集中(尤其是近期)。因此,正如你所說,將幣安價格作為公允價是一個合理的起點。
但需要強調的是,將外部單一來源直接等同於公允價仍需謹慎。例如 OKX 的滯後可能僅為數毫秒,實際交易並不一定如表述般直接。再進一步,假設存在一種機會:每當幣安價格變動而 OKX 尚無人吃單,你便據此進行跟隨交易並試圖平倉套利 — — 多數情形下可能有效,但這畢竟是加密市場,存在非連續性風險:例如 OKX 突然進入錢包維護,導致幣安與 OKX 之間的充提被暫時切斷,套利鏈條無法閉合,價格也可能隨之發散。此時若你的公允價僅依賴幣安價格,反而可能面臨被動風險暴露。
因此,細節因素非常多。即便在這一看似直觀的框架下,也遠不止“從某個數據源取一個數作為公允價”那麼簡單 — — 它只能作為良好的第一近似。
Corey Hoffstein:這也正好引出我接下來想問的:加密交易所在技術層面的諸多特性與“陷阱”。從歷史經驗看,它們的技術口碑並不穩定:你前面提到過“髒數據”的例子(例如將價格與數量字段對調)、API 崩潰、文檔質量不佳、隱藏端點,甚至存在未公開的參數。我記得你最近還在 X 上舉過例子:可以繞過風控引擎,或讓風控引擎並行運行 — — 這些完全未被文檔化的細節,構成了與價格預測無關、相互獨立的“正交 alpha”。我的問題是:諸如深入理解 API 細節、準確測量端點延遲這類工作,究竟能貢獻多少 alpha?與之相比,更“傳統”的統計類 alpha(例如利用訂單簿信號判斷壓力與方向)孰輕孰重?
Jeff Yan:你提到的那條推文,我記得反響確實不錯。
Corey Hoffstein:順便說一句,我到現在仍不確定那是不是愚人節玩笑。
Jeff Yan:愚人節已經過去了,我承認那是個玩笑。不過它比大家以為的更接近現實。真正的“笑點”在於:它其實部分是真的。我一直想寫篇後續,這是個很好的提醒 — — 錄完這期我就去發。
回到你的直覺,我認為你的判斷方向是對的。一個人在某家公司工作久了,往往會形成偏好;或是在進入時就帶著偏好 — — 例如“我學過數學,所以我應當做更酷的機器學習模型、挖掘信號、產出 alpha,這才是關鍵,因為這最難”。這種“只做模型”的思路在大公司或許行得通,因為分工足夠細;但如果你需要把整套業務自行運行起來,僅靠這一點是走不遠的。
你提到的那些“髒活累活” — — 吃透 API、補齊文檔缺口、測量各端點延遲 — — 非常關鍵。我對高頻交易(乃至許多事情)的理解是:它更像多個因素的乘積,而不是簡單相加。你在不同“桶”裡的投入看似是加總的,但產出往往體現為相乘關係。舉個具體例子:
整體效能≈基礎設施 × 模型。
如果“基礎設施”這一因子只有 1,而“建模”這一因子是 10,那麼在每投入一個單位精力時,理性選擇往往是優先補齊最短板。高頻交易的難點在於:你很難準確判斷這些因子各自處於什麼水平。因此,實踐中需要持續進行“元分析” — — 我現在做的,是否確屬最重要的事項?你會很快發現:答案並不顯然。很多競爭優勢,恰恰體現在對優先級的判斷能力上。
在這一意義上,那些看似“髒活”的工作往往至關重要。應當務實地獲取低垂果實,遵循 80/20 原則。行情順暢時,最容易陷入的誤區是:“基礎已經打好,可以去做一些更酷的機器學習研究、追求創新。”我們也曾在這一點上付出代價。並非意味著該方向不存在 alpha,而在於其投入規模大、且邊際回報往往很快遞減。
當你團隊規模較小、現有策略仍然有效、市場機會仍然充沛時,更需要反覆自問並誠實面對:當前最應優先推進的是什麼?不要被表面數據“誘導”去追逐那些暫時不應作為優先項的方向。
Corey Hoffstein:對於希望在加密領域開展高頻交易的人,你曾給出兩條路徑建議:其一是直接在 Binance(幣安)進行交易、並將重心放在 alpha 產生上(我理解這更偏向“主動吃單”,而非“掛單做市”);其二是選擇一傢俱有長尾特徵的交易所,深入理解其基礎設施層面的“特性”,並據此尋找優勢。能否進一步說明,為何你認為這是兩條最優路徑?二者在方法論上有何差異?
Jeff Yan:這可以類比為一個“鐘形曲線”的直觀結論 — — 不要停留在中間。若將鐘形曲線的橫軸理解為不同交易所,那麼問題最突出的往往是中間區間,例如可粗略對應第 2 至第 7 梯隊的平臺。
它們的成交量遠小於Binance,但競爭強度與“有毒流量”卻差不多,甚至流量質量可能更差。至少在Binance,我們知道其零售流量佔比極高,這會帶來一種“緩衝效應” — — 有毒與零售流的混合更友好。頂級HFT公司基本都已經全量接入前若干家頭部交易所(你可以粗略理解為前15名),會用更大規模、更成熟的策略滿負荷交易;你在這些中間梯隊平臺裡很難再“榨”出多少收益。如果你願意挑戰可高度擴展的大型CEX策略,就直接從Binance開始,能泛化的也會盡量泛化 — — 沒有理由從“中間”起步。
你提到的另一條路也成立:去鐘形曲線最左端。去找小而被忽視的機會 — — 要麼體量太小不值得大玩家花時間,要麼太小眾以至於他們沒覆蓋。小眾的基礎設施就是極好的例子。
交易所繫統由人開發實現。正如不少 DEX 的協議設計可能存在明顯欠妥之處,一些小型中心化交易所的技術實現也可能存在清晰可識別的缺陷。如果只有你真正理解其運行機制中的“特殊性”,這本身就可能轉化為策略優勢。基礎設施往往也是 alpha 的重要來源,並不存在絕對清晰的“模型 vs 基建”邊界。
你也許會擔心“不可泛化”:例如你在某家小交易所吃透了一種特定的“利用方式”,但對在 Binance 並無直接幫助。我認為外界普遍低估了“將一個有效策略跑起來”的價值。對多數團隊而言,這應當是首要目標;至於策略規模大小,未必需要在起步階段過度在意。
當然也存在一個基本前提:若平臺體量小到幾乎沒有成交量,研究與部署都缺乏意義。但只要具備一定交易規模,通常就能實現一定收益。更重要的是,如果該策略夏普率較高、對零售端事件具備足夠穩健性,那麼你所獲得的能力與經驗,將是絕大多數參與者並不具備的。
即便具體策略未必能夠直接泛化,我的經驗是:只要你完整走通“研究 — 上線 — 生產”的閉環,在這一過程中獲得的認知往往遠超預期;即使隨後推倒重來、轉向 Binance 等頭部平臺,整體難度也會顯著下降。此外,許多細節差異雖然無法一比一遷移,但你會開始從“已被驗證有效的東西”中提煉共通原則,並持續生成新的思路;這些思路通常明顯優於憑空設想。
因此,兩條路徑各有價值。如果一時難以取捨,可以先從小的做起,再逐步走向大的;坦率地說,兩條路徑都嘗試一遍也未嘗不可。
Corey Hoffstein:你提到過“有毒流量”。能否為從未聽過這一概念的人給出一個定義?
Jeff Yan:其本質是“信息佔優的流量”。我對加密市場成長有一個理解框架:我進入市場時其實已不算早,只能通過回溯去想象更早期的狀態。即便在我入場的階段,零售資金規模已相當可觀,也存在大型參與者,但當時供需關係的核心矛盾仍在於 — — 可用流動性不足以滿足零售端的交易需求。因此,零售流量是最直接、也最值得捕捉的對象。最直觀的做法,是編寫較為通用的做市策略,通過掛單提供流動性。只要零售投資者與您的掛單成交,你在很大程度上可以保留其跨越價差所貢獻的那部分收益;在當時,這一模式本身就能夠持續盈利。這也反過來構成一個強信號:當時市場中的主導流量,仍主要來自零售端。
但隨著時間推移,市場參與者逐漸意識到這一點,並開始大規模部署做市策略。隨著做市側流動性不斷增加,吃單策略的意義隨之上升,買賣價差也被持續壓縮。為了繼續捕捉優質的零售流量,吃單者開始出現,並轉而更為挑剔地“篩選”做市端的劣質掛單,將其逐一拿走。這是市場演化中較為常見的路徑。需要補充的是,吃單同樣為市場提供了重要價值;將“做市=做市商、吃單=對手盤”作簡單二分並不準確,兩類角色在實踐中往往交織存在。在我看來,更理想的市場形態,是允許參與者以各自方式自由交易。
但站在做市者的視角,這類吃單流量會顯著提高策略難度:原先相對輕鬆的模式 — — 持續掛單、每次被成交便獲取少量點差 — — 可能會被少數交易“擊穿”。例如,你可能在約 99% 的零售成交中累計獲得約 1 個基點的收益,但在另外約 1% 的交易中卻一次性損失 10 個基點(僅作為心智模型,並非精確數值)。在這種結構下,尾部損失足以吞噬大部分常規收益。
因此,“有毒流量”在很大程度上指的就是這類由吃單者所代表的、具有信息優勢的流量。當然,是否構成“有毒”取決於你所運行的具體策略;但在多數語境下,通常可以用“零售流量”與“機構化/高水平流量”作一個相對直觀的區分。
加密市場中“對抗性算法”誘騙 HFT 有多常見?
Jeff Yan:Crypto 確實帶有一種“西部荒野”的氣質。換個更積極的角度看,Crypto 也是一場實驗,而立場與視角在其中尤為重要。監管者往往會抓住一點不放 — — “他們沒有遵循我們精心制定的證券法”。而 DeFi 的支持者則會認為,這些證券法本身很可能帶有遊說與人為判斷的烙印;加密或許提供了一種更偏自由意志主義的實驗空間:究竟哪些事物必須被監管?我也並不確信,現實大概率介於兩者之間。我並非監管者或政策制定者,這裡只是分享一些偏哲學層面的觀察。回到實務層面,如果你不重視那些帶有操縱與攫取性質的策略,在加密市場開展交易將會非常吃力。
另一個現實是,並非交易所不願監管,而是很多時候並不清楚究竟應由誰來監管哪一家交易所 — — 至少對我而言,這一點並不明晰。許多法律框架在不同國家之間差異顯著,這或許也是問題長期存在的重要原因之一。並且,運營一家交易所本身就極具難度,他們還需要同時處理大量其他事項。
舉一個更具體的例子:spoofing(誘騙掛單/虛假申報)是一類非常常見的行為。我不打算在此糾纏其在美國證券與期貨法中的嚴格技術定義;這裡所說的 spoofing 更偏向寬泛含義:從訂單簿及隨後形成的價格軌跡中,你往往可以清晰觀察到,有人掛出巨量訂單,但顯然並無真實成交意圖 — — 甚至一旦成交,他們反而會感到不利。儘管在法律層面很難證明其“意圖”,但這些掛單顯然並非為了成交,而是為了製造某一側掛單極為充沛的假象。其結果是:若某些算法將訂單簿流動性視為價格走向信號,就可能被誤導,進而在相應方向下單。待“誘導”生效後,spoofing 算法接下來要麼掛出更易被擊中的 maker 單,要麼主動吃掉那些在誘導下暴露出來的被動掛單。
這類情形非常常見。另一個更為直白的,則是各類市場操縱行為,例如“拉高出貨”的組織化圈子。
出於觀察,我曾潛伏過幾個此類群體,從未參與交易,僅作旁觀。這類現象的規模不小。近來相關行為確實被清理了不少,這是一件好事;但在早些年,它們甚至能夠製造誇張的成交量:某個“內圈人士”宣佈一隻代幣,隨後零售用戶迅速湧入(其組織方式我亦不甚瞭解),內圈人士則藉助流量完成出貨。對高頻交易而言,這類場景表面上似乎可以應對,但實際處理難度很高,因為強烈的均值迴歸效應往往會反向“誘殺”策略。
至於應對方式,又回到你此前提出的基礎設施、模型與策略之間的取捨 — — 精力究竟應投入何處。對我而言,這一類問題屬於必須覆蓋的“雜項/特殊場景”,也可歸入風險管理與特殊情景處置。
簡言之,若不完成這部分工作,即便其他環節做到近乎完美,在不同市場狀態與不同標的上,這一塊仍可能成為決定長期平均 PnL 成敗的關鍵因素。
Jeff Yan:我們最初遭遇這類情況時,確實感到震撼。回想起來,我們當時算是幸運:起初交易的標的要麼不易被操縱,要麼對方尚未來得及下手。我們完全沒有預見到這一問題,在“無知”的前提下搭建了系統,Pnl 一度進展順利。但一旦中招,衝擊會非常劇烈 — — 如果不對策略進行約束,可能在一分鐘內虧掉一天的 PnL。有時自動化交易反而是最“愚蠢”的交易,因為它本質上只是一個缺乏人工裁量的有限狀態機,只會按預設路徑執行。我們的應對方式相當務實:當然,你可以坐下來細究、建模,去預測是否存在操縱;但我們當時的一項優勢,是反應極快、以數據為依據,不執著於“最規範”的路徑。對我們而言,做法就是 — — 一旦出現特定虧損模式,便直接關停相關邏輯;
Jeff Yan:這類規則往往在一小時內就可以完成編寫,並直接上線到生產環境。當時我們嚴格遵循 80/20 原則:確實會因此錯過一部分機會,但也由此騰出了時間與精力,用於擴容與推進那些能夠將 PnL 放大 10 倍的關鍵事項,而不是被這些問題持續牽制。可能有約 5% 的時間,我們會因關停而放棄潛在收益,但這本質上是取捨與判斷 — — 將資源投入到最具價值的工作上。
隨著後續資源與時間更為充裕,我們才逐步將這一塊做深:目前已經具備更復雜的模型,用於預測相關市場狀態並識別正在發生的行為;相較早期較為“離散”的開/關處理方式,如今我們更多采取連續化的參數與權重調整,對策略進行動態約束與自適應配置。
截至目前,我們對這類操縱行為的運作方式及其可識別特徵已形成較為深入的理解。但仍需強調:對新入行者而言,80/20 原則依然是最重要的行動準則。
市場操縱是否更多發生在長尾幣種與小交易所
Jeff Yan:在任何交易所,比特幣與以太坊上出現這類情形都相對少見,因為它們的流動性更為充足。我認為,這更多取決於資產本身,而非交易所。幾乎所有交易所我都見過(操縱/誘騙)行為;不同平臺上手法有所差異,你能感受到參與者並不完全相同,但整體套路大體一致。
其中存在一個“甜蜜點”:若某個代幣幾乎沒有成交量,通常不值得投入;但對於部分具備一定成交規模的山寨資產則不同 — — 算法會在其上預期存在一定成交與流動性,於是便可能出現“可被誘導”的空間,從而使操縱者能夠從中獲利。
Corey Hoffstein:我一直認為,我們觀察市場的方式往往受制於自身的交易週期。你作為高頻交易者,對微觀結構的直覺可能與我這種持有周期更長、偏基本面的人很不一樣。你曾發過一條推文,將市場比作一種黏性流體,外部衝擊在價格發現過程中會以阻尼振盪的方式呈現。我覺得這個比喻很有意思,能否進一步展開?
Jeff Yan:我同樣重視對事物本質的理解。這大概與我的數學與物理背景有關 — — 若未能理解其內在機制,我很難在一個“黑箱”體系上進行創新。因此我傾向於構建一些心智類比與比喻,以幫助理解市場如何運作。
以“黏性流體”的模型為例,可以先回到一個更基礎的問題:高頻交易為何能夠賺錢?不少散戶會將其視為一種“掠奪”,例如認為我們在“搶跑”或“獵殺止損”。我並不是要宣稱高頻交易是在“行善”,但我認為它確實在一定程度上為市場提供了必要的服務。
可以將外部影響價格的因素抽象為對系統施加的“衝擊”(對我們而言,這在很大程度上具有隨機性):例如,有人短期內急需成交、必須立刻獲取流動性;或是新聞事件改變了資產的“公允價值”。儘管有人會嘗試解讀事件本身,但這類需求往往是突發的,且通常“成交後即退出”。訂單簿本質上是一個強 PvP(參與者相互博弈)的場域,許多參與者帶著明確的執行緊迫性入場;並且會形成反饋循環:動量交易觸發更多交易,進而催生多種不穩定均衡。
在這種結構下,價格往往先經歷一次幅度最大的初始衝擊,隨後市場參與者才逐步“進場”並圍繞真正的公允價(fair)展開博弈。第一跳通常最大;之後會有人判斷“出現過沖”,據此進行均值迴歸交易 — — 既可能來自中頻,也可能來自高頻參與者,例如認為“未來 5 秒的均值上價格將回落”。與此同時,也會有人認為事件影響深遠,從而選擇順勢推動價格持續上行,直至出現更大幅度的漲幅;例如“Elon 將 Doge 納入 Twitter”這類事件,在其敘事框架下可能被視為“具有真實影響”,從而反過來擊穿均值迴歸一側的頭寸。
整體而言,這更像是一場以真金白銀進行的“價格投票”與持續博弈。其關鍵特徵在於:波動幅度會逐步收斂。隨著參與者逐漸建立其目標頭寸,資金不斷完成加權平均,價格最終趨於收斂至更穩定的公平價區間。
在這一過程中,高頻交易的核心功能仍是以低買高賣的方式提供流動性。若將價格路徑視為一條上下波動的曲線,高頻交易在曲線偏低時買入、偏高時賣出,其交易衝擊在平均意義上會對該曲線產生平滑效應 — — 促使價格更快向公允價貼近,並在價格形成過程中儘量圍繞公允價運行。
因此,在這一類比框架下,高頻能力越強、市場流動性越充足,這團“流體”就越表現為更高的黏性(阻尼更強)。這一心智模型未必嚴密,但大體上即為我那條推文所意圖表達的含義。
為何高頻交易的 P&L 能預測中頻價格變動?
Jeff Yan:這是我們內部的一些“探索性想法”。我此前提到過,圍繞已被驗證有效的方向進行迭代,幾乎總是更優:命中率更高,也更容易實現規模化。但我們也會為少量更大膽的探索保留空間,偶爾它們確實會產生效果。這一次就是一個相對成功的“興趣項目”,在立項之初,我們並沒有很強的先驗判斷。
其動機主要在於:我們的可用資本規模已超過高頻策略能夠有效承載的容量;我們雖已接入多家交易所,但這更多屬於常數項層面的擴張,且邊際收益持續遞減 — — 因為後續接入的平臺體量越來越小。於是我們開始思考:是否可以將觸角延伸至中頻領域 — — 理想狀態下,那將是夏普率 3–4,且容量可達到高頻策略數百倍的“理想資產”。這一設想聽起來極具吸引力。
不過,我們總體上認可有效市場的基本框架。是的,我們在高頻上具備優勢,但如果給我們一組日度數據、要求我們預測日收益,我們也很難直接找到可靠的切入點。基於這種審慎態度,這個“腦洞”為我們提供了一條相對可行的路徑:在中頻交易中,若能獲得對他人有價值但他人無法獲取的數據源,本身就可能形成策略優勢。我們不可能像一些機構那樣獲取衛星圖像、統計停車場車流等“另類數據”。那麼,我們真正擁有的是什麼?我們擁有自身的 HFT PnL — — 這是一項私有數據,而且顯然並非隨機噪聲,從其時間序列形態就能看出某種結構性特徵,因而值得進一步研究。
進一步追問,它與哪些因素相關?回到此前關於“有毒流量與零售流量”的討論,它與零售流量高度相關。一個相對樸素的先驗是:若你能夠區分市場參與者類型並理解其行為模式,往往就能獲得較好的信號。整體的先驗當然仍是“多數信號缺乏穩定預測性”,但方向並不必然明確。因此我們的思路是:既然我們擁有這一指標,且它與零售流量相關,而零售流量又在概率意義上與價格形成相關 — — 那麼就應當將這條路徑真正做透,並進行嚴肅的分析驗證。
Jeff Yan:我們確實做了這項分析。總體思路是:將一系列以 P&L 為核心的特徵(例如 P&L 的變化量、P&L 的“導數”等)納入迴歸框架,用以預測中頻尺度上、不同時間窗口下的價格表現。起初我們也不確定中頻研究應如何落地,因此採取相對“寬覆蓋”的方式:先從 5 分鐘收益入手,再將時間尺度逐步擴展至數小時。
Jeff Yan:研究主要依託我們內部看板的數據體系,該體系能夠彙總不同策略在不同交易所、不同標的上的 P&L,並支持按交易所/策略/品種等維度進行切分。由於數據噪聲較大,需要進行較為穩健的處理;顯然,我們不會直接用單一幣種的 P&L 去迴歸該幣種的中頻走勢 — — 噪聲過高、可解釋性也有限。我們基本遵循 80/20 原則,通過分桶與分組等方式,在儘量避免明顯過擬合、並遵循既有先驗的前提下,得到一個相當有趣、且與直覺相反的結論:
無論是做市還是吃單,高頻側的 PnL 與加密資產後續回報呈顯著負相關,且效應強度並不弱。我們在嘗試進行實盤捕捉時一度非常興奮:在 1–2 小時的預測窗口內,該效應的量級大致達到數十個基點,並且容量較高。
但問題在於:該信號幾乎只在提示做空,而缺乏對稱的反向效應(理論上或許存在,但我們的策略迭代會避免長期處於持續虧損狀態)。換言之,當我們賺錢時,模型給出的含義更接近於:應當做空。
Jeff Yan:那麼,究竟做空什麼?直覺上應當是做空永續合約或期貨。但在具體落地時,會遇到兩個現實約束。
第一是資金費率。當這類情形出現時,許多成熟參與者往往也在做空;即便各自關注的底層信號不同,alpha 之間也可能高度相關,市場行為趨於同向,資金費率會反映並吸收這一部分擁擠程度。
第二是信號最“顯著有效”的個別標的往往屬於極端樣本,而這些標的在實際操作上反而難以做空,原因可能包括流動性不足、可借券受限、合約工具不完備等。
儘管如此,整體效應仍然具有可用性。高頻交易天然會形成庫存,你可以在策略之間進行內部對沖或內化;即便不採取內化方式,也可以在信號最強時對庫存目標施加偏置(例如儘量降低持倉或避免持倉),從而對總體 P&L 產生正向貢獻。
就“單獨抽象出一條可複用的中頻空頭策略”而言,我們認為其說服力不足,因此並未將其包裝為獨立策略。這也屬於最接近能夠公開分享的那類 alpha;但具體是否可執行,仍取決於你的策略組合與交易流程設計,它完全可能在特定體系下轉化為可落地的 alpha。
Corey Hoffstein:我很喜歡這個思路:直接在期貨上做空未必可行,因為資金費率可能已將信號部分價格化;但通過調整庫存偏置來承接這一 alpha,是一種替代路徑,並能對 P&L 產生實質性影響。
這讓我聯想到我所處頻段的一些做法 — — 以 DFA 為例,他們並不顯式交易動量,但在買入價值股時會剔除動量顯著偏弱的個股:並非將動量作為因子直接建倉,而是在完全不同的時間尺度上,等待負動量階段消退後再介入價值。這與這裡的邏輯相近:將理論上“正交”的 alpha 不作為顯式頭寸表達,而是融入交易流程中,通過邊際優勢與細微改進持續提升結果。這一概念很有啟發。
Jeff Yan:補充一點。你剛才的例子很有意思,我此前並未接觸過,但我確實聽過一些以大倉位交易為主的“人工盤手”提到類似做法:在加密市場中,只要 50 日均線與某條均線出現“金叉/死叉”,他們就會觸發相應動作。其含義是:其核心決策並不依賴技術分析,但當某個技術條件出現時,會將其視為執行觸發器。我並未專門研究你提到的那一案例,但它讓我聯想到同類方法 — — 等待一個自認為相對可靠的“條件信號”發生變化,再執行既定交易流程。
Corey Hoffstein:是的,本質就是等待某個條件信號發生改變。很有意思。我們前面談了很多中心化交易所,但對鏈上策略/去中心化交易所涉及不多。你提到過,你最喜歡但後來已經停用的一類鏈上策略是做 RFQ。能否解釋一下:它是什麼、為什麼你當時非常喜歡且效果很好、以及後來為何停止?
Jeff Yan:大約半年前,我們開始加大在 DeFi 方向的投入。當時業內普遍認為,最好的機會正在向鏈上遷移,而中心化交易所這邊已進入邊際收益遞減階段(整體成交活躍度偏低)。因此我們決定投入更多時間研究 DeFi。那段時間,RFQ(Request for Quote,詢價/報價)形成了一波熱潮。CrocSwap 的 Douglas 最近也發表過幾條頗有意思的推文,我在很大程度上同意他的觀點:這一設計並不理想 — — 它在嘗試將傳統金融(TradFi)中有效的機制直接移植到 DeFi,但未必契合鏈上環境。
為便於不熟悉的聽眾理解,先補充背景:RFQ 的出發點是較為清晰的 — — 幫助做市商過濾“有毒流量”,並讓零售用戶能夠與做市商直接對接。零售用戶發起請求:“我是零售用戶,請給我報價。”做市商返回一個報價(通常優於盤口點差,或至少能夠滿足零售用戶希望成交的更大規模)。零售用戶拿到做市商簽名的報價後,將該簽名載荷廣播至智能合約;合約驗證簽名有效後,完成雙方資產結算。其本質更接近一套“協議化的 OTC”機制。
其設想聽起來確實合理,在傳統金融(TradFi)中也較為常見:用戶可以獲得更大規模、且不易被高頻交易“前置”的成交,對零售端而言屬於更好的服務。但在 DeFi 語境下,這幾乎是一個顯而易見的缺陷設計,因為你無法證明對方確為“散戶” — — 鏈上默認匿名,且不存在 KYC 這一層身份驗證。
為驗證這一判斷,我們寫了一個極簡的 Python 腳本,批量發起詢價請求。結果做市商確實給出了極優報價:價差大約僅 5 個基點,且報價有效期為 60–90 秒。多數情況下,從做市商視角看,獲得這樣的成交本應是有吸引力的;其願意給出的成交規模也相當可觀(十萬美元級別)。但這也直接暴露了機制缺陷:在一個無法驗證身份、默認匿名的系統中,任何人都可以偽裝為“散戶”,反向利用報價機制獲取優勢。這也是我們當時為何一度非常喜歡、但又很快停止使用這類鏈上 RFQ 策略的根本原因。
Jeff Yan:我們的操作方式其實很簡單:先等待價格出現波動。加密市場本就波動較大,一旦價格發生變化,我們就將那筆已經簽名的交易廣播上鍊。對手方能做的有限。該策略的夏普率非常高。進一步說,甚至不必等待價格波動才觸發 — — 其本質更接近一張“免費期權”,且帶有明確的時間價值:你可以一直等到報價接近到期的最後時刻,再決定是否提交成交。
Jeff Yan:這也使得收益更為穩定。我們當時就是這樣執行的。顯然,我們並非唯一這樣做的參與者(也可能是之一),做市商很快便作出反應:開始停止向我們提供正常報價,理由是“你們在讓我們虧錢,你們顯然不是散戶”,於是要麼給出極寬價差,要麼乾脆不再報價。對此我們也可以應對,例如更換地址、更換錢包繼續請求。
從原則層面看,我並不認為這種策略本身存在問題。更像是一個現實層面的顧慮:我們執行這一策略的最大價值,可能在於向市場證明 RFQ 的微觀結構設計存在硬傷 — — 資本與智力資源應當轉向更合理的機制。也許在這一意義上,我們的“實驗”已經完成了其功能。
我理解目前許多 RFQ 機制已引入做市商的 “last look(最後看價權)”,而非讓“散戶”保有最終決定權。正如你所說,我們後來也停止了這類策略。我確實認為這是一種演化;但一旦給予做市商 last look,RFQ 的核心優勢基本會被削弱甚至消失。這一點在 Twitter 的相關討論中也能看到:要在機制層面優於中心限價簿(CLOB)非常困難,我並不認為 RFQ 能在 DeFi 中穩定實現這一點。上述經歷也進一步說明,在我們反覆試錯之後,愈發感到該賽道仍不成熟,許多協議的機制設計並未充分想清楚。
在這一背景下,我們當時作出了一個戰略判斷:與其在既有機制上進行“套利式適配”,不如由我們來構建一個真正面向零售用戶、能夠實現去中心化價格發現的平臺。
為何轉向 Hyperliquid
Jeff Yan:我們之所以決定親自下場去做,是因為在 DeFi 交易過程中產生了強烈困惑:即便在 2022 年年中 DeFi 低迷期,零售流量依然可觀,但用戶卻在使用體驗極差的協議。他們在底層公鏈性能不佳的情況下支付高額 Gas,同時還在使用機制設計並不理想的方案(例如 RFQ)。更令人意外的是,用戶確實願意繼續使用;從數據層面也能清楚看到 — — 需求始終存在。基於這一判斷,我們進一步深入調研。
我不太記得 FTX 事件在這條時間線中的準確位置,但應當是在其暴雷前不久。FTX 崩盤之後,市場敘事迅速轉向對手方風險:“Not your keys, not your coins”這類過去更像口號的表述,突然成為多數人最關切的問題。這進一步強化了我們“應當構建某種基礎設施”的信念。但具體要構建什麼,我們也曾反覆權衡:首先需要弄清用戶的真實需求,以及市場中尚未被滿足的空白。
彼時市場上已有大量 swap 的克隆版本,各類小幅創新與聚合器層出不窮,不同曲線與公式帶來了巨大的參數空間。然而我們對 AMM 路線並不樂觀:相當一部分所謂“做市”所形成的流動性,更多是被錯誤或誤導性的敘事驅動出來的低質量流動性(例如對“無常損失”的表述方式、以及流動性挖礦遺留效應)。即便 AMM 確實代表市場的主要需求,這條賽道也已高度擁擠,我們再推出一個同類產品,能夠提供的增量價值並不清晰。
因此我們轉而回到中心化交易所去觀察:用戶真正需要什麼?價格發現主要發生在哪裡?有效流動性集中在哪裡?答案高度一致 — — 永續合約。永續本身是一項極為巧妙的創新(其思想最早可追溯至傳統市場,但在加密市場被充分發展)。而在去中心化領域,真正以去中心化方式提供這一能力的項目幾乎不存在。dYdX 雖然採用訂單簿形態,但撮合仍偏中心化;它是最接近的一類方案,但也僅止於此。我們的結論是:既然缺口明確,那就由我們來做。
面向交易者的價值主張也很直接:如果你認可 Binance、Bybit 這類中心化交易體驗,但又不願承擔託管風險 — — 那麼 Hyperliquid 試圖提供的正是這種選擇。
Hyperliquid 近期已啟動封閉內測,其目標是提供與中心化交易所(CEX)一致的交易體驗:點差足夠窄、成交確認近乎即時、Gas 成本幾乎為零(僅用於防禦 DoS)。在無擁堵條件下,其區塊鏈可實現每秒處理數萬筆訂單。所有行為全程透明、全部上鍊,所有操作均以鏈上交易記錄呈現 — — 這就是我們所追求的願景。
我們的首要目標用戶是DeFi圈,因為向更廣泛人群灌輸“你可以不用託管機構、把信任交給鏈上合約”的教育成本很高,也不是我們的特長;而DeFi用戶今天就願意用。我們要做的是向他們證明:在眾多協議裡,大多數並不嚴肅,有些只是權宜之計/創可貼式方案,或基於本地價格的臨時機制 — — 適合賭徒,但並不適合需要真實流動性與可靠價格發現的嚴肅交易者。我們要提供的,是可用的流動性與去中心化的價格發現機制。
區塊鏈與智能合約本身可以承擔託管與結算職能,並在機制層面建立可驗證的信任。但這一觀念的推廣並不容易,也非我們所長。我們的策略更直接:以產品與事實展示差異,讓用戶看到在繁雜的協議選擇中,多數方案並不嚴謹,許多隻是短期補丁(其中一些甚至僅基於本地價格)。這類機制或許更適合“Degen 式”參與,而不適合需要穩定交易體驗與真實流動性的專業交易者。
Hyperliquid 的不同之處在於:我們從設計之初即圍繞上述需求展開。為此,我們在技術上做了大量創新,並投入了一個季度的大部分時間進行集中開發。起初,我們也一度被 dYdX 的路徑所吸引:鏈下撮合、鏈上無託管結算。但在進一步推演後,我們認為該模型存在結構性缺陷 — — 一個系統的去中心化程度,取決於其中最中心化的那一環。基於這一判斷,我們無法接受該方案,因為它難以擴展至我們設想的規模與願景。
因此,我們回到原點:必須實現完全去中心化。在我們的約束條件下,這幾乎意味著別無選擇 — — 只能自研一條公鏈。我們不傾向於繞行,也不盲從既有結論。外界普遍認為自建 L1 難度極高,我們的處理方式是先集中解決共識問題。Tendermint 並不完美,但其成熟度高、經過大量實戰檢驗。我們選擇在其基礎上構建,並由此推進到當前階段。
為何 Hyperliquid 選擇自建 L1,並將其視為關鍵的“縱向集成”決策
Jeff Yan:過去幾年,L1 已成為行業中的重要敘事,許多大額投資也圍繞其展開,例如 Solana、Avalanche 等所謂的 L1 項目。概念本身其實並不複雜:L1 指的就是一條區塊鏈本體。與之相對的是“基於智能合約的實現路徑” — — 即在另一條既有的 L1(例如以太坊、Solana)之上,通過智能合約實現交易所邏輯,並由該 L1 負責執行與結算。
這一點之所以重要,在於其中存在較為微妙的激勵結構。許多團隊願意“建在某條 L1 上”,部分原因是這樣更容易獲得持有大量代幣的 VC/基金的支持與宣傳資源;而通用型智能合約 L1 的價值亦依賴應用生態承載,因此它們天然傾向於吸引開發者“基於我來部署合約”。相較之下,以 Tendermint 為基礎的 Cosmos 系鏈更接近自我主權(self-sovereign)模型 — — 缺乏強烈的外部激勵去推動其擴張,價值也並不直接回流到某個單一主體。
就我的親身體驗而言(兩條路徑我們都嘗試過),很難想象僅將既有 L1 作為通用合約平臺,就能構建出真正高質量的交易所,尤其是在衍生品場景、尤其是在訂單簿模式下。某種意義上的“旁證”是 dYdX:作為公認的先行者,其在運行五年後也選擇轉向自建區塊鏈。他們的動機或許包含法律層面的壓力(我只能推測),但無論如何,其當前運行的架構顯然並非完全去中心化;待新鏈就緒後,舊架構也將逐步退出。對我們而言,若目標是打造一套真正高質量的交易所,走 L1 路徑才是更為正統且可擴展的方向。
舉一個更具體的例子:如果將交易所完全實現為“智能合約”,就必然受到基礎合約平臺規則的強約束。以以太坊為例,交易與狀態更新通常需要由用戶交易觸發。於是,對於永續合約交易所最基本的運營動作之一 — — 例如每 8 小時結算資金費 — — 一旦系統中存在 10 萬個在持倉的“會話/倉位”,需要更新的存儲槽數量在單個區塊內根本無法容納。你就不得不額外設計一套“由誰觸發資金費結算”的機制:可能需要拍賣觸發權限,設計激勵與費用分配,向觸發者補貼 Gas 成本等。更關鍵的是,這一過程往往無法原子化完成,最終實際效果就會變成“約每 8 小時結算一次”,但具體執行時點取決於當時參與者活躍程度,可能延後數分鐘。對於策略交易者而言,很難圍繞這種不確定性建立穩定的執行與風控框架。
而這類操作對所有永續合約交易所而言都屬於“基礎動作”。如果在自研鏈上實現,則可以顯著簡化:將資金費結算邏輯寫入共識協議即可。例如規定:當新區塊產出且其時間戳恰好滿足自創世起每 8 小時的整數倍時,系統自動觸發資金費結算並執行相應邏輯,整體實現會更直接、更可控。換言之,運營一家永續合約交易所,在工程本質上更接近於構建一條 L1,而不僅僅是編寫幾份智能合約。
為什麼 Hyperliquid 認為訂單簿 DEX 優於“費率分層”的流動性池模式?
Jeff Yan:費率分層這一點確實頗具代表性。你會看到,不少 AMM 正在緩慢地向訂單簿形態“進化”。對許多 DeFi 從業者而言,這難免帶來挫敗感 — — 彷彿最終仍在重造輪子。過程中或許會產生局部創新,但從更底層的結構看,流動性池模型既有其“巧妙”之處,也帶有某種近似“被過度包裝”的意味。
之所以如此,是因為 AMM 在很大程度上源自當年的計算與存儲約束。回到 2018 年(Uniswap 剛出現的階段),鏈上可承載的算術運算極為有限,一筆交易往往只能更新極少量的存儲狀態,用戶也無法接受過高的 Gas 成本。AMM 正是在這種算力與存儲高度受限的環境下,為了“勉強可用”而形成的折中方案。
它之所以能運轉,某種意義上依賴於說服資金進入池子提供流動性。與此同時,將無常損失包裝為一套營銷敘事,在我看來是一種非常高明、但也值得質疑的做法:向零售用戶強調“存進去不是交易,而是在獲得收益”;即便可能產生損失,也被解釋為“無常”的、可被忽略的成本。這種敘事是否充分揭示了風險,至少存在討論空間。
從交易者視角看,AMM 池子的套利機會在機制上相對顯性:圍繞這些池子進行套利可以獲取收益。如今這類交易已相當擁擠,但在早期階段,它確實曾是具備明顯正期望的策略。與訂單簿市場不同,池子的流動性提供者往往並非專業做市商,而更多是零售 LP。許多人將資金放入池中後長期不再管理,依賴所謂“挖礦收益”維持參與。若缺乏有效管理與風險認知,在長期維度上,其期望收益可能並不理想,甚至可能持續被動承受不利選擇帶來的損耗。
“流動性挖礦”在早期通過激勵強行拉入了流動性;當激勵衰減後,部分資金可能仍停留在池中,甚至存在參與者對自身敞口缺乏持續關注的情況。這一結構本身難言可持續。有人可能反駁說“成交量依然很高”,但在你的論述框架裡,這更可能與激勵與營銷機制有關,而非長期均衡下的自然結果。長期均衡中,真實可承受的流動性可能逐步下降,直到 LP 為覆蓋不利選擇所付出的隱性成本,被迫將費率抬升至更高水平;而費率一旦升高,零售流量又會被進一步抑制,從而形成負反饋循環。
在那種“實際可承受”的流動性水平下,若將收益與風險成本進行核算,結果往往並不理想。這也是我認為資金池模型難以長期成立的根本原因之一。
其所謂“升級版”可以理解為 GMX 及一系列“GMX 克隆”:它們不再依賴恆定函數曲線,而轉向採用預言機價格。為了使交易發生時的預言機讀數儘可能貼近“真實價格”,這類協議往往會設置諸多限制與權宜設計。然而即便如此,相關問題仍頻繁出現 — — 例如,有人先在中心化交易所操縱價格,再在 GMX 上針對已被操縱的預言機報價進行交易獲利。就機制層面而言,這些手段本質上仍更像是“止痛貼式”的補丁,而非從根本上解決價格發現與對手方信息優勢的問題。
在我看來,隨著近年在 L1 共識等底層技術方向的進展,我們終於不必再在“去中心化”與“可用交易形態”之間作出過度妥協:既能保持去中心化,又能夠承載訂單簿式交易。基於經驗,這幾乎是唯一被充分驗證、能夠實現真實價格發現並形成“真實市場”的路徑。
自建 L1 是否會因跨鏈與法幣出入金而拖慢價格發現
Jeff Yan:這確實是整個加密行業的共性問題,並不侷限於 DeFi。即便在中心化交易所做套利,資金的充提鏈路仍運行在公鏈之上,一旦鏈上擁堵,轉移效率就會顯著下降。我們起步階段選擇聚焦永續合約,本質上是一次 80/20 的取捨:市場絕大部分交易量與價格發現都集中在永續上。在此基礎上再做一次 80/20,就是先統一採用 USDC 作為保證金,把核心路徑打通;後續再逐步引入多種穩定幣以分散風險,並不困難。對多數用戶而言,這一模式更順暢:將 USDC 存入橋/鏈/合約體系後,即可在同一處對大量加密資產表達觀點並進行交易。
就高波動資產的觀點表達與價格發現而言,只要具備抵押品,就能夠建立頭寸並實施套利。典型場景是現貨 — 永續套利:獲取資金費並交易期現價差。在這一結構下,永續端完全可以在 Hyperliquid 上完成,而無需頻繁搬動現貨或 USDC。
當然,跨鏈問題本身仍需持續關注。當前已有不少值得關注的全鏈技術方向;我們已集成其中部分方案,並會持續支持相關演進。由於資源與優先級約束,我們不會親自投入多鏈基礎設施的“原始創新”,但終極目標是明確的:資產可來自任意源鏈,並通過可信最小化或去中心化的橋接方式抵押進入,從而直接作為 Hyperliquid 的保證金使用。
目前,無論通過 UI、Python SDK,還是直接調用原始 API 試用 Hyperliquid,端到端延遲大致在 100–300 毫秒之間;由於出塊存在隨機性,該數值並非完全確定。你可能會認為這比 Binance 的下單延遲慢一個數量級。但延遲的影響並非像手續費那樣線性累加;就我們優先服務的核心用戶群體 — — 零售用戶 — — 而言,人類在 100 毫秒與數十毫秒之間幾乎難以穩定分辨差異。
即便能夠分辨,多數情況下也並不構成關鍵因素;他們更在意的是獲得“即時”的交互反饋。在通常市場環境下,價格在 100 毫秒與 10 毫秒之間並不會發生實質性變化。
對絕大多數交易場景而言,這部分由區塊時間引入的延遲可以近似視為零,因此通過運行自研 L1 基本可以將其控制在可接受範圍內。相較之下,Ethereum 等鏈上超過 10 秒的確認時間會顯著損害體驗 — — 價格在 10 秒內可能發生較大波動。並且,從用戶側看,延遲改進的收益存在明顯的邊際遞減。就訂單簿速度而言,更關鍵的指標反而是 TPS;對應到去中心化交易所,具體就是每秒可處理的下單、撤單等操作數量。
確實,相較 Binance 等中心化交易所,去中心化交易所的吞吐往往會低一個數量級。
但在我看來,這一差距並不必然構成實質性問題 — — 計算能力持續提升,而當前性能在工程意義上已經“足夠好”。我並不知道 Binance 撮合引擎的確切指標,假設其可處理 1,000,000 筆/秒,而我們自研 L1 的目標是 100,000 筆/秒,這並不能簡單推出“Binance 好 10 倍”的結論。協議完全可以有意識地將上限設計在 100,000 TPS,這仍然足以支撐所覆蓋資產的價格發現與大部分用戶需求。的確,在極端波動時期,部分頻繁重下單可能會延後數個區塊,甚至十個區塊才被鏈上處理。
但類似現象在中心化交易所同樣會發生。因此,儘管數值上存在“一個數量級”的差距,卻未必對應“一個數量級”的成本後果。
相反,如果將比較對象換成通用智能合約鏈,其吞吐可能只有 10 TPS,那麼 10 與 100,000 之間的差距就會變得決定性。此外,這不僅是 TPS 的問題,也涉及工程取捨。dYdX 一直強調鏈下訂單簿路徑 — — 據我瞭解,即便在 v4 版本中,其計劃仍是由驗證者各自運行訂單簿,僅將結算放到鏈上。
理論上,這或許能帶來一個數量級的 TPS 提升,但代價也相當高。會顯著放大 MEV 空間,同時也會讓“何為事實”變得更為含混 — — 在我看來,訂單簿應當被視為系統狀態的一部分;將其置於鏈下,會使系統整體更難推理、也更難驗證。因此,我更傾向於接受少數幾個數量級的性能折損,以換取魯棒性、韌性與透明度的顯著提升;在我看來,這些收益遠大於成本。
再補充一點:我們也對最新的共識研究進行了系統調研。可以預見,共識將成為系統的主要瓶頸,但近年的新成果非常多,方向也很有價值。Tendermint 的確相對“老”,其核心思想至少已有十年曆史。學界在相關問題上積累深厚,只是許多較新的共識協議尚未達到可生產級。因此,我們目前選擇 Tendermint 作為階段性方案,但除共識之外的部分幾乎全部自研:不依賴 Cosmos SDK,而是使用 Rust 從零實現高性能組件。
與此同時,我們已經完成了相關研究並會持續跟進。對我們而言,一旦出現更優且達到生產級的共識協議,將 Tendermint 替換為新方案的遷移成本並不高;在條件成熟時,我們預計至少可以獲得 10 倍的性能提升。我們對技術路徑保持樂觀:目前自研部分與 PoC(概念驗證)均已就緒,基準測試數據也表現良好。若非確認平臺能夠承載目標負載,我們也不會推進當前的市場推廣與用戶增長。
我所關注的是掌控、意志、成功、行動與決心 — — 這與我們“以做事立身”的方式高度契合,也使我們與許多團隊拉開差距。我們設定的目標往往並不“保守”:例如,“能否在完全去中心化的前提下,做出一個不犧牲體驗的 Binance?”多數人可能會認為這至少需要五年。但我們不預設結論,而是從第一性原理出發研究,並將其真正工程化落地。這種意志與執行力對交易同樣關鍵:你既要有取勝的意願,也要有盈利的動機;缺少任何一項,都很難走到最後。如今我們在建設一個更大的系統,這種“戰車式”的推進方式就更重要 — — 市場確實需要它,但少有人願意承擔,部分原因是這件事本身確實很難。我們的選擇很直接:由我們來做。






