今日
情報
市場
賺取
設定
帳戶
主題選擇
普通主题
深色主题
語言
English
简体中文
繁體中文
Tiếng Việt
한국어
Followin APP
發掘 Web3 新機會
App Store
Google Play
登入
Sam Lehman
642個推特粉絲
關注
@SymbolicVC & @0xbeaconcom | @MITSloan | @BrownUniversity. VC, web3, cooking, @ChelseaFC and coaching @usaultimate, @digultimate & @bostongloryufa.
動態
Sam Lehman
02-04
為什麼選擇數獨? 數獨測試的是約束滿足性,而邏輯邏輯模型(LLM)無法勝任。 邏輯邏輯模型擅長處理語言問題,但機器人和工業控制系統問題並非如此。 因此,我們創建了一種全新的架構,它構成了 Kona 基於能量的推理模型的基礎。
Sam Lehman
02-02
我們採用了全新的架構!Kona 1.0 是一個無標記推理模型,它不基於任何編程語言。
VraserX e/acc
@VraserX
02-02
Yann LeCun says language isn’t intelligence. Predicting text doesn’t mean understanding reality. The real world is messy, physical, and causal and today’s LLMs barely touch that. The next leap is Physical AI: world models, cause and effect, real planning. Do you think LLMs can
Sam Lehman
01-30
當世界最大的公司向大型語言模型投入數千億美元時,總部位於舊金山的邏輯智能公司正在嘗試一些不同的方法,以追求能夠模仿人腦的人工智能。
SAN
1.83%
Sam Lehman
01-23
最優秀的公司往往誕生於熊市。 @BitGo 就是最好的例證。 恭喜 @MikeBelshe 和 BitGo 全體團隊成員(包括現任和前任),今天成功上市。能與你們共事是我的榮幸。 在此提醒世人:數位資產必將長期存在,而基礎設施也已準備就緒,這要歸功於像 @BitGo 這樣的公司。
Sam Lehman
01-14
在Athronomic的第一天,你就要宣誓永遠效忠人類。新兵們被迫觀看七個小時殘酷的二戰影像,同時克勞德會監測你的腦電圖。如果你在任何時候產生“黑丸”意識,就會被視為厭世者並被開除。
ANTHROPIC
0.89%
Sam Lehman
01-12
@logic_int 剛剛用 PutnamBench 跑滿了!這對數學的影響是深遠的,但我更興奮的是像 Aleph 這樣的智能體憑藉其獨特的能力,能在更廣泛的代碼生成領域帶來哪些突破。更多相關內容敬請期待…… twitter.com/SPLehman/status/20...
VIS
4.46%
Sam Lehman
12-11
Pantera 非常高興能夠領投 @SurfAI 的 1500 萬美元投資,以打造領先的加密貨幣人工智慧助理。 我們認為,如今的加密貨幣存在教育問題——鏈上研究意味著要使用 Dune 控制面板、區塊掃描器和 API 等各種雜亂的COMBO。這種方式難以實現大規模普及。
Sam Lehman
12-11
Surf 已為超過 8 萬名用戶提供了 100 多萬份研究報告,幫助他們用值得信賴的專業人工智能 (AI) 取代通用型學習模型 (LLM)。 今天,我們很高興地宣佈,我們已籌集 1500 萬美元,用於擴展首個專為加密貨幣市場打造的 AI 模型。 (1/6)
Sam Lehman
12-10
研究數學是頂尖的SOTA基準 這是新的範式
Jason Lee
@jasondeanlee
12-08
Nice, putnam more useful than IMO. Research math next hopefully x.com/CarinaLHong/st…
Sam Lehman
12-10
我聽了這個節目,也看了 Gavin 關於人工智慧的思考貼文。他似乎對預訓練的擴展規律非常有信心,但我卻……不太確定?他的論點主要集中在運算能力的進步如何推動預訓練,但從定義上講,要實現擴展,資料量也需要相應增加,對吧? 我們都知道伊利亞關於預訓練資料的著名論斷,所以我的問題當然是:這些資料從何而來?似乎有人認為預訓練數據是合成數據,但我一直覺得這種說法不太對勁。 我一直憑直覺認為,模型自行產生資料進行預訓練會導致系統陷入混亂的惡性循環,無法進步。它是在孤立地學習,無法接觸到來自不同創建者的新資料。但是,我還沒有讀到任何關於使用自生成協同資料預訓練模型的益處或限制的論文。 有其他人有類似的想法或研究可以參考嗎?需要說明的是,我這裡指的是訓練前階段,而不是SFT訓練後階段等等。
Patrick OShaughnessy
@patrick_oshag
12-09
This is my fifth conversation with @GavinSBaker. Gavin understands semiconductors and AI as well as anyone I know and has a gift for making sense of the industry's complexity and nuance. We discuss: - Nvidia vs Google (GPUs + TPUs) - Scaling laws and reasoning models - The
Loading..