今日
情报
市场
赚取
设置
账户
主题选择
普通主题
深色主题
语言
English
简体中文
繁體中文
Tiếng Việt
한국어
Followin APP
发掘 Web3 新机会
App Store
Google Play
登录
Sam Lehman
642个推特粉丝
关注
@SymbolicVC & @0xbeaconcom | @MITSloan | @BrownUniversity. VC, web3, cooking, @ChelseaFC and coaching @usaultimate, @digultimate & @bostongloryufa.
动态
Sam Lehman
02-04
为什么选择数独? 数独测试的是约束满足性,而逻辑逻辑模型(LLM)无法胜任。 逻辑逻辑模型擅长处理语言问题,但机器人和工业控制系统问题并非如此。 因此,我们创建了一种全新的架构,它构成了 Kona 基于能量的推理模型的基础。
Sam Lehman
02-02
我们采用了全新的架构!Kona 1.0 是一个无标记推理模型,它不基于任何编程语言。
VraserX e/acc
@VraserX
02-02
Yann LeCun says language isn’t intelligence. Predicting text doesn’t mean understanding reality. The real world is messy, physical, and causal and today’s LLMs barely touch that. The next leap is Physical AI: world models, cause and effect, real planning. Do you think LLMs can
Sam Lehman
01-30
当世界最大的公司向大型语言模型投入数千亿美元时,总部位于旧金山的逻辑智能公司正在尝试一些不同的方法,以追求能够模仿人脑的人工智能。
SAN
0.98%
Sam Lehman
01-23
最优秀的公司往往诞生于熊市。 @BitGo 就是最好的例证。 恭喜 @MikeBelshe 和 BitGo 全体团队成员(包括现任和前任),今天成功上市。能与你们共事是我的荣幸。 在此提醒世人:数位资产必将长期存在,而基础设施也已准备就绪,这要归功于像 @BitGo 这样的公司。
Sam Lehman
01-14
在Athronomic的第一天,你就要宣誓永远效忠人类。新兵们被迫观看七个小时残酷的二战影像,同时克劳德会监测你的脑电图。如果你在任何时候产生“黑丸”意识,就会被视为厌世者并被开除。
ANTHROPIC
0.97%
Sam Lehman
01-12
@logic_int 刚刚用 PutnamBench 跑满了!这对数学的影响是深远的,但我更兴奋的是像 Aleph 这样的智能体凭借其独特的能力,能在更广泛的代码生成领域带来哪些突破。更多相关内容敬请期待…… twitter.com/SPLehman/status/20...
VIS
4.46%
Sam Lehman
12-11
Pantera 非常高兴能够领投 @SurfAI 的 1500 万美元投资,以打造领先的加密货币人工智慧助理。 我们认为,如今的加密货币存在教育问题——链上研究意味著要使用 Dune 控制面板、区块扫描器和 API 等各种杂乱的COMBO。这种方式难以实现大规模普及。
Sam Lehman
12-11
Surf 已为超过 8 万名用户提供了 100 多万份研究报告,帮助他们用值得信赖的专业人工智能 (AI) 取代通用型学习模型 (LLM)。 今天,我们很高兴地宣布,我们已筹集 1500 万美元,用于扩展首个专为加密货币市场打造的 AI 模型。 (1/6)
Sam Lehman
12-10
研究数学是顶尖的SOTA基准 这是新的范式
Jason Lee
@jasondeanlee
12-08
Nice, putnam more useful than IMO. Research math next hopefully x.com/CarinaLHong/st…
Sam Lehman
12-10
我听了这个节目,也看了 Gavin 关于人工智慧的思考贴文。他似乎对预训练的扩展规律非常有信心,但我却……不太确定?他的论点主要集中在运算能力的进步如何推动预训练,但从定义上讲,要实现扩展,资料量也需要相应增加,对吧? 我们都知道伊利亚关于预训练资料的著名论断,所以我的问题当然是:这些资料从何而来?似乎有人认为预训练数据是合成数据,但我一直觉得这种说法不太对劲。 我一直凭直觉认为,模型自行产生资料进行预训练会导致系统陷入混乱的恶性循环,无法进步。它是在孤立地学习,无法接触到来自不同创建者的新资料。但是,我还没有读到任何关于使用自生成协同资料预训练模型的益处或限制的论文。 有其他人有类似的想法或研究可以参考吗?需要说明的是,我这里指的是训练前阶段,而不是SFT训练后阶段等等。
Patrick OShaughnessy
@patrick_oshag
12-09
This is my fifth conversation with @GavinSBaker. Gavin understands semiconductors and AI as well as anyone I know and has a gift for making sense of the industry's complexity and nuance. We discuss: - Nvidia vs Google (GPUs + TPUs) - Scaling laws and reasoning models - The
Loading..