🎆 今日人工智能新闻 🎆 ✔️ OpenAI 机器人部门负责人 Caitlin Kalinowski 因与美国国防部的合同纠纷而辞职。 她表示:“未经司法监督对美国公民进行监视,以及未经人类同意的自主致命武器,这些问题需要更多讨论。”她补充说,这是一个原则问题。 尽管她仍然尊重 SamA 和团队,但她坚持认为安全保障措施没有得到充分讨论。 OpenAI 与美国国防部的合作引发了内部分歧。 ✔️ 与此同时,AnthropicAI 被美国国防部认定为供应链风险! 此前,该公司要求设立安全保障措施,以防止 Claude 被用于监视或自主武器。 讽刺的是,Claude 应用在此次事件后迅速走红,登上美国 App Store 排行榜榜首,日新增用户超过 100 万。 Anthropic 已宣布将对此项认定采取法律行动! 他们还推出了 Claude Marketplace, 这是一个企业客户可以直接从 GitLab、 Replit、Harvey 和 Snowflake 等合作伙伴处购买基于 Claude 的工具的市场,费用与现有 Anthropic 合同相同! 由于 Anthropic 不收取佣金, 看来他们在扩展企业生态系统方面相当积极。 ✔️ Karpathy 揭示了自动研究的下一阶段, 设想了一种类似 SETI@home 的大规模异步协作架构,其中多个智能体可以协同工作。 目标是“模拟整个研究社区,而不仅仅是一个博士生”。 目前,该系统在单个 GPU 上自动重复 5 分钟的实验, 并计划扩展到分布式协作。这个方向看起来相当雄心勃勃,哈哈。 ✔️ Anthropic 还发布了一项关于人工智能对就业影响的研究。 关键在于,该分析基于Claude的实际工作使用数据。虽然理论上94%的计算机/数学任务可以由人工智能处理,但实际使用率仅为33%。尽管尚未出现大规模失业, 但有迹象表明,面向22-25岁年轻人的人工智能相关职业招聘正在显著下降。 据称,初级开发人员、客服代表和数据录入员受影响最大。 我认为,本周OpenAI与Anthropic之间的动态关系尤为清晰。 OpenAI与美国国防部的合作导致其关键内部人才流失, 而Anthropic与美国国防部的冲突却讽刺地赢得了公众信任和用户。 看来我们已经进入了一个时代,在人工智能安全问题上的立场差异与品牌实力直接挂钩! 我感觉 Anthropic 的这种做法未来会加速其在企业市场的渗透!
本文为机器翻译
展示原文

Telegram
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论
分享





