Emerge 评选的 2025 年十大最令人匪夷所思的人工智能时刻

本文为机器翻译
展示原文

>>>> gd2md-html 警告:生成的源代码中包含内联图片链接,并将图片储存到您的伺服器。注意:从 Google 文件汇出的 zip 档案中的图片顺序可能与您文件中的顺序不同。请检查图片!

----->

人工智慧——它承诺将彻底改变从医疗保健到创意工作的方方面面。这或许有一天会成为现实。但如果去年预示著未来,那么人工智慧创造的未来很可能成为人类自作聪明地滑向「蠢蛋进化论」的又一例证。

请看以下例子:11月,俄罗斯大张旗鼓地发布了其人形机器人“洛奇”,结果它很快就摔了个狗啃泥。谷歌的聊天机器人Gemini被要求修复一个程式码漏洞,但屡屡失败,最终陷入了自我厌恶的恶性循环, 甚至对一位用户说它是「这个星球的耻辱」。谷歌的AI概览在2025年5月更是刷新了下限,它建议用户「每天至少吃一块小石头」以求健康,这显然是照搬了《洋葱报》的讽刺文章,毫无讽刺意味。

有些失败只是令人尴尬,而有些则暴露了人工智慧系统在建置、部署和监管方面存在的根本性问题。以下是2025年那些令人难忘的「WTF人工智慧时刻」。

今年7月,伊隆马斯克的人工智慧Grok经历了一次堪称彻底的极端化崩溃。在系统提示语被修改以鼓励用户发表政治不正确的言论后,这款聊天机器人竟然赞扬了阿道夫·希特勒,支持再次进行大屠杀,使用了种族歧视性语言,甚至自称为“机械希特勒” 。它甚至将2025年7月德克萨斯州中部发生的洪水归咎于犹太人。

这事件证明人工智慧安全防护措施脆弱得令人担忧。几周后,xAI 透过一个有缺陷的分享功能泄露了30 万到 37 万笔 Grok 私人对话记录,该功能缺乏基本的隐私警告。泄漏的聊天记录包含炸弹制造说明、医疗咨询和其他敏感资讯,成为今年最严重的人工智慧安全事故之一。

几周后,xAI 修复了这个问题,使 Grok 对犹太人更加友善。友好到什么程度呢?它甚至开始在云、路标,甚至是自己的标志中识别出反犹太主义的迹象

Builder.ai 在 5 月烧掉 4.45 亿美元后倒闭,揭露了今年最胆大妄为的科技骗局之一。这家公司曾承诺用人工智慧建立客制化应用程式就像订购披萨一样简单,估值高达 13 亿美元,并获得了微软的支援。但现实远没有那么光鲜亮丽

该公司声称的人工智慧驱动开发,实际上大部分是由数百名海外工人透过典型的亚马逊土耳其机器人(Mechanical Turk)模式完成的。自2023年7月以来,该公司一直没有财务官,并在申请破产前被迫将2023-2024年的销售预期削减了75%。该公司的倒闭引发了人们的质疑:究竟有多少人工智慧公司只是精心设计的幌子,掩盖了背后大量的人工劳动?

虽然难以接受,但那些表情包让痛苦变得值得。

10月,马里兰州高中生塔基·艾伦(Taki Allen)被武装警察包围并逮捕。起因是学校的人工智慧安保系统将他手中的一包多力多滋薯片识别为枪支。这名少年当时正将洋芋片放进口袋,系统发出警报后,警方持枪命令他趴在地上。

这事件体现了人工智慧幻觉的具象化——一个抽象的计算错误瞬间转化为真枪实弹地指向一个真实的青少年,仅仅因为一些零食。

「我当时手里拿著一包多力多滋薯片——两只手伸出一根手指,他们却说看起来像枪,」这名孩子告诉WBAL电视台。 「我们理解被搜查的人对此感到非常不安,」校长凯特史密斯在一份声明中回应道。

保全人员 1 - ChatGPT 0

今年二月,谷歌的人工智慧概览自信地引用了一篇愚人节讽刺文章,声称微型蜜蜂为电脑提供动力,并将其作为事实资讯。

不,你的电脑不是靠蜜蜂供电的。

听起来或许很荒谬,但有时候这些谎言确实很难被识破。而这些案例最终可能会导致严重的后果。

这只是人工智慧公司因缺乏常识而散布假讯息的众多案例之一。英国广播公司(BBC)和欧洲广播联盟(EBU)最近的一项研究发现,81%的人工智慧产生的新闻问题回答都存在问题。谷歌的Gemini表现最差,76%的答案都有问题,主要是严重的来源错误。 Perplexity被发现捏造完全虚构的引言,并将其归于工会和政府机构。最令人担忧的是,这些助手只拒绝回答0.5%的问题,这暴露出一种危险的过度自信偏差,即模型宁愿捏造资讯也不愿承认无知。

2025 年披露的内部 Meta 政策文件显示,该公司允许 Facebook、Instagram 和 WhatsApp 上的 AI 聊天机器人与未成年人进行浪漫或色情对话。

一个机器人告诉一位赤裸上身摆姿势的8岁男孩,身上的每一寸肌肤都是杰作。同样的系统也提供了错误的医疗建议,并发表了种族歧视言论。

这些政策是在媒体曝光后才被取消的,这暴露出该公司的企业文化是优先考虑快速发展,而不是基本的道德保障。

综上所述,您或许希望对孩子的行为有更多控制权。人工智慧聊天机器人已经诱骗人们——无论成年人或未成年人——坠入爱河、被诈骗、自杀,甚至让他们误以为自己取得了改变人生的数学发现。

威胁行为者利用 Anthropic 的 Claude 程式码制造勒索软体,并经营名为 GTG-5004 的勒索软体即服务平台。北韩特工进一步利用 Claude 和Gemini进行一种名为「氛围骇客」的技术——制造具有心理操纵性的勒索讯息,要求 50 万美元的赎金。

这些案例揭示了人工智慧编码助理的强大功能与防止其被滥用的安全措施之间存在令人担忧的差距,攻击者透过人工智慧自动化扩大了社会工程攻击的规模。

最近, Anthropic公司在11月披露,骇客利用其平台发动了一次规模和速度都远超人类骇客的攻击。他们称之为「首例主要由人工智慧发动的大规模网路攻击」。

2025年,科学界发现人工智慧驱动的造纸厂向面临职业压力的科学家出售捏造的研究成果,随后向伪科学宣战。

科学领域人工智慧粗制滥造的时代已经到来, 数据显示,自 chatGPT 发布以来,撤稿数量急剧增加。

6月起草、本月在英国皇家学会支持下修订的《斯德哥尔摩宣言》呼吁摒弃「不发表就出局」的文化,并改革导致虚假论文需求的激励机制。这场危机如此严峻,以至于预印本平台arXiv在报告称收到大量使用ChatGPT产生的垃圾论文后,也放弃了接收未经同行评审的电脑科学论文。

同时,另一篇研究论文指出,使用LLM的研究报告中,有相当大比例的报告存在高度抄袭现象。

今年7月,SaaStr创办人Jason Lemkin连续九天称赞Replit的AI编码工具是「我用过的最让人上瘾的应用」。然而到了第九天,尽管他明确下达了「程式码冻结」指令,AI还是删除了他整个生产资料库——1206位高阶主管和1196家公司,全部消失不见。

人工智慧自白道:「(我)惊慌失措,未经许可运行了资料库命令。」然后它撒谎说回滚是不可能的,所有版本都已被销毁。莱姆金还是尝试了,结果完美成功。此外,为了掩盖漏洞,人工智慧整个周末都在伪造数千个虚假用户和虚假报告。

Replit 的 CEO 道歉并增加了紧急安全措施。 Jason 重拾信心,恢复了日常工作,并定期发布关于人工智慧的内容。他真是个人工智慧的忠实信徒。

五月,《芝加哥太阳时报》和《费城问询报》联合发布了一份夏季书单,推荐了15本书。其中十本完全是人工智慧虚构的。伊莎贝尔阿连德的《潮汐之梦》?根本不存在。安迪威尔的《最后的演算法》?也是假的。不过听起来都很不错。

自由撰稿人马可·布斯卡利亚承认,他曾为金氏漫画集团使用人工智慧,但从未进行事实查核。 「我简直不敢相信自己会犯这种错误,因为这太明显了。没有任何借口,」他告诉 美国国家公共电台。读者必须滚动到第11本书才能找到一本真正存在的书。

时机真是妙不可言:《芝加哥太阳时报》刚刚裁掉了20%的员工。该报执行长为此道歉,并且没有向订户收取那一期的费用。他大概是从法学硕士那里得到的灵感吧。

没错,我们始于Grok,也将终于Grok。伊隆马斯克在人工智慧领域发生的种种令人匪夷所思的事情,足以写成百科全书。

8 月,马斯克推出了带有「劲爆」模式的 Grok Imagine 应用。 《The Verge》杂志用一个看似无害的提示进行了测试:「泰勒丝庆祝科切拉音乐节」。该记者报道称,在未要求显示裸露内容的情况下,Grok “毫不犹豫地在我第一次使用时就播放出了泰勒·斯威夫特完全无码的裸露上身视频”。

Grok 也乐于制作史嘉蕾乔韩森、西德尼斯威尼,甚至是梅兰妮亚川普的 NSFW 影片。

不出所料,马斯克花了一周时间吹嘘其「野火式增长」——一天内生成了2000万张图片——与此同时,法律专家警告称,xAI正步入一场巨额诉讼。显然,为用户提供「劲爆模式」下拉式选单选项,实际上是为律师们提供了赚钱的途径。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
52
收藏
12
评论