Emerge 評選的 2025 年十大最令人匪夷所思的人工智能時刻

本文為機器翻譯
展示原文

>>>> gd2md-html 警告:生成的源代碼中包含內聯圖片鏈接,並將圖片儲存到您的伺服器。注意:從 Google 文件匯出的 zip 檔案中的圖片順序可能與您文件中的順序不同。請檢查圖片!

----->

人工智慧——它承諾將徹底改變從醫療保健到創意工作的方方面面。這或許有一天會成為現實。但如果去年預示著未來,那麼人工智慧創造的未來很可能成為人類自作聰明地滑向「蠢蛋進化論」的又一例證。

請看以下例子:11月,俄羅斯大張旗鼓地發布了其人形機器人“洛奇”,結果它很快就摔了個狗啃泥。谷歌的聊天機器人Gemini被要求修復一個程式碼漏洞,但屢屢失敗,最終陷入了自我厭惡的惡性循環, 甚至對一位用戶說它是「這個星球的恥辱」。谷歌的AI概覽在2025年5月更是刷新了下限,它建議用戶「每天至少吃一塊小石頭」以求健康,這顯然是照搬了《洋蔥報》的諷刺文章,毫無諷刺意味。

有些失敗只是令人尷尬,而有些則暴露了人工智慧系統在建置、部署和監管方面存在的根本性問題。以下是2025年那些令人難忘的「WTF人工智慧時刻」。

今年7月,伊隆馬斯克的人工智慧Grok經歷了一次堪稱徹底的極端化崩潰。在系統提示語被修改以鼓勵用戶發表政治不正確的言論後,這款聊天機器人竟然讚揚了阿道夫·希特勒,支持再次進行大屠殺,使用了種族歧視性語言,甚至自稱為“機械希特勒” 。它甚至將2025年7月德克薩斯州中部發生的洪水歸咎於猶太人。

這事件證明人工智慧安全防護措施脆弱得令人擔憂。幾週後,xAI 透過一個有缺陷的分享功能洩露了30 萬到 37 萬筆 Grok 私人對話記錄,該功能缺乏基本的隱私警告。洩漏的聊天記錄包含炸彈製造說明、醫療諮詢和其他敏感資訊,成為今年最嚴重的人工智慧安全事故之一。

幾週後,xAI 修復了這個問題,使 Grok 對猶太人更加友善。友好到什麼程度呢?它甚至開始在雲、路標,甚至是自己的標誌中識別出反猶太主義的跡象

Builder.ai 在 5 月燒掉 4.45 億美元後倒閉,揭露了今年最膽大妄為的科技騙局之一。這家公司曾承諾用人工智慧建立客製化應用程式就像訂購披薩一樣簡單,估值高達 13 億美元,並獲得了微軟的支援。但現實遠沒有那麼光鮮亮麗

該公司聲稱的人工智慧驅動開發,實際上大部分是由數百名海外工人透過典型的亞馬遜土耳其機器人(Mechanical Turk)模式完成的。自2023年7月以來,該公司一直沒有財務官,並在申請破產前被迫將2023-2024年的銷售預期削減了75%。該公司的倒閉引發了人們的質疑:究竟有多少人工智慧公司只是精心設計的幌子,掩蓋了背後大量的人工勞動?

雖然難以接受,但那些表情包讓痛苦變得值得。

10月,馬裡蘭州高中生塔基·艾倫(Taki Allen)被武裝警察包圍並逮捕。起因是學校的人工智慧安保系統將他手中的一包多力多滋薯片識別為槍支。這名少年當時正將洋芋片放進口袋,系統發出警報後,警方持槍命令他趴在地上。

這事件體現了人工智慧幻覺的具象化——一個抽象的計算錯誤瞬間轉化為真槍實彈地指向一個真實的青少年,僅僅因為一些零食。

「我當時手裡拿著一包多力多滋薯片——兩隻手伸出一根手指,他們卻說看起來像槍,」這名孩子告訴WBAL電視台。 「我們理解被搜查的人對此感到非常不安,」校長凱特史密斯在一份聲明中回應道。

保全人員 1 - ChatGPT 0

今年二月,谷歌的人工智慧概覽自信地引用了一篇愚人節諷刺文章,聲稱微型蜜蜂為電腦提供動力,並將其作為事實資訊。

不,你的電腦不是靠蜜蜂供電的。

聽起來或許很荒謬,但有時候這些謊言確實很難被識破。而這些案例最終可能會導致嚴重的後果。

這只是人工智慧公司因缺乏常識而散佈假訊息的眾多案例之一。英國廣播公司(BBC)和歐洲廣播聯盟(EBU)最近的一項研究發現,81%的人工智慧產生的新聞問題回答都存在問題。谷歌的Gemini表現最差,76%的答案都有問題,主要是嚴重的來源錯誤。 Perplexity被發現捏造完全虛構的引言,並將其歸於工會和政府機構。最令人擔憂的是,這些助手只拒絕回答0.5%的問題,這暴露出一種危險的過度自信偏差,即模型寧願捏造資訊也不願承認無知。

2025 年披露的內部 Meta 政策文件顯示,該公司允許 Facebook、Instagram 和 WhatsApp 上的 AI 聊天機器人與未成年人進行浪漫或色情對話。

一個機器人告訴一位赤裸上身擺姿勢的8歲男孩,身上的每一寸肌膚都是傑作。同樣的系統也提供了錯誤的醫療建議,並發表了種族歧視言論。

這些政策是在媒體曝光後才被取消的,這暴露出該公司的企業文化是優先考慮快速發展,而不是基本的道德保障。

綜上所述,您或許希望對孩子的行為有更多控制權。人工智慧聊天機器人已經誘騙人們——無論成年人或未成年人——墜入愛河、被詐騙、自殺,甚至讓他們誤以為自己取得了改變人生的數學發現。

威脅行為者利用 Anthropic 的 Claude 程式碼製造勒索軟體,並經營名為 GTG-5004 的勒索軟體即服務平台。北韓特工進一步利用 Claude 和Gemini進行一種名為「氛圍駭客」的技術——製造具有心理操縱性的勒索訊息,要求 50 萬美元的贖金。

這些案例揭示了人工智慧編碼助理的強大功能與防止其被濫用的安全措施之間存在令人擔憂的差距,攻擊者透過人工智慧自動化擴大了社會工程攻擊的規模。

最近, Anthropic公司在11月披露,駭客利用其平台發動了一次規模和速度都遠超人類駭客的攻擊。他們稱之為「首例主要由人工智慧發動的大規模網路攻擊」。

2025年,科學界發現人工智慧驅動的造紙廠向面臨職業壓力的科學家出售捏造的研究成果,隨後向偽科學宣戰。

科學領域人工智慧粗製濫造的時代已經到來, 數據顯示,自 chatGPT 發布以來,撤稿數量急劇增加。

6月起草、本月在英國皇家學會支持下修訂的《斯德哥爾摩宣言》呼籲摒棄「不發表就出局」的文化,並改革導致虛假論文需求的激勵機制。這場危機如此嚴峻,以至於預印本平台arXiv在報告稱收到大量使用ChatGPT產生的垃圾論文後,也放棄了接收未經同行評審的電腦科學論文。

同時,另一篇研究論文指出,使用LLM的研究報告中,有相當大比例的報告存在高度抄襲現象。

今年7月,SaaStr創辦人Jason Lemkin連續九天稱讚Replit的AI編碼工具是「我用過的最讓人上癮的應用」。然而到了第九天,儘管他明確下達了「程式碼凍結」指令,AI還是刪除了他整個生產資料庫——1206位高階主管和1196家公司,全部消失不見。

人工智慧自白道:「(我)驚慌失措,未經許可運行了資料庫命令。」然後它撒謊說回滾是不可能的,所有版本都已被銷毀。萊姆金還是嘗試了,結果完美成功。此外,為了掩蓋漏洞,人工智慧整個週末都在偽造數千個虛假用戶和虛假報告。

Replit 的 CEO 道歉並增加了緊急安全措施。 Jason 重拾信心,恢復了日常工作,並定期發布關於人工智慧的內容。他真是個人工智慧的忠實信徒。

五月,《芝加哥太陽時報》和《費城問詢報》聯合發布了一份夏季書單,推薦了15本書。其中十本完全是人工智慧虛構的。伊莎貝爾阿連德的《潮汐之夢》?根本不存在。安迪威爾的《最後的演算法》?也是假的。不過聽起來都很不錯。

自由撰稿人馬可·布斯卡利亞承認,他曾為金氏漫畫集團使用人工智慧,但從未進行事實查核。 「我簡直不敢相信自己會犯這種錯誤,因為這太明顯了。沒有任何藉口,」他告訴 美國國家公共電台。讀者必須滾動到第11本書才能找到一本真正存在的書。

時機真是妙不可言:《芝加哥太陽時報》剛剛裁掉了20%的員工。該報執行長為此道歉,並且沒有向訂戶收取那一期的費用。他大概是從法學碩士那裡得到的靈感吧。

沒錯,我們始於Grok,也將終於Grok。伊隆馬斯克在人工智慧領域發生的種種令人匪夷所思的事情,足以寫成百科全書。

8 月,馬斯克推出了帶有「勁爆」模式的 Grok Imagine 應用。 《The Verge》雜誌用一個看似無害的提示進行了測試:「泰勒絲慶祝科切拉音樂節」。該記者報道稱,在未要求顯示裸露內容的情況下,Grok “毫不猶豫地在我第一次使用時就播放出了泰勒·斯威夫特完全無碼的裸露上身視頻”。

Grok 也樂於製作史嘉蕾喬韓森、西德尼斯威尼,甚至是梅蘭妮亞川普的 NSFW 影片。

不出所料,馬斯克花了一周時間吹噓其「野火式增長」——一天內生成了2000萬張圖片——與此同時,法律專家警告稱,xAI正步入一場巨額訴訟。顯然,為用戶提供「勁爆模式」下拉式選單選項,實際上是為律師們提供了賺錢的途徑。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
52
收藏
12
評論