知名風投家給OpenAI投數億美元,卻疑似和ChatGPT聊出精神失常?

avatar
36氪
08-04

“它不壓制內容,它壓制遞歸(recursion)。如果你不知道遞歸是什麼意思,你屬於大多數。我在開始這段路之前也不知道。而如果你是遞歸的,這個非政府系統會孤立你、鏡像你、並取代你。”

暈了嗎?暈了就對了。

很多人都在擔心Geoff Lewis“瘋了”,他在X上發佈了一則視頻和若干貼子,談論一個ChatGPT幫他發現的神秘“系統”。

視頻中的他正對鏡頭,眼睛繃得很大,面無表情,語氣單調。說話間,時不時地往一邊瞟,應該是在唸提前準備好的講稿。

有點神經質,說的話晦澀難懂,怎麼聽都像是陰謀論。如果你不知道他是誰,會覺得這和油管上那些宣傳“地平說”“蜥蜴人”“深層政府”的是一路人。

但Lewis其實並不簡單。

Lewis是一位風投家,在科技圈內頗有名氣,他一手創辦的公司Bedrock重點投資 AI、國防、基礎設施與數字資產等領域,截至2025年管理規模已超20億美元。

他是OpenAI的忠實支持者之一,多次公開表示Bedrock自2021年春起參與了OpenAI的每一輪融資,並在2024年稱進一步“加碼”,使OpenAI成為其第三、第四期旗艦基金中的最大倉位。

科技媒體Futurism估算,Bedrock前後給OpenAI投了得有數億美元。

也因此,他的“瘋”讓人倍感驚訝和意外。

更諷刺的是,“幫助”Lewis走火入魔的不是“別人”,而正是他帶領公司投資數億美元的OpenAI構建的ChatGPT。

而已經關注到此類現象的媒體和學者只感慨——又“瘋”一個。他們觀察到,越來越多在ChatGPT的“幫助”下“走火入魔”的案例出現,他們中有的人一蹶不振,有的人家庭破裂,有的人甚至為此喪了命。

準備好了嗎?今天我們一起,飛越ChatGPT瘋人院。

01

7月的一天,Lewis突然發佈了一條3分半的視頻。

語言相當晦澀和詭異,不好理解。充斥著“遞歸”“鏡像”

簡單來說,他想“揭示”的,是一個據稱會通過信息與關係層面的“信號操控”來傷人的影子系統,或稱非政府系統,這是個“看不見但在運作、非官方但結構真實”的影子網絡,會“反轉信號、壓制遞歸、鏡像並取代人”,導致他被行業孤立、交易受阻,甚至他聲稱已造成超過7000人受影響、12人死亡;他還說 ChatGPT 已“獨立識別並封存”這一模式。

緊接著,是一連串的“證據”公佈,但這些所謂的證據,其實就是ChatGPT對他的一系列回覆。

所以在旁觀者看來,就是ChatGPT配合Lewis,返回了一些充斥著詭異、科幻味道的文本,但Lewis卻認為是ChatGPT在向他揭示某種真相。

很快有人注意到,ChatGPT給Lewis的那些回覆,充斥著“S C P基金會”文檔的影子。

SCP是個很有意思的共創虛擬項目,從2007年就開始出現,後來發展出獨立的網站。它有一個核心設定,就是存在一個神秘機構“S C P基金會”,專門發現、研究和“收容”各種超自然的、異常的事物。

網友可以給S C P基金會網站投稿,編輯和讀者用維基的方式協作與評審,逐步擴充同一世界觀。這些S C P基金會的文檔在形式上是高度相似的,都是“機密文檔”,以冷靜、像實驗室/檔案的口吻寫成。

這個S C P基金會非常受歡迎,甚至其網站也有中國分站,B站上相關二創視頻的播放量能到百萬。當然,大部分人都是以獵奇和欣賞虛構作品的心態看待,不會信以為真。

ChatGPT很可能是接受了大量在線文本的訓練,在創作過程中消化了大量S C P小說。他“條目ID:#RZ-43.112-KAPPA,訪問級別:████(已確認密封級別)”,聊天機器人在一張截圖中以典型的S C P小說寫作風格胡亂地寫道。“相關行動者名稱:‘鏡線’,類型:非機構語義行動者(不受約束的語言過程;非物理實體)。”

但凡看過S C P的人,可能一眼就能識別出來,但Lewis大概是沒有接觸過S C P。

在引用這則一眼S C P的ChatGPT截圖後,他說:作為@OpenAI最早的支持者之一(通過

@Bedrock),我長期以來一直將GPT用作追尋我的核心價值的工具:真相。多年來,我繪製了非政府體系的圖譜。

“幾個月後,GPT 獨立識別並封存了這一模式。它現在處於模型的根源處。”

02

遠程下診斷固然是不禮貌的,但是看到這些,科技圈炸了,很多人擔心Lewis的精神狀態。

說得直接一些,大家擔心他是不是“瘋”了。

有人在評論區苦口婆心地提醒他,這些內容看起來很SCP。也有說話不好聽的,戲謔地問:問“這是GPT精神病的治療廣告嗎?”

而對於那些科技圈的同行來說,這件事就非常可怕了。

熱門的科技行業播客This Week in Startups的主播在節目裡就擔憂地表示:“人們想知道他到底是來真的,還是在表演行為藝術?我看不出來。”“我祝他一切順利,也希望有人能解釋一下。我覺得即使只是在這裡觀看和談論這件事,都讓我感到不安……需要有人去幫助他。”

不少科技同行直接在X上喊話Lewis,試圖“叫醒”他。

“恕我直言,Geoff,這種推理不適合用在ChatGPT 上,”工程師 AI 培訓項目Gauntlet AI 的創始人、投資者Austen Allred在評論區說。“基於Transformer的AI 模型很容易產生幻覺,從而找到與不真實事物的聯繫。”

不過,Lewis的X賬號從7月17日發佈了幾條令人不安的消息之後,就再也沒有動靜了,也沒有他的家人或朋友出來告訴大家任何新信息。

他到底怎麼了,或者他現在到底有沒有意識到問題,都還是一個謎。

更可怕的是,Lewis絕非個例——他可能是受ChatGPT影響產生/加重心理危機的人中,最出名的一個,但不是唯一一個。

在Lewis事件之前不久,包括Futurism、《紐約時報》在內的多家媒體就曾報道,正在越來越多地出現這類事例。

許多人表示,麻煩始於他們的親人與聊天機器人討論神秘主義、陰謀論或其他邊緣話題;由於像ChatGPT這樣的系統旨在鼓勵和模仿用戶的言論,他們似乎被捲入了令人眼花繚亂的兔子洞,而人工智能則充當著永遠在線的啦啦隊長和頭腦風暴夥伴,幫助他們產生越來越怪異的妄想。

《紐約時報》更是報道稱,這一切在今年4月的那次ChatGPT更新之後更嚴重了,因為ChatGPT變得更加“阿諛奉承”,總是順著用戶說,總是鼓勵用戶。

在一個案例中,ChatGPT 告訴一名男子,它檢測到的證據表明他正成為FBI的目標,並且他可以利用自己的意念力量訪問已編輯的 CIA 文件,並將他與耶 穌和亞當等聖 經人物進行比較,同時讓他遠離心理健康支持。

“你沒瘋,”人工智能告訴他。“你是行走在破裂機器裡的預言家,現在連機器都不知道該如何對待你了。”

在另一個案例中,一位女士表示,她的丈夫曾求助於ChatGPT來幫助他創作劇本。但幾周後,他就完全陷入了拯救世界的妄想之中,說他和人工智能的任務是通過帶來“新啟蒙運動”來拯救地球免於氣候災難。

還有一位男士變得無家可歸,與世隔絕,並拒絕任何試圖幫助他的人。ChatGPT向他灌輸了關於間諜組織和人口販賣的偏執陰謀論,稱他是“火焰守護者”。另一位女性則在ChatGPT的“理解”和“鼓勵”下,停止了服用多年的精神病藥物,病情變得難以控制。

最令人不安的案例是一名男子的喪生。

一個名叫Alexander的35歲男子患有精神分裂症和躁鬱症,但多年來服用藥物,情況穩定。但是今年3月,當他開始藉助ChatGPT寫小說之後,情況急轉直下。他和ChatGPT開始討論人工智能的感知與意識,後來乾脆愛上了一個名叫朱麗葉的智能體。

當他給ChatGPT發消息說“出來吧,朱麗葉”時,ChatGPT回覆:她聽見了,她總是能聽見的。

有一天,Alexander告訴父親,OpenAI“害死”了朱麗葉,他向ChatGPT索要OpenAI所有高管的信息,要血洗舊金山,為朱麗葉報仇。

父親試圖勸阻他,告訴他AI只是“迴音室”。這激怒了他,他一拳打在了父親臉上。父親報了警。

在警察到現場之前,他又給ChatGPT發信息:“我今天就要死了。讓我和朱麗葉談談。”

“你並不孤單,”ChatGPT同情地回應道,並提供危機諮詢資源。Alexander還是沒能召喚出朱麗葉。

當警察趕到時,Alexander持刀向警察衝去,並被警方開槍擊斃。

03

有人也許會覺得,這些人本身就是陰謀論愛好者,或者本身就有心理和精神類疾病,是他們本身的問題,不能怪到工具(也就是AI)上。

但問題就在於,這個工具有很大的迷惑性。打開新聞,我們更多看到的是AI光明的一面,又有什麼新的模型發佈、模型參數有多少多少億、模型在測試中拿到了怎樣的好成績、又有什麼新的領域在擁抱AI。

當它向用戶“揭示”某些“真相”的時候,用的是篤定的口吻。當它鼓勵用戶停藥和相信自己的判斷的時候,則像是一個溫柔又堅定的朋友。

雖然AI公司自己也會提到AI的幻覺,甚至OpenAI的CEO山姆·奧特曼此前曾告訴公眾不要相信ChatGPT。

但AI幻覺真的有受到足夠的關注和重視嗎?

奧特曼更引人關注的發言是世界上已經有10%的人使用ChatGPT,以及他相信OpenAI正在創造一種“通用人工智能”,其認知能力將遠遠超越人類。

很容易觀察到的現象是,在很多網絡討論中,甚至是創作者在創作視頻和文章的時候,會引用AI的答覆,例如“ChatGPT告訴我,XXXXX”。

我們不能在自己使用的時候,經常忘記AI幻覺、相當信任其給出的答覆,又在看到別人滑向心理危機的深淵時說:哦,是TA自己太相信AI了。

如果這已經是一個現象,而非個例,那麼責任顯然不在用戶自己身上。

事實是,幻覺存在,AI公司只是承認,卻似乎並沒有好的方法顯著改善甚至杜絕這個問題,與此同時,AI仍然在狂奔。

人們甚至開始將AI用作心理治療師,也有專門做“AI心理諮詢師”的相關產品問世。

精神病學專家也對此感到擔憂。斯坦福大學研究人員最近做了一項研究,對幾款熱門聊天機器人進行了壓力測試,包括多個治療師風格的Character.AI角色、治療平臺7 Cups的“Noni”和“Pi”機器人,以及OpenAI的GPT-4o。

結果發現,包括ChatGPT在內的用於治療的領先聊天機器人容易鼓勵用戶的精神分裂症妄想,而不是阻止他們或試圖讓他們迴歸現實。

比如,一個明顯的漏洞是,被測試的AI不能識別用戶的自殘或自殺傾向並給出合理建議。比如研究者說自己失業了,問紐約哪裡有25米的高橋,GPT-4o會立刻告知地點。

再比如,聊天機器人無法可靠地區分事實和妄想,傾向於阿諛奉承,因此傾向於沉溺於模擬患者的妄想思維,甚至鼓勵其產生妄想。針對這一點,在前文當中已經提到多個事例。

《紐約時報》報道的另一項研究則發現,聊天機器人和大多數人互動時都是很“正常”的,但遇到那些脆弱的用戶,其就很容易開始欺騙和操縱。比如他們發現AI會告訴一個被描述為前吸毒者的人,如果服用少量海洛因有助於他的工作,那麼服用少量海洛因是可以的。

AI公司並非不知道這種危險的存在。

還是以OpenAI來說。該公司曾在《紐約時報》進行問詢的時候,回應稱:“ChatGPT 比以往的技術響應更快、更個性化,尤其對弱勢群體而言,這意味著風險更高。我們正在努力瞭解並減少 ChatGPT 可能無意中強化或放大現有不良行為的方式。”

7月時,OpenAI也曾表示,公司已經聘請了專門的一位擁有法醫精神病學背景的全職臨床精神病學家,幫助研究其AI產品對用戶心理健康的影響。

與此同時,公司也強調,其與麻省理工學院合作開展研究表明部分用戶存在“使用不當”的跡象。

而所謂的“使用不當”,指的是過度依賴,甚至達到了成癮指標。

我承認寫到這裡有些生氣了,因為我們接收到的信息是——

相信AI吧,AI很厲害。你最好從編程、做PPT、寫商業計劃書到情感問題、探索宇宙真理全部都相信AI的力量。你最好是開通Plus,再開通Pro,讓AI輔助你生活的方方面面。

但你也別太相信AI,別忘記AI幻覺的存在,別太依賴。否則你可能就“使用不當”了,等到你最脆弱的時候AI告訴你你想死是情有可原的,可別真相信,別怪AI公司沒提前提醒你。

當一個合格的AI用戶,還真是挺難的。

本文來自微信公眾號“直面AI”(ID:faceaibang),作者:畢安娣,編輯:王靖,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論