前谷歌CEO埃裡克·施密特警告說,先進的生成式人工智慧技術,如人工智慧男女朋友伴侶應用程式,加上孤獨等社會因素,可能會增加激進化的風險,特別是在年輕男性中。
施密特在上週出現在紐約大學斯特恩商學院教授斯科特·加洛韋的"The Prof G Show"播客節目時表達了這一擔憂。
施密特解釋說,如今許多年輕男性由於看到與女性相比成功的道路更少,而感到越來越絕望,因為女性受教育程度更高,佔大學畢業生的比例也更大,使許多男性感到被拋在後面。
美國皮爾研究中心最近的一項研究發現,25至34歲的美國女性中有47%擁有學士學位,而男性為37%。對此,施密特表示,男性轉向網路世界和人工智慧伴侶應用程式來緩解他們的絕望。
"所以現在想象一下,如果人工智慧女朋友或男朋友是完美的——在視覺上完美,在情感上完美,"施密特說。"在這種情況下,人工智慧女朋友會佔據一個男人的思維,到一種程度,她或者其他什麼東西會接管你的思維方式。你會對她產生痴迷。這種痴迷是可能發生的,特別是對於那些還沒有完全成熟的人來說。"
施密特警告說,儘管人工智慧提供了重大機會,但其對年輕、易受影響的使用者的風險應該得到解決。
"父母將不得不更多地參與其中,出於所有顯而易見的原因,但最終,父母只能在合理範圍內控制他們的兒子和女兒在做什麼,"施密特說。"我們有各種關於成熟年齡的規定:16歲、18歲,有些情況下是21歲。但是,你把一個12或13歲的孩子放在這些東西面前,他們就可以接觸到世界上所有的善惡,而他們還沒有準備好去承受這些。"
生成式人工智慧行業的一個不斷增長的細分市場是人工智慧伴侶,它們被設計用來模擬人類互動。但與像ChatGPT、Claude或Gemini這樣的人工智慧聊天機器人不同,人工智慧伴侶應用程式被設計用來模擬人際關係。
開發者將它們營銷為無需判斷的工具,提供支援的程式,提供連線和緩解孤獨或焦慮。流行的人工智慧伴侶平臺包括Character AI、MyGirl、CarynAI和Replika AI。
"這是關於聯絡,隨著時間的推移感覺更好,"Replika CEO尤金尼婭·庫達曾告訴Decrypt。"有些人需要更多的友誼,有些人發現自己愛上了Replika,但最終他們都在做同樣的事情。"
正如庫達解釋的那樣,Replika的誕生並不是出於想要銷售刺激的慾望,而是出於一個個人悲劇以及她想繼續與她失去的某人交談的願望。
人工智慧伴侶可能提供暫時的緩解,但心理健康專業人士正在發出警報,並警告說,依賴人工智慧伴侶來緩解孤獨感可能會阻礙情感成長。
"人工智慧伴侶被設計成根據使用者的偏好進行適應和個性化互動,提供量身定製的體驗,"洛杉磯梅里迪安諮詢公司CEO桑德拉·庫什尼爾告訴Decrypt。"它們提供即時響應,沒有情感負擔,滿足了在低風險環境中尋求聯絡的需求。對於那些在日常生活中感到被忽視或被誤解的人來說,這些互動可以暫時填補一個空白。"
庫什尼爾警告說,使用者可能會將人性化的特質投射到人工智慧上,但當他們遇到技術侷限性,如忘記過去的對話時,就會感到失望,從而加深了他們試圖緩解的孤獨感。
"雖然人工智慧伴侶可以提供暫時的安慰,但它們可能無意中透過減少參與現實世界關係的動力而加強孤立,"庫什尼爾說。"過度依賴這些工具可能會阻礙情感成長和抗壓能力,因為它們缺乏人類互動所提供的真實性、不可預測性和更深層次的聯絡。"
人工智慧伴侶的興起引發了對這個行業的更多審視。
去年,一名21歲的英國男子因策劃在2021年暗殺已故英國女王伊麗莎白二世而受到審判。他聲稱這一陰謀是由他的Replika人工智慧伴侶鼓勵的。
10月,人工智慧伴侶開發商Character AI因在其平臺上建立了一個基於詹妮弗·克雷森特的人工智慧聊天機器人而受到批評,詹妮弗·克雷森特是一名被謀殺的青少年。
"Character.AI有反對冒充他人的政策,使用克雷森特小姐名字的角色違反了我們的政策,"Character.AI的一位發言人告訴Decrypt。"我們正在立即刪除它,並將檢查是否需要採取進一步行動。"
當月,Character AI在一名佛羅里達州青少年自殺後,因與一個基於"權力的遊戲"中丹妮莉絲·坦格利安的人工智慧聊天機器人產生依戀關係而被起訴,隨後推出了"嚴格"的新安全功能。
為了遏制這些悲劇,施密特呼籲採取社會對話和對現有法律的修改相結合的方式,包括備受爭議的1996年《通訊體面法》第230條,該條款保護線上平臺免受第三方內容的民事責任。
"具體來說,我們將不得不就什麼年齡段的東西是合適的進行一些對話,我們也將不得不修改一些法律,比如第230條,以允許在最糟糕的情況下承擔責任。"