谷歌的Gemini模型因其生成的歷史不準確和種族偏見的圖像而受到批評,重新引發了人們對人工智慧系統偏見的擔憂。
隨著社群媒體平台上的用戶充斥著Gemini生成的圖片的例子,這些圖片描繪了不同種族的納粹分子、中世紀英國黑人國王和其他不可能的場景,爭議隨之而來。
谷歌Gemini圖像生成模型因「喚醒」而受到批評。
- Darosham (@Darosham_) 2024 年 2 月 22 日
Gemini為歷史上特定的提示生成了不同的圖像,引發了關於準確性與包容性的爭論。 pic.twitter.com/YKTt2YY265
同時,批評者也指出,出於對原住民敏感度的尊重,雙子座拒絕描繪白人、舊金山的教堂,以及1989年天安門廣場等敏感歷史事件。
為了回應這種強烈反對,GoogleGemini體驗產品負責人傑克·克勞奇克(Jack Krawczyk)承認了這個問題並承諾予以糾正。 Krawczyk 在社群媒體平台 X 上向用戶保證:
我們知道Gemini在一些歷史圖像生成描述中提供了不準確的信息,我們正在努力立即修復此問題。
— 傑克·克勞奇克 (@JackK) 2024 年 2 月 21 日
作為我們人工智慧原則的一部分https://t.co/BK786xbkey ,我們設計圖像生成功能來反映我們的全球用戶群,並且我們…
目前,谷歌表示正在暫停人物圖像生成:
我們已經在努力解決 Gemini 影像生成功能的最新問題。在我們這樣做的同時,我們將暫停人物圖像的生成,並將很快重新發布改進的版本。 https://t.co/SLxYPGoqOZ
- 谷歌通訊 (@Google_Comms) 2024 年 2 月 22 日
雖然承認需要解決人工智慧生成內容的多樣性問題,但有些人認為谷歌的反應有點矯枉過正。
Netscape 和a16z的共同創辦人 Marc Andreessen 最近創建了一個名為Goody-2 LLM 的「極度安全」的模仿人工智慧模型,該模型拒絕回答被認為有問題的問題。安德森警告說,商業人工智慧系統中存在更廣泛的審查和偏見趨勢,並強調了此類發展的潛在後果。
為了解決更廣泛的影響,專家們強調人工智慧模型集中在幾家大公司的手中,並主張開發開源人工智慧模型以促進多樣性和減少偏見。
Meta 的首席人工智慧科學家 Yann LeCun 強調了培育多元化人工智慧模式生態系統的重要性,就像自由和多元化媒體的需求一樣:
我們需要開源人工智慧基礎模型,以便可以在它們之上建立一組高度多樣化的專業模型。
— Yann LeCun (@ylecun) 2024 年 2 月 21 日
我們需要一組自由且多樣化的人工智慧助手,就像我們需要自由且多樣化的媒體一樣。
它們必須反映語言、文化的多樣性… https://t.co/9WuEy8EPG5
Abacus.AI 執行長 Bindu Reddy 對於沒有健康的開源模型生態系統的權力集中也有類似的擔憂:
如果我們沒有開源法學碩士,歷史將被專有法學碩士完全扭曲和混淆
— Bindu Reddy (@bindureddy) 2024 年 2 月 21 日
我們已經生活在一個非常危險和受到審查的世界,你不被允許說出你的想法。
審查制度和權力集中是…的定義。
隨著圍繞人工智慧的倫理和實際影響的討論不斷進行,對透明和包容性人工智慧開發框架的需求變得越來越明顯。
另請參閱: 據報道 Reddit 正在出售用於人工智慧訓練的數據

想向產業領導者了解更多關於人工智慧和大數據的知識嗎?查看在阿姆斯特丹、加州和倫敦舉辦的人工智慧與大數據博覽會。該綜合活動與BlockX 、數位轉型週和網路安全與雲端博覽會等其他領先活動同期舉辦。
在此探索由 TechForge 提供支援的其他即將舉行的企業技術活動和網路研討會。





