谷歌承諾修復 Gemini 不準確且有偏見的圖像生成問題

avatar
AI News
02-22
本文為機器翻譯
展示原文

谷歌的Gemini模型因其生成的歷史不準確和種族偏見的圖像而受到批評,重新引發了人們對人工智慧系統偏見的擔憂。

隨著社群媒體平台上的用戶充斥著Gemini生成的圖片的例子,這些圖片描繪了不同種族的納粹分子、中世紀英國黑人國王和其他不可能的場景,爭議隨之而來。

谷歌Gemini圖像生成模型因「喚醒」而受到批評。

Gemini為歷史上特定的提示生成了不同的圖像,引發了關於準確性與包容性的爭論。 pic.twitter.com/YKTt2YY265

- Darosham (@Darosham_) 2024 年 2 月 22 日

同時,批評者也指出,出於對原住民敏感度的尊重,雙子座拒絕描繪白人、舊金山的教堂,以及1989年天安門廣場等敏感歷史事件。

為了回應這種強烈反對,GoogleGemini體驗產品負責人傑克·克勞奇克(Jack Krawczyk)承認了這個問題並承諾予以糾正。 Krawczyk 在社群媒體平台 X 上向用戶保證:

我們知道Gemini在一些歷史圖像生成描述中提供了不準確的信息,我們正在努力立即修復此問題。

作為我們人工智慧原則的一部分https://t.co/BK786xbkey ,我們設計圖像生成功能來反映我們的全球用戶群,並且我們…

— 傑克·克勞奇克 (@JackK) 2024 年 2 月 21 日

目前,谷歌表示正在暫停人物圖像生成:

我們已經在努力解決 Gemini 影像生成功能的最新問題。在我們這樣做的同時,我們將暫停人物圖像的生成,並將很快重新發布改進的版本。 https://t.co/SLxYPGoqOZ

- 谷歌通訊 (@Google_Comms) 2024 年 2 月 22 日

雖然承認需要解決人工智慧生成內容的多樣性問題,但有些人認為谷歌的反應有點矯枉過正。

Netscape 和a16z的共同創辦人 Marc Andreessen 最近創建了一個名為Goody-2 LLM 的「極度安全」的模仿人工智慧模型,該模型拒絕回答被認為有問題的問題。安德森警告說,商業人工智慧系統中存在更廣泛的審查和偏見趨勢,並強調了此類發展的潛在後果。

為了解決更廣泛的影響,專家們強調人工智慧模型集中在幾家大公司的手中,並主張開發開源人工智慧模型以促進多樣性和減少偏見。

Meta 的首席人工智慧科學家 Yann LeCun 強調了培育多元化人工智慧模式生態系統的重要性,就像自由和多元化媒體的需求一樣:

我們需要開源人工智慧基礎模型,以便可以在它們之上建立一組高度多樣化的專業模型。
我們需要一組自由且多樣化的人工智慧助手,就像我們需要自由且多樣化的媒體一樣。
它們必須反映語言、文化的多樣性… https://t.co/9WuEy8EPG5

— Yann LeCun (@ylecun) 2024 年 2 月 21 日

Abacus.AI 執行長 Bindu Reddy 對於沒有健康的開源模型生態系統的權力集中也有類似的擔憂:

如果我們沒有開源法學碩士,歷史將被專有法學碩士完全扭曲和混淆

我們已經生活在一個非常危險和受到審查的世界,你不被允許說出你的想法。

審查制度和權力集中是…的定義。

— Bindu Reddy (@bindureddy) 2024 年 2 月 21 日

隨著圍繞人工智慧的倫理和實際影響的討論不斷進行,對透明和包容性人工智慧開發框架的需求變得越來越明顯。

(照片由Unsplash上​​的Matt Artz拍攝)

另請參閱: 據報道 Reddit 正在出售用於人工智慧訓練的數據

想向產業領導者了解更多關於人工智慧和大數據的知識嗎?查看在阿姆斯特丹、加州和倫敦舉辦的人工智慧與大數據博覽會。該綜合活動與BlockX數位轉型週網路安全與雲端博覽會等其他領先活動同期舉辦。

在此探索由 TechForge 提供支援的其他即將舉行的企業技術活動和網路研討會。

谷歌承諾修復 Gemini 不準確且有偏見的圖像生成問題的帖子首先出現在AI News上。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
3
收藏
評論