谷歌承诺修复 Gemini 不准确且有偏见的图像生成问题

avatar
AI News
02-22
本文为机器翻译
展示原文

谷歌的Gemini模型因其生成的历史不准确和种族偏见的图像而受到批评,重新引发了人们对人工智慧系统偏见的担忧。

随著社群媒体平台上的用户充斥著Gemini生成的图片的例子,这些图片描绘了不同种族的纳粹分子、中世纪英国黑人国王和其他不可能的场景,争议随之而来。

谷歌Gemini图像生成模型因「唤醒」而受到批评。

Gemini为历史上特定的提示生成了不同的图像,引发了关于准确性与包容性的争论。 pic.twitter.com/YKTt2YY265

- Darosham (@Darosham_) 2024 年 2 月 22 日

同时,批评者也指出,出于对原住民敏感度的尊重,双子座拒绝描绘白人、旧金山的教堂,以及1989年天安门广场等敏感历史事件。

为了回应这种强烈反对,GoogleGemini体验产品负责人杰克·克劳奇克(Jack Krawczyk)承认了这个问题并承诺予以纠正。 Krawczyk 在社群媒体平台 X 上向用户保证:

我们知道Gemini在一些历史图像生成描述中提供了不准确的信息,我们正在努力立即修复此问题。

作为我们人工智慧原则的一部分https://t.co/BK786xbkey ,我们设计图像生成功能来反映我们的全球用户群,并且我们…

— 杰克·克劳奇克 (@JackK) 2024 年 2 月 21 日

目前,谷歌表示正在暂停人物图像生成:

我们已经在努力解决 Gemini 影像生成功能的最新问题。在我们这样做的同时,我们将暂停人物图像的生成,并将很快重新发布改进的版本。 https://t.co/SLxYPGoqOZ

- 谷歌通讯 (@Google_Comms) 2024 年 2 月 22 日

虽然承认需要解决人工智慧生成内容的多样性问题,但有些人认为谷歌的反应有点矫枉过正。

Netscape 和a16z的共同创办人 Marc Andreessen 最近创建了一个名为Goody-2 LLM 的「极度安全」的模仿人工智慧模型,该模型拒绝回答被认为有问题的问题。安德森警告说,商业人工智慧系统中存在更广泛的审查和偏见趋势,并强调了此类发展的潜在后果。

为了解决更广泛的影响,专家们强调人工智慧模型集中在几家大公司的手中,并主张开发开源人工智慧模型以促进多样性和减少偏见。

Meta 的首席人工智慧科学家 Yann LeCun 强调了培育多元化人工智慧模式生态系统的重要性,就像自由和多元化媒体的需求一样:

我们需要开源人工智慧基础模型,以便可以在它们之上建立一组高度多样化的专业模型。
我们需要一组自由且多样化的人工智慧助手,就像我们需要自由且多样化的媒体一样。
它们必须反映语言、文化的多样性… https://t.co/9WuEy8EPG5

— Yann LeCun (@ylecun) 2024 年 2 月 21 日

Abacus.AI 执行长 Bindu Reddy 对于没有健康的开源模型生态系统的权力集中也有类似的担忧:

如果我们没有开源法学硕士,历史将被专有法学硕士完全扭曲和混淆

我们已经生活在一个非常危险和受到审查的世界,你不被允许说出你的想法。

审查制度和权力集中是…的定义。

— Bindu Reddy (@bindureddy) 2024 年 2 月 21 日

随著围绕人工智慧的伦理和实际影响的讨论不断进行,对透明和包容性人工智慧开发框架的需求变得越来越明显。

(照片由Unsplash上​​的Matt Artz拍摄)

另请参阅: 据报道 Reddit 正在出售用于人工智慧训练的数据

想向产业领导者了解更多关于人工智慧和大数据的知识吗?查看在阿姆斯特丹、加州和伦敦举办的人工智慧与大数据博览会。该综合活动与BlockX数位转型周网路安全与云端博览会等其他领先活动同期举办。

在此探索由 TechForge 提供支援的其他即将举行的企业技术活动和网路研讨会。

谷歌承诺修复 Gemini 不准确且有偏见的图像生成问题的帖子首先出现在AI News上。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
3
收藏
评论