澎湃Logo
下载客户端

登录

  • +1

涉嫌逆向种族歧视,谷歌暂停人工智能模型Gemini的图像生成功能

澎湃新闻记者 南博一 实习生 李怡彬
2024-02-23 18:31
来源:澎湃新闻
全球速报 >
字号

据《环球时报》2月22日报道,谷歌公司的人工智能模型Gemini被指无法正确生成白人历史图像,引起外界争议。据多家外媒最新报道,谷歌公司已宣布暂停旗下人工智能模型Gemini生成人物图像的功能,原因是基于该模型生成的历史人物图像不准确。Gemini用户此前在社交平台上发文称, Gemini错误地将应当是白人的历史人物的图像生成为有色人种,这引发了人们对于人工智能存在种族歧视问题的担忧。

谷歌公司于本月早些时候开始通过Gemini模型提供图像生成服务,但在过去几天,社交平台上的一些用户指出该模型生成的历史人物图像不准确。报道称,Gemini在被要求提供教皇的图像时,生成了一个男人和一个女人的图像,两人都不是白人。社交平台X上的用户还发现,Gemini不仅提供了有色人种的“三个火枪手”和俄罗斯沙皇图像,甚至在提供1943年的德国士兵图像时,生成了含有有色人种的图像。

作为回应,谷歌公司暂停了Gemini的图像生成服务,发文称“我们已经在努力解决 Gemini 图像生成功能的最新问题。在我们这样做的同时,我们将暂停人物图像生成,并将很快重新发布改进版本。”谷歌公司此前一天在社交平台X上表示,该公司“意识到Gemini在一些历史图像生成描述中提供了不准确的信息”,并且“正在努力立即改进这些类型的描述”。声明解释称,“Gemini的人工智能图像生成确实生成了各种各样的人。这通常是一件好事,因为世界各地的人们都在使用它。”

这一尴尬错误表明人工智能模型在应对种族歧视议题时仍存在重大缺陷。据彭博社去年6月发布的报道指出,OpenAI旗下的Dall-E图像生成器存在甚至放大了种族刻板印象,遭受外界广泛批评。谷歌公司似乎正在尝试解决刻板印象的问题,Gemini的首席产品总监杰克·克劳奇克(Jack Krawczyk)于21日表示,谷歌公司有意设计了图像生成功能“来反映我们的全球用户群”。但目前看来,该模型似乎又矫枉过正,使得人工智能模型难以生成白人图片,适得其反。

Gemini图像生成工具的错误引发了外界批评其存在“反白人偏见”。特斯拉CEO马斯克20日在社交平台上表达了对Gemini的批评,声称谷歌的人工智能模型是“觉醒的”和“种族主义的”。曾在谷歌公司工作的计算机科学家德巴吉亚·达斯(Debarghya Das)也表示,“让Gemini承认白人存在是非常困难的”。

不过,人工智能领域的专家反对就此认定人工智能存在“逆向歧视”。据美联社报道,研究人工智能图像生成器偏见的华盛顿大学研究员戈什(Sourojit Ghosh)表示,他的研究并不支持“白人擦除”的结论。他指出,现有文献和研究都表明,(美国社会中)传统上的边缘群体极易被人工智能模型抹去,而创造一个不会造成代表性损害的图像生成工具的努力不会一蹴而就。

美国《连线》杂志引用纽约大学心理学和神经科学名誉教授、人工智能企业家加里·马库斯(Gary Marcus)认为,造成该错误的原因纯粹是软件自身的缺陷。马库斯认为Gemini是一个“糟糕的软件”,无法区分历史请求(例如要求展示阿波罗11号的宇航员)和现在的请求(例如要求当前宇航员的图像)。

    责任编辑:张无为
    图片编辑:朱伟辉
    校对:栾梦
    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈