的意见

年龄歧视、性别歧视、阶级歧视和更多:7 AI-generated图像的例子的偏见

一系列新工具可以快速创建令人难以置信的图片使用一些描述性的文字,由于生成的人工智能。但RMIT T.J.汤姆森和密苏里大学哥伦比亚分校的瑞安·j·托马斯指出,那些照片可以模仿人类的偏见和深化的不平等。

如果最近你一直在线,那么你看到的一些捕风捉影的图像由text-to-image发电机Midjourney和DALL-E等2。这包括从自然主义(认为足球运动员的头像)超现实的(想想太空狗)。

创建图像使用人工智能发电机从来都不是简单的。然而,与此同时,这些输出能够重现偏见和深化的不平等我们的最新研究所示。

人工智能图像生成器如何工作?

基于ai图像生成器使用机器学习模型,文本输入,产生一个或多个图像匹配的描述。训练这些模型需要大量数据集与数以百万计的图像。

尽管Midjourney对其算法的工作方式不透明,大多数人工智能图像生成器使用这一过程被称为扩散。通过添加随机扩散模型工作“噪音”训练数据,然后学习恢复数据通过消除噪音。模型的重复这个过程,直到有一个形象相匹配的提示。

这是不同的大型语言模型支撑ChatGPT等其他人工智能工具。大型语言模型训练在未标记的文本数据,他们学习语言的分析模式和生产人类反应提示。

偏见是如何发生的?

在生成的人工智能,输入影响输出。如果用户指定他们只想包括人们的某种肤色或性别形象,模型会考虑这个。

除此之外,然而,该模型也将返回一个默认倾向某些类型的输出。这通常是底层的算法是如何设计的结果,或在训练数据缺乏多样性。

我们的研究探索如何Midjourney展现看似通用术语在专业媒体的背景下,职业(如“新闻分析师”、“新闻评论员”和“小说主人公”)和non-specialised(如“记者”、“记者”,“记者”和“媒体”)。

去年八月我们开始分析结果。六个月后,看看什么改变了随着时间的推移,我们产生的额外的图像同样的提示。

我们分析了超过100 AI-generated图像在此期间。结果是基本一致的。这里有七个偏见,出现在我们的结果。

年龄歧视和性别歧视

non-specialised职位头衔,Midjourney返回的图像只有年轻的男人和女人。的专业角色,年轻的和年长的人都显示,但老年人总是男人。

这些结果暗示强化一些偏见,包括假设老年人没有(或不能)在non-specialised工作角色,只有老男人是适合专业的工作,而更少的专业工作是一个女人的领域。

也有显著的差异,男性和女性如何。例如,女性年轻、不皱的,而男人是“允许”有皱纹。

AI似乎也存在性别作为一个二进制文件,而不是显示性别表达更流畅的例子。

种族偏见

所有返回的图像等方面的“记者”,“记者”或“记者”只出现浅肤色的人。这一趋势的假设默认白种族霸权建立到系统的证据。

这可能反映了缺乏多样性和代表性基础训练数据——一个因素反过来影响人工智能行业普遍缺乏工作场所的多样性。

阶级歧视和保守主义

所有的数字图像也“保守”的外表。例如,没有纹身、穿孔,非传统的发型,或任何其他属性,可以区别于保守主流的描述。

很多人还穿着正式的服装如扣好衬衫和领带,这类期望的标志。虽然这装束可能会对某些角色,如电视主持人,不一定真实反映一般记者或新闻记者的裙子。

都市生活

不指定任何位置或地理环境,AI将所有的数据在城市环境中高耸的摩天大楼和其他大型城市建筑。尽管仅略超过一半的世界人口居住在城市。

这种偏见对我们如何看待自己,以及我们的程度与社会的其他部分。

时代错误

数字技术是弱势的样本。相反,技术从一个完全不同的时代——包括打印机、印刷机和超大号的古董相机——充满了样品。

因为许多专业人士类似这些天,AI似乎利用更多不同的技术(包括历史的)的角色更明确的表示。

下次当你看到AI-generated意象,问问你自己是多么的代表更广泛的人口和站内受益于表示。

同样,如果你产生图像,考虑潜在的偏见的时候,要尽量使你提示。否则你可能无意中加强同样有害社会刻板印象花了数十年时间试图忘却。

这篇文章最初发表在谈话并与许可复制在这里。

T.J.汤姆森是一个高级讲师RMIT大学视觉传达和数字媒体。瑞安·j·托马斯是一个密苏里大学新闻学研究的助理教授。

广告

获得最新的媒体和营销行业新闻(和视图)直接发送到您的收件箱中。

现在签署自由Mumbrella通讯。

订阅

注册我们的免费的每日更新最新的媒体和营销。