阅读时间: 6 分钟
我们热爱谷歌。而且,作为一名营销专业人士和技术人员,我不能不向谷歌询问我心中的一切问题。我知道互联网并不总是最好的信息来源,但它如此快捷和方便,因此不使用它也是不可避免的。
问题在于,我们对 SERP 中的独特信息过于B 顶级电子邮件列表 满意,而没有仔细检查这些信息。我们阅读算法认为对我们有用的内容。因此,我们更容易陷入隐性偏见、半真半假或错误信息。
Google 及其 SERP 是否会导致更多偏见?在本文中,我们将研究这种算法在被误用时如何强化我们的无意识偏见(以及我们作为营销人员、SEO 专业人员和内容制作者的责任)。
什么是隐性偏见?
根据 perception.org 的说法,隐性偏见描述的是我们对人的态度或与刻板印象有关,而我们并没有完全意识到这一点。一些例子包括将犯罪与特定的社会群体联系起来,或将弱点与女性气质联系起来,而没有意识到这一点。
这些偏见可能是积极的,也可能是消极的,并且可能来自任何类型的人。
然而,人们不仅仅是刻板印象,算法往往无法反映人类的细微差别。
值得注意的是,性别并不是引发无意识偏见的唯一因素。其他可能包括:
- 种族;
- 宗教;
- 政治意识形态;
- 年龄;
- 社会阶层;
- 国籍。
是的,即使在今天,我们也 如何影响结果 能看到刻板印象 数据即服务 (DaaS) – 公司如何影响着营销工作。让我们深入探讨一下。
搜索引擎在这方面应该做什么?
前几天,我正在寻找一位女总统的图片。对我来说,最主要的结果是男性总统,这非常令人好奇。我必须明确指出,我正在寻找一位女性总统。
相比之下,当我在搜索引擎中输入“美发沙龙 人工智慧資料庫 ”时,结果页面上显示的大多是女性的图片。
当我谈论这些偏见如何存在于我们的日常生活中时,我试图解释这一点。即使是在简单的 Google 搜索中。
对于 SERP 如何强化偏见的担忧并不是什么新鲜事。 2013年,联合国妇女署发起了一项名为“自动完成的真相”的活动,揭露了自动完成功能是如何暗示一些刻板印象的。
另一方面,作家萨菲亚·诺布尔在她的著作《压迫算法》中展示并批评了搜索引擎在强化刻板印象方面所发挥的重要作用。
作者谈到了谷歌的种族主义历史
在一个简单的例子中,她展示了输入与 如何影响结果 直发白人女性相关的“专业发型”和与非裔美国人或黑人女性相关的“非专业发型”时出现的结果。
来源:时代周刊
在最近使用海量互联网文本语料库中的词嵌入进行的研究中,代表“人”概念的词语(例如“某人”或“人类”)更有可能与“男人”而不是“女人”一起出现,这表明社会中个人集体表现出的“默认男性气质”偏见。