新研究表明,鼓励来自不同背景的数据标记者达成共识可以带来更好的人工智能来检测社交媒体上的厌女症和骚扰

2021-08-06 01:52:19

去年大约六个月的时间里,Nina Nørgaard 每周与七个人会面一个小时,讨论社交媒体上用于针对女性的性别歧视和暴力语言。哥本哈根 IT 大学的博士生 Nørgaard 和她的讨论小组正在参与一项不同寻常的努力,以更好地识别在线厌女症。研究人员付钱给这七个人检查数千个 Facebook、Reddit 和 Twitter 帖子,并确定它们是否证明了性别歧视、刻板印象或骚扰。每周一次,研究人员将 Nørgaard 作为调解人的小组聚集在一起,讨论他们不同意的艰难呼吁。厌女症是一种祸害,它塑造了女性在网上的表现方式。一项 2020 年国际计划研究是有史以来规模最大的一项研究,该研究发现,22 个国家/地区超过一半的女性表示她们曾在网上受到骚扰或虐待。五分之一的遭受虐待的女性表示,她们因此改变了自己的行为——减少或停止使用互联网。社交媒体公司使用人工智能来识别和删除贬低、骚扰或威胁对女性施暴的帖子,但这是一个棘手的问题。在研究人员中,没有识别性别歧视或厌恶女性帖子的标准;最近的一篇论文提出了四类麻烦的内容,而另一篇则确定了 23 类。大多数研究都是用英语进行的,这使得在其他语言和文化中工作的人们对困难且通常是主观的决定的指导更少。因此,丹麦的研究人员尝试了一种新方法,聘请 Nørgaard 和 7 名全职人员来审查和标记帖子,而不是依赖经常由帖子支付报酬的兼职承包商。他们故意选择不同年龄、不同国籍、不同政治观点的人,以减少来自单一世界观的偏见的机会。贴标签者包括一名软件设计师、一名气候活动家、一名女演员和一名卫生保健工作者。 Nørgaard 的任务是让他们达成共识。 “最重要的是他们不同意。我们不想要隧道视野。我们不希望每个人都有相同的想法,”Nørgaard 说。她说她的目标是“让他们在自己之间或团队之间进行讨论。” Nørgaard 认为她的工作是帮助贴标员“自己找到答案”。随着时间的推移,她逐渐认识了这七个人中的每一个,例如,谁比其他人说得更多。她试图确保没有人主导谈话,因为这意味着讨论,而不是辩论。最严厉的电话涉及讽刺、笑话或讽刺的帖子;他们成为谈话的重要话题。然而,随着时间的推移,“会议变得越来越短,人们讨论的也越来越少,所以我认为这是一件好事,”Nørgaard 说。

该项目背后的研究人员称其为成功的。他们说对话导致了更准确标记的数据来训练人工智能算法。研究人员表示,对数据集进行微调的人工智能可以在 85% 的时间内识别流行社交媒体平台上的厌女症。一年前,最先进的厌女症检测算法的准确率约为 75%。该团队总共审查了近 30,000 个帖子,其中 7,500 个被视为滥用。这些帖子是用丹麦语写的,但研究人员表示,他们的方法可以应用于任何语言。 “我认为如果你要注释厌女症,你必须遵循一种至少包含我们大部分元素的方法。否则,您将面临低质量数据的风险,这会破坏一切,”该研究的合著者、哥本哈根 IT 大学副教授 Leon Derczynski 说。这些发现可能对社交媒体之外的有用。企业开始使用人工智能来筛选工作列表或公开文本,例如性别歧视的新闻稿。如果女性为了避免骚扰而将自己排除在网络对话之外,那将扼杀民主进程。 “如果你打算对针对一半人口的威胁和侵略视而不见,那么你将无法拥有尽可能好的民主在线空间,”Derczynski 说。非营利组织 Plan International 去年对在线性别歧视和骚扰进行的调查发现,攻击在 Facebook 上最为常见,其次是 Instagram、WhatsApp 和 Twitter。该调查发现,针对女性的在线攻击往往集中在辱骂性语言、身体羞辱等故意尴尬行为以及性暴力威胁上。皮尤研究中心在 1 月份发布的在线骚扰状况报告中表示,去年报告性骚扰和跟踪事件的受访者比例高于 2017 年的调查。皮尤研究中心发现,男性更有可能遭受网络骚扰,而女性则更有可能遭受跟踪或性骚扰,并且在经历骚扰事件后对遭遇感到极度不安的可能性是女性的两倍多。大约一半的受访女性表示,她们遇到过基于性别的骚扰。接受调查的黑人或拉丁裔的人数相似,他们认为自己因为种族或民族而成为攻击目标。标记数据可能看起来很平庸,但标记数据是使机器学习算法发挥作用的燃料。人工智能伦理和公平研究人员呼吁人工智能制造商更加关注用于训练大型语言模型的数据集,如 OpenAI 的文本生成器 GPT-3 或用于识别照片中对象的 ImageNet 模型。这两种模型都因推进人工智能领域而广为人知,但它们已被证明会产生种族主义和性别歧视的内容或分类。

丹麦的这项研究是最近一系列旨在改善人们如何使用人工智能识别和消除在线论坛中的厌女症的工作之一。来自艾伦图灵研究所和英国大学的研究人员还培训了注释员和调解员,以审查 6,500 多篇 Reddit 帖子,以在 4 月份的一次会议上发表论文。研究人员表示,他们关注 Reddit 是因为它“越来越多地成为许多厌恶女性的社区”。在图灵研究所的研究中,数据标记者按时间顺序阅读帖子,以了解对话的上下文,而不是从单个帖子中得出结论。与丹麦的研究一样,研究人员召开会议以就应如何标记帖子寻求共识。因此,他们声称在使用经过数据集微调的语言模型识别在线内容中的厌女症时,准确率高达 92%。 Elisabetta Fersini 是意大利米兰比可卡大学的助理教授,自 2017 年以来一直在研究社交媒体中的厌女症。 Fersini 和一些同事本周与西班牙大学和谷歌的 Jigsaw 部门合作发起了一项竞赛,以提高在线检测带有客观化、暴力、身体羞辱或其他类型的厌女症的模因。去年,Facebook 举办了类似的活动,即可恶的 meme 挑战。 Fersini 称丹麦研究人员的方法有助于标记数据和构建强大的 AI 模型。她赞扬这项研究包括来自多个社交媒体网络的帖子,因为许多研究依赖于来自单个网络的数据。但她认为这项研究本可以采用更细粒度的方法来标记数据,就像图灵研究所的研究人员使用的那样。费尔西尼说,在她的工作中,她观察到了网上厌女症的一些共性。例如,像将女性称为母狗这样的侮辱相当普遍,但厌女症在不同语言中的表现有所不同。她说,例如,西班牙语在线帖子中与支配地位相关的性别歧视内容比例更高,而意大利社交媒体用户则倾向于刻板印象和物化,而且说英语的人比意大利或西班牙人更倾向于诋毁女性。语言的语法结构也会使问题复杂化。例如:在英语中说“你很漂亮”并不意味着特定的性别,但在意大利语或西班牙语等罗曼语语言中的同一句话可以表明它是对女人说的。像芬兰语这样的语言有中性代词。

“厌女症取决于人们看到特定图像或文本的文化和社会人口统计特征,”费尔西尼说。她主张用多种语言进行研究。 “我们的看法可能完全不同,这是因为许多因素:我住在哪里、教育水平、教育类型以及与特定宗教的关系。”例如,在丹麦的研究中,发现的最常见的厌女症形式是“新性别主义”,它基于女性已经实现平等的信念否认了厌女症的存在。新性别主义于 1990 年代由加拿大研究人员首次提出。此后的后续研究揭示了这种现象在丹麦和瑞典等斯堪的纳维亚国家的存在。丹麦研究人员表示,目前尚不清楚新性别主义在其他社会中的普遍程度,但他们建议未来的研究在标记特定类型的厌女症时包括该术语。印度海得拉巴国际信息技术研究所的博士生 Pulkit Parikh 说,根据他的经验,标注性别歧视和厌女症的注释者常常不同意。 2019 年,Parikh 及其同事与数据标签师合作,根据从“日常性别歧视项目”中收集到的世界各地人们的见证或经历,创建了一个数据集。今年早些时候,该数据集被用来创建一种方法来检测性别歧视或厌女症,有 23 个类别,从性欲亢进到敌对的工作环境,再到性骚扰或“男性诽谤”。注释者发现,近一半的评论帖子可以定义为包含多种形式的性别歧视或厌女症。丹麦的研究为改进人工智能提供了其他见解。研究完成后,研究人员询问数据标注员如何改进他们的方法。最常见的反应:有更多时间讨论标签上的分歧。 “他们需要更多时间告诉你这很难,”微软的人类学家和高级首席研究员玛丽格雷说。她是 Ghost Work 的合著者,该书于 2018 年出版,内容涉及众包工作者通过 Amazon 的 Mechanical Turk 等平台执行数据标记等任务。 Facebook 和 Twitter 的发言人拒绝回答有关这些公司如何标记用于训练 AI 以在线检测厌女症的数据的问题。格雷说,传统上,为社交媒体公司培训人工智能进行内容审核的数据标记是由承包商查看用户报告为骚扰的材料来完成的,而对其背后的背景或细微差别几乎没有洞察力。她说这种方法无助于评估“在模棱两可的世界中游泳”的暴力言论。

“我在商业领域的工程和计算机科学领域的同事不知道这有多么具有挑战性,因为他们对人性的看法如此简化,”她说。格雷说,丹麦和图灵研究人员采用的方法“对人性和个人有更微妙的感觉,但它仍然考虑个人,这最终会破坏系统。”她认为在标记过程中使用调解员可以向前迈出一步,但解决在线骚扰需要的不仅仅是一个好的算法。 “这种方法让我感到困扰的是,它假设可能有一组注释器可以查看语料库并生成适用于世界上每个人的分类器,”她说。多项研究发现,厌女症是进行大规模枪击事件的人的共同特征。彭博社今年早些时候的一项审查发现,在 2014 年至 2019 年期间,近 60% 的伤亡人数超过四人的枪击事件涉及具有家庭暴力历史或正在实施家庭暴力的侵略者。跟踪和性骚扰的指控在大规模射手中也很常见。格雷认为,被认为可能厌恶女性的帖子应该被标记,然后交给调解员,而不是通过人工智能自动决策,例如,这可能导致黑人生命问题活动家被踢出 Facebook,而不是白人至上主义者。这对社交媒体公司来说是一个挑战,因为这意味着仅靠技术无法解决问题。 “大多数父母无法理解他们的青少年,”她说。 “我不知道为什么我们在谈论构建分类器来做任何与在线单词有关的事情时不使用相同的逻辑,更不用说这些非常细微的传递痛苦的方式了。”她说,认为“关于人类和群体如何表达像骚扰这样复杂的事情,很容易归类是很天真的。”早期的研究还试图鼓励数据标记者达成共识,以此作为克服歧义的一种方式。在 2018 年的一项研究中,来自 SAFElab 的研究人员结合了社会工作、计算机科学和年轻人的专业知识,与芝加哥当地专家合作,对与帮派暴力相关的推文进行标记。该项目发现,人工智能分析推文可以识别凶杀案后可能发生报复性枪击的情况。组装该数据集还要求注释者在标记内容时达成共识。 “有一个研究分歧的过程变得非常重要,”哥伦比亚大学教授兼 SAFElab 主任德斯蒙德巴顿说。 “您可以从这些分歧中学习如何改进标签流程。”

🏃🏽‍♀️ 想要获得健康的最佳工具吗?查看我们的 Gear 团队精选的最佳健身追踪器、跑步装备(包括鞋子和袜子)和最佳耳机