本月,纽约州司法部长将通过“美国”发布了一份关于计划的报告公司和党派[以]黑客民主。“这不是共和党人的另一个尝试,让黑人和城市居民更加努力。这是对美国民主的另一个核心要素的一致攻击 - 公民能够向他们的政治代表表达声音。它是通过产生数百万伪的评论和众所周知来源于真正的公民的假电子邮件来实现。
这种攻击被检测到,因为它相对粗糙。但是,人工智能技术使得可以在规模中产生真正看似的评论,淹没了真正的公民的声音,在潮汐浪潮中。
随着像保罗皮尔森这样的政治科学家指出,选举之间会发生什么对民主很重要。政客塑造政策,他们制定了法律。通过联系他们的代表或评论拟议的规则,可以批准或谴责政治家正在做的事情。
这就是应该发生的事情。但正如纽约报告所示,它往往没有。大电信公司向专家“Astroturf”公司支付了数百万美元,以产生公众意见。然后,这些公司窃取了来自旧文件的人们的姓名和电子邮件地址,并从黑客数据转储,并将其附加到850万公众评论和向国会成员的一百万个字母。他们所有人都说,他们支持公司的职位上的东西“网络中立”,即电信公司必须平等地治疗所有互联网内容并不优先考虑任何公司或服务。三家Astroturf公司 - 流利,选择性智力和反应2media - 同意支付近400万美元的罚款。
假货是原油。其中许多是相同的,而其他人则是简单的文本变化的补丁:例如,互相替换“联邦通信委员会”和“FCC”。
但下次,我们不会那么幸运。新技术即将更容易地生成巨大的令人信服的个性化评论和字母,每个都具有自己的单词选择,表现力和精辟的例子。创造假基层组织的人一直非常高兴的技术,武器,传真,电子邮件和网络评论,以制造公共支持或公共愤怒的外观。
采用生成的预训练变压器3,或GPT-3,由Openai创建的AI模型,旧金山基于旧金山的启动。随着最低提示,GPT-3可以产生令人信服的看似报纸文章,即使是欧内斯特海明威风格的哈利波特风扇小说。使用这些技术来弥补大量的公众评论或给立法者的信件是易于使用的。
Openai限制了对GPT-3的访问,而是在最近的实验中,研究人员使用不同的文本生成计划,以提交1,000名评论,以应对政府在医疗补助问题上的公共投入请求。他们都听起来很独特,就像真正的人倡导具体的政策职位。他们愚弄了Medicaid.gov管理员,他接受了他们对实际人类的真正担忧。研究人员随后确定了评论并要求他们被移除,因此没有实际的政策辩论将是不公平的偏见。其他人不会是如此道德。
当闸门开放时,民主的言论是淹没在假信和评论,推文和Facebook帖子的潮水之下的危险。危险不仅仅是为了不受欢迎的位置可以为不受欢迎的位置生成假支撑。这是公众评论将被完全信誉。这对专家Astroturf公司来说是坏消息,如果没有公众可以假装代表,那么就没有商业模式。但它仍然会让其他种类的游说者仍然可以证明他们是他们所说的。
我们可能有一个简短的窗户来覆盖洪水墙。最有效的反应是规范UCLA社会学家爱德华沃克被描述为“雇用”行业的“基层”。故意制造公民声音的组织不应仅限于民事罚款,而是对刑事处罚。雇用这些组织的企业应对监督失败承担责任。不可能证明或反驳电信公司是否知道他们的分包商会产生虚假公民声音,但责任标准至少将这些公司提供了一个激励措施。然而,这可能会在政治上难以解决,因为许多强大的演员从现状中受益。
编辑要添加:CSECE发布了关于AI生成的Pareisan内容的出色报告。简短摘要:它非常好,并将继续变得更好。 Renee Derista也写了这一点。