为什么你应该关心数据隐私,即使你有“没有隐藏” - 是的,你的数据用于销售你的鞋子。 但它也可以用来销售意识形态。

2021-04-04 03:24:30

当我告诉人们我写下数据隐私时,我通常会沿着这两个答复的线条获取一些东西:

“Facebook听我了吗?我收到了鹦鹉食物的广告,唯一可能的解释是,Facebook听到了我的朋友告诉我他的新宠物鹦鹉,因为他提到了确切的品牌,我甚至以前从未听过过。“

“我相信这对某人很重要,但我没有任何东西可以隐藏。为什么我要关心数据隐私?“

每天通过我们的手机,计算机,汽车,房屋,电视,智能扬声器,智能扬声器,基本上是与互联网相连的东西,以及类似信用卡购买的东西甚至是驾驶执照的信息。我们对大部分数据集合没有很多控制,我们往往不会意识到它的何时或方式。这包括如何用于影响我们的方式。

也许这需要广告的形式购买鹦鹉食物。但它也可能采取建议的形式,观看YouTube视频关于全球主义世界领导和好莱坞星星如何运行恋童癖戒指,只有特朗普总统才能停止。

“像YouTube这样的互联网平台使用AI根据他们正在研究YouTube推荐引擎的Mozilla Foundce的高级活动家Brandi Geurkink Brandi Geurkink Brandi Geurkink告诉Recode。

其中数据点是您在YouTube父公司谷歌的其他产品中的行为,如您的Chrome浏览习惯。这是您对YouTube本身的行为:在哪里滚动一页,您点击哪些视频,这些视频中的内容,您可以观看多少。这一切都记录并用于向您提供越来越个性化的建议,可以通过Autoplay(默认激活)送达,然后再单击“离开”。

她补充说:“这个AI被优化,以让您保持在平台,以便您继续观看广告,YouTube一直赚钱。尽管YouTube声称是什么,它并非旨在优化您的福祉或“满意”。因此,研究表明,该系统如何为人们提供自己的私人,令人上瘾的经验,这些体验很容易充满阴谋理论,健康错误信息和政治欺骗。“

当数百人冲动国会大厦时,这可能导致这可能会变得非常清晰,试图推翻选举的认证,他们毫无说服,特朗普赢了。这种大众妄想由网站提供,研究表明,促进和放大了阴谋理论和选举错误信息。

“如果个人数据被用来促进划分,消费者有权了解。”

“平台采用扩展内容的算法放大和推荐系统,这令人兴奋的内容令人兴奋的是真实的,”REP。Anna Eshoo(D-CA)在最近的陈述中表示。 “2011年1月6日造成了恐怖损害,在1月6日锻炼这些社交媒体平台如何在激进化和丰富的恐怖分子中发挥作用以攻击我们的国会大厦。这些美国公司必须基本上重新考虑与民主有可能的算法系统。“

多年来,Facebook,Twitter,YouTube和其他平台推动了他们的用户的内容,即他们的算法告诉他们这些用户将根据他们对用户的数据来看待。您观看的视频,Facebook帖子和您互动的人,您的位置,您的位置 - 这些帮助构建您的个人资料,这些平台的算法然后用于满足更多视频,帖子和推文与之交互,频道订阅,组加入的组,以及要遵循的主题。你不是在寻找那个内容;它正在寻找你。

这对用户有助于他们,帮助他们找到他们已经对已经感兴趣的无害内容,以及平台,因为这些用户随后花更多时间。通过有害内容激进了激进的用户并不好,但这对平台仍然有利于,因为这些用户在他们身上花更多时间。这是他们的商业模式,这是一个非常有利可图的模式,他们没有愿意改变它 - 也不需要。

“数字平台不应该是播种混乱和传播错误信息的论坛,”艾米克罗巴堡(D-Mn)是大型技术的经常评论,告诉回收。 “研究表明社交媒体算法如何推动用户对极化内容,允许公司利用除外性。如果个人数据被用来促进划分,消费者有权了解。“

但是权利不是合法的。没有联邦数据隐私法律,平台令人难以置信的是他们的推荐算法如何工作,即使他们对他们收集的用户数据变得越来越透明,并给予用户对其进行一些控制。但这些公司也在不采用自己的条款时停止跟踪,或者没有遵守自己的政策。

多年来,立法者介绍了解决建议算法的账单,其中任何地方都没有。 Rep.LouisGohmert(R-TX)试图从社交媒体公司删除第230个保护,该公司使用算法推荐(或抑制)内容与他的“偏见算法威慑作用”。一名Bipartisan参议员的参议员提出了“过滤泡沫透明度法”,这将强迫平台为用户提供“与平台接合的选项,而不被用户特定数据驱动的算法操纵。”与此同时,代表。Eshoo和Tom Malinowski(D-NJ)计划重新引入他们的“保护美国人免受危险算法”,这将从放大可恶或极端主义内容的平台上删除第230节保护。

为他们,平台努力遏制一些极端主义的内容和错误信息。但是,这只是经过多年的允许在很大一年内缺乏选中 - 并从中获利 - 以及混合结果。这些措施也是反应性和有限的;他们无所作为,无法阻止或遏制任何发展的阴谋理论或错误信息运动。算法显然并不像在传播它时脱掉有害内容。 (Facebook和YouTube没有回复评论请求。)

这几乎不可能停止公司收集有关您的数据 - 即使您不使用其服务,它们仍然有自己的方式。但你至少可以限制算法如何对抗你。 Twitter和Facebook给你反向的时间顺序选项,其中你跟随的人的推文和帖子按照他们添加的顺序显示,而不是优先考虑他们认为您最感兴趣的内容和人员。YouTube有“隐姓埋名模式“它说它不会使用搜索并观看历史推荐视频。还有更多的私人浏览器来限制数据收集并防止站点将您与过去访问或数据链接。或者您只能完全停止使用这些服务。

而且,即使在算法中,也有代理商。仅仅因为阴谋理论或错误信息进入你的时间表或建议的视频并不意味着你必须阅读或观察,或者如果你这样做,你会自动地相信它们。阴谋可能会更容易找到(即使你不寻找它们);你还是选择他们向你展示的道路。但这条道路并不总是显而易见的。你可能会认为Qanon是愚蠢的,但你会分享#savethechildren的内容。你可能不相信Qanon,但你会投票给代表会员。你可能不会落在兔子洞里,但你的朋友和家人会。

或者,当您最绝望和易感性时,可能会推荐错误的事情。你永远不会是如此脆弱吗? Facebook和YouTube知道比你更好的答案,他们愿意和能够利用它。你可能比你想象的要藏更多。

Omidyar网络可以开放开放。所有开放的源集内容都是由我们的记者独立的,并由我们的记者制作。

数百万人转向Vox,了解新闻中发生的事情。 我们的使命从未比这一刻更重要:通过了解来赋予。 我们读者的财务贡献是支持我们资源密集型工作的关键部分,并帮助我们为所有人提供新闻。 帮助我们通过从3美元的金融贡献提供金融贡献来保持我们的工作。