随着Alexa、谷歌主页、Siri和其他语音助手已经成为数百万家庭的固定设备,隐私倡导者越来越担心,他们几乎不间断地聆听附近的对话可能会给用户带来更多风险,而不是好处。新的研究表明,隐私威胁可能比之前想象的更大。
这些发现表明,电视节目和其他来源的对话产生错误触发导致设备开机的情况是多么普遍,有时会向亚马逊、苹果、谷歌或其他制造商发送附近的声音。研究人员总共发现了1000多个错误触发设备的单词序列,其中包括“权力的游戏”、“摩登家庭”、“纸牌屋”和新闻广播中的单词序列。
其中一位研究人员多萝西娅·科洛萨(Dorothea Kolossa)说:“这些设备是故意以某种宽容的方式编程的,因为它们应该能够理解他们的人类。”“因此,他们更有可能过频繁地启动一次,而不是根本不启动。”
下面的两个视频显示,角色琼恩·雪诺说了“一封信”,摩登家庭角色菲尔·邓菲分别说出了“嘿,杰瑞”,并激活了亚历克萨和西里。
在这两种情况下,短语都在本地激活设备,算法在那里分析短语;在错误地得出这些很可能是唤醒词的结论后,设备然后将音频发送到远程服务器,在那里更强大的检查机制也会将这些词误认为唤醒词。在其他情况下,单词或短语只欺骗本地唤醒单词检测,而不是云中的算法。
研究人员说,当设备唤醒时,他们会记录下所说的话的一部分,并将其传输给制造商。然后,员工可以对音频进行转录和检查,以试图提高单词识别率。其结果是:潜在的私人对话片段可能最终会出现在公司日志中。
对隐私的风险不仅仅是理论上的。2016年,调查一起谋杀案的执法部门传唤亚马逊,要求其提供在犯罪前的朋友圈传输的Alexa数据。去年,英国《卫报》(The Guardian)报道称,苹果员工有时会抄写Siri无意中听到的敏感对话。其中包括医生和病人之间的私下讨论,商业交易,看似犯罪的交易,以及性接触。
这篇题为“不可接受的,我的隐私在哪里?”的研究论文是鲁尔大学波鸿和马克斯·普朗克安全与隐私研究所的Lea Schönherr、Maximian Golla、Jan Wiele、Thorsten Eisenhofer、Dorothea Kolossa和Thorsten Holz的成果。在对研究结果的简短总结中,他们写道:
我们的设置能够识别1000多个错误触发智能扬声器的序列。例如,我们发现,根据发音的不同,«Alexa»会对单词";Accept&34;和";election,";做出反应,而«Google»通常会触发";OK,Cool。";«Siri»可以被";a City,";«Cortana»by";Montana,";«computer»by";Peter,";«Amazon»by#欺骗。还有烟草的“回声”(Echo»by";TRANSE)。请看视频,这里有这种意外触发因素的例子。
在我们的论文中,我们分析了一组不同的音频来源,探索了性别和语言偏见,并测量了已识别的触发因素的可重复性。为了更好地理解偶然的触发因素,我们描述了一种人工制作它们的方法。通过对Amazon Echo的通信通道进行反向工程,我们能够为商业公司在实践中如何处理这些有问题的触发器提供新的见解。最后,我们分析了意外触发对隐私的影响,并讨论了提高智能扬声器隐私的潜在机制。
研究人员分析了亚马逊、苹果、谷歌、微软和德国电信的语音助手,以及小米、百度和腾讯的三款中国机型。周二公布的结果集中在前四个方面。亚马逊、苹果、谷歌和微软的代表没有立即回复记者的置评请求。
论文全文尚未发表,研究人员拒绝提前提供副本。然而,总体上的发现已经提供了进一步的证据,表明即使人们认为他们的设备没有在监听,语音助理也会侵犯用户的隐私。对于那些关心这一问题的人来说,除非需要,否则拔掉、关闭或阻止语音助手收听可能是有意义的-或者根本不使用它们。