过去十年的AI的增长给了我们希望能够解决世界今天面临的一些最具挑战性问题的希望 - 甚至是甚至均匀癌症和其他疾病的气候变化。人工智能(AI)和机器人在不久的将来对人类产生重大影响。它提出了关于我们应该如何处理这些系统的基本问题,系统本身应该做些什么,他们涉及的风险以及我们如何控制这些问题。
AI的一般描述基本上建立了试图模仿人脑的能力的计算系统。
电脑击败了世界冠军,包括国际象棋,危险和去。在DeepMind的alphago和Lee Sedol之间的臭名昭着的冠军赛中(被认为是最好的球员之一),Alpha Go获得了4-1次,反对考虑最多的抽象棋盘游戏。 Openai创建了一个隐藏和寻求游戏,让AI扮演 - 结果令人惊讶。神经网络能够弄清楚代码的问题以及如何捕获坏人,甚至可以制作自己的基础 - 这一定是最初培训的。在alpha Go比赛期间,研究人员观察到AI刚刚关心赢得比赛而不是由什么保证金。所有这些都告诉我们AI是聪明的,它与其他程序不同 - 它可以确定人类没有看到的复杂和小型胜利,或者它根本没有编程。
这只是游戏的问题,但是当它变得真正的人类聪明呢?如果要相信摩尔定律,那么电脑将得到强大的,甚至超过我们自己的思想。我们会做什么?我们可以控制我们对我们的天气,医学等背叛我们的一般情报ai吗?
现代时代始于工业革命。人们制造的机器和生产力增加,生活质量也是如此(不适合所有人)。它还但碳排放量增加并导致了增加全球温度。塑料也是一种这样的创新。它彻底改变了包装和产品制造,但后来我们了解到环境是多么糟糕,占据了数千年来降级。它现在发现了我们食物中的微粒形式。
然后在20世纪90年代来了互联网。人们认为这是一场革命 - 你可以与全球人员联系,你可以分享你的想法和获得知识,股票历史和文化。人们通过互相了解更好的仇恨将减少,但我们现在知道这是怎么出来的。它带来了更多的仇恨,种族主义,数据收获,社交媒体焦虑 - 生产力很大。它还给予了巨大的公司对我们日常生活和通信方法的巨大控制。
因此,随着AI - 面部识别材料的出现,语音助手甚至真正良好的语言模型,就像GPT-3一样,它也可以带来可怕的东西。
一旦建造,为自动考勤和验证的面部识别系统现在能够窥探人们,并具有大规模监测,特别是由权威政府(如中国),也被用来跟踪和打击少数民族。所有数据收集现在都是数字的,它可以通过AI准确地跟踪许多人类和一次。不仅如此,这些系统被用来捕捉交通违规行为等,但现在正在使用它来窥探和解决。促进议程的良好和监督有一条细线。
我们已经看到了文本生成模型和会话AIS,它已经变得超级易于写出极度令人信服的假新闻文章和在社交媒体上发布。大多数人和机器人的事实检查系统在那个级别下降。此外,社交媒体现在是政治宣传的主要位置。这种影响可用于转向投票行为,如在Facebook-Cambridge Analytica“Scandal”中。通过互联网的规模,它非常容易放大新闻,甚至在未来倒数政府(可能)。谁决定被认为是假新闻的?意见是否被视为操纵?
人工智能或模型需要通过信息 - 数据馈送。它试图在自己的(无监督的学习)上找出模式或理解您提供的模式(监督学习)。您提出的数据与可能包含偏差的学习算法。它可能不是您的意图,但它可能是一种特定类型的行为甚至是个性 - 一些数据点将丢失。因此,这也将包含偏见的结果。它可能代表现实世界,但对其他用户仍然是不公平的,他们可能没有正确解决的选择。与颜色或不同国家的人尤其如此。由于缺乏数据,建议也包含偏差,因此社交媒体饲料算法也包含偏差。通过人工喂养特定数据,有些方法可以抵消这一点,但偏差仍然存在。
AI系统还为许多人创建了一个构象偏见。它基本上意味着,系统将以您与经常加强视点对齐的信息为您提供。它提出,因此,问题 - 应该有一个认知偏见吗?它应该喂给用户他想要的东西,还是应该在任何情况下仍然是中立的?谁决定中立的是什么?
AI不仅仅是一个盒子中的软件,而且是在仓库,运输集装箱,汽车,我们的设备甚至互联网流量中积极使用。谁控制这些自治系统?肯定有潜在的黑客尝试,但更为让临界系统的控制是可怕的,需要有效的监控。它还提出了就业机会的问题,以及他们会发生什么?我在某个地方听到这个例子 - 在20世纪50年代,当起重机来了,人们想知道那些在船上提起材料袋的工人会发生什么?但大多数这些人都有新的工作,他们从手动做劳动力开始起重机运营商。系统变得过高效率。随着集装箱尺寸的标准化,现在正在测试甚至完全自动化的系统,以便在船上加载和卸载容器。但他们仍然需要一些人类的真正能力来判断所有因素,只是遵循他想要的东西来监测它。
我们训练这些机器的很多东西,我们自己不知道它对它的想法是什么,直到我们用输入数据喂它并查看结果。所有类型的输入数据都似乎完美,具有可预测和理想的结果,但如果有一些我们不知道AI认为的东西,那么怎么想。在某些情况下,特别是在自动驾驶车辆中,可能存在该系统从未见过这样的事情并且完全混淆的情况 - 可以始终存在这样的边缘情况。谷歌刚刚推出了他们的系统,它使用相机并检测常见的皮肤状况。尽管它具有所有偏见的颜色弄清楚和识别288个皮肤状况的能力,但总能有一个没有给出适当答案的地方。如果它警告用户 - 它可能导致可能导致的一些严重问题。在您为其馈送所需的数据之前,AI始终是不透明的。
关于它的思考,我最近通过麻省理工学院技术审查阅读了本文,就道德团队如何从佛教中获取灵感。进一步阅读,我意识到它不仅仅是关于宗教的原则,而且那些应该从根本上刻入我们的社会。
佛教提出了一种基于所有众生想要避免痛苦的假设来思考道德的方式。因此,佛陀教导了一个行动,如果它导致自由遭受痛苦。
据我介绍,AI系统应该用第一个目的建造,以免伤害任何人。不是另一个人,也不是一群人也没有另一个机器人。目标应该是帮助每个人,减少他们的痛苦。不仅那些开发AI的人,而且还有那些将使用的人以及那些可能不会的人。它不应该对不使用该技术的人产生不利影响。人民,公司和国家应该是负责任的。有这么多的地方,艾都被用来伤害人们而没有任何重大谴责。此外,只是谈论问责制并没有做任何事情,但表现得更加重要。只有我们作为一个全球社会,建立共同目标和开发商才能促进人类的深刻原则和尊重多样性,可能会很容易解决这些问题。
并非一切都以厄运结束了。疫苗是我们最有效的发展之一。从脊髓灰质炎和天花等疾病中消除疾病,使疾病的传播可以忽略不计。 AI肯定可以在大规模帮助医疗保健等行业方面有助于发展中国家的医生短缺,在自动驾驶技术中,以减少事故,使供应链超高效率。毕竟,Covid教授我们的是企业正在朝着超级效率迈进。
我们只需要确保曾经努力帮助的技术不会陷入错误的手(Frisp Gene编辑首先要介意)或用来与他人做错。监管是必要的,我们也应该没有区分益处,如果他们使用某种形式的AI,那么就可以了。它不应该直接重要。我也不太担心发展像超人智力水平,我们作为人类物种已经走得很远,以确保我们主宰世界。即使在探索之后,如果它对我们的生存感到不安全;我们不会这样做。或者我们会吗?只有时间会告诉 - 但我确实相信我们不会放弃对那种智力的控制。
感谢Arian和Krish阅读草案,提供投入和帮助编辑。
2021年5月21日更新:研究人员在谷歌的皮肤状况标识符应用中发现了一个偏见。该算法是基于培训数据开发,横皮斑点少于4%。 (推文)