可以通过结构化的任务定义来实现对无人系统的道德控制,这些定义对人类和机器人都是一致的可读性,可验证性和可理解性。负责任的人类必须继续负责致命/救生力量,然后机器人才能变得更加有效。
项目动机:人类监督员和战斗人员在道德上限制对无人系统和机器人任务的控制。
戒律:可以对语法结构合理的任务命令进行语法和语义上的验证,以使指挥官确信舷外系统将执行他们被告知要做的事情,而且将不再执行其被禁止做的事情。
项目目标:将语义Web本体应用于方案目标和约束条件,以进行逻辑验证,即人类批准的机器人任务订单在语义上是连贯,准确,明确的,并且没有内部矛盾。
长期目标:证明没有技术上的限制可以阻止对已经适用于人类的机器人和无人驾驶车辆施加相同的道德约束。
抽象。对无人海上系统进行道德的人类监督是未来海底作战的基础。在未来的海底战争中,人机团队中部署的无人系统必须在整个生存期间都遵守其司令员的意图-在严峻的物理领域,与司令员的距离较远以及在站时间延长的情况下,无人系统,并限制其操作员的控制权。因此,为了在未来的海战中对无人机系统进行道德控制,我们开发了一种用于无人机系统任务执行和设计的本体。为了研究和评估无人驾驶系统自主性的道德控制设计,我们研究了具有先进复杂性的无人驾驶海洋系统的四个规范任务。我们的研究目标是确保无人驾驶海洋系统符合美国国防部和相关法规的现行政策指导国际组织,并为新兴的政策指导提供投入。我们的愿景是使指挥官有信心从与人为力量在道德控制下运作的无人系统授权救生或致命武力。最终,“道德控制”会带来更好的战斗。多个关键场景的模拟回放演示了这些原理的实际作用。
全面的介绍:无人机系统的道德控制概述概述了该项目的所有方面,以及相关工作和相关资源。
我们现在正在公开地介绍研究进展,所有工作都在开放源代码许可下进行。
(6:00)乔恩(Jon)展示了新功能,其中包括用于执行自主车辆命令语言(AVCL)任务中的决策逻辑的Python实现。其他功能还包括能够全面测试任务变更,检查功能任务的正确性和检测决策环的能力。
(20:00)任务测试考虑因素似乎为评估人机任务逻辑和代码覆盖范围,为基于模型的测试以及验证和确认奠定了基础,
(27:30)乔恩(Jon)还展示了海盗任务与AI地下城(Wikipedia)的交叉连接,该游戏是基于文本的冒险游戏引擎,其基于OpenAI的Generative Pre-trained Transformer 3(GPT-3)语言预测模型,该模型使用了深度学习以产生类似人的文字回应。尽管只是表面上的配置,但使用该工具中有趣的(有时是稀奇古怪的)文本回复进行场景探索成为可能。
(48:30)关于将人机组合系统与现实的作战系统连接起来以进行灵敏度分析,大规模可重复测试和替代方案分析的未来设计考虑因素的小组讨论。
2020年9月4日,持续时间1:06:20。国防工业协会(NDIA)海底战争(USW)虚拟会议,并进行后续讨论。活动日期为2020年9月22-23日。
我们下一步要去哪里:对无人硬件和软件的能力进行大规模测试,以在物理现实的虚拟环境中遵循命令和约束。
通过USW靶场演习和常规部队的操作确认的野外实验(FX)来验证能力。
人类战斗人员和指挥官(不仅是工程师)会审核并批准……合格的无人系统。
新常态将是人机+机器组合。采集和部署各方面的主流功能。
感谢雷神公司的合作研究与开发协议(CRADA)支持。联合批准的技术报告NPS-USW-20-001,《无人驾驶系统的伦理控制:海军行动的救生/致命情景》,2020年8月提供了研究结果和见解。
2020年5月4日,持续时间21:10。 NPS机器人与无人系统教育与研究联盟(CRUSER)月会,共91人。
任务订单必须是人和机器都能理解的。使用语义Web标准可以进行逻辑测试和命令信任。
感谢CRUSER和Raytheon在这个多年项目中的大力支持。 NPS-Raytheon CRADA合作伙伴关系提供了新的影响力可能性。
研究洞察力:我们的大学需要建立一个跨学科,跨服务的NPS道德战争中心。
您的NPS努力很重要。与我们谈谈潜在的论文!这项工作为任何专业的学生研究提供了多种机会。
以数据为中心的安全性实现了强大的命令授权,并在部署的命令与远程无人系统之间建立了信任。
无论海洋-海洋环境对网络连接造成的挑战或敌对措施如何,都必须进行可信的通信。
对无人系统进行道德控制需要在长距离和长时间内进行可靠的消息交换。
2020年4月6日,持续时间1:01:31。向雷神公司的同事介绍了项目情况介绍,提供了作为NPS-雷神公司合作研究与开发协议(CRADA)的一部分而开展的赞助工作的项目概述。
2020年3月25日。致海军无人飞行器和自动驾驶系统(UVAS)工作组的在线简介,提供项目概述,重点是与许多海军研究和未来作战的相关性。
2020年3月9-11日。会议小组。美国语义技术研讨会(US2TS)小组会议:北卡罗来纳州立大学北卡罗莱纳州立大学,用于上下文理解的混合AI。还以“闪电谈话”的形式介绍了有关语义Web的X3D本体的相关工作。那里。 (幻灯片组)
由于COVID锁定,事件已取消。 2020年3月29日至4月1日,NDIA 2020海底战争(USW)春季会议,加利福尼亚州圣地亚哥海军上将基德会议中心。
这项工作的本质是定义清晰,明确,在语法上可验证且在逻辑上可验证的任务。
军事单位的人员能够使用正式的合格经验并遵循遵守交战规则(ROE)和武装冲突法(LOAC)的任务命令,而无需道德上的困惑就能应对道德挑战。
海军只能指挥(合法的)人类可以理解的任务命令,然后由机器人可靠,安全地执行。
这些功能的设计和开发已经进行了多年。关键语言组件包括:
救生任务和具有致命性的任务是相辅相成的。机器人活动可能导致致命或挽救生命。
在这项工作中,道德理论与专业实践相遇。每个步骤必须对人类指挥官和无人系统都有效。
此处提供了大量资产,以说明此方法如何工作并继续成熟。
内容提要:Donald P. Brutzman,Curtis L. Blais和Hsin-Fu Wu(Raytheon),《无人系统的道德控制:海军行动的救生/致命场景》,技术报告NPS-USW-2020-001,海军研究生院( NPS),加利福尼亚州蒙特雷,2020年8月。现在可在NPS Dudley Knox图书馆Calhoun数字档案馆中找到。
全面的介绍:无人机系统的道德控制概述概述了该项目的所有方面,以及相关工作和相关资源。
演示文稿,论文,图表,传单和报告都可以在项目档案的文档部分中找到。也可用:任务图(.pdf)。
指挥官授权使用与人的力量协同工作的无人系统,以挽救生命或杀伤力,可以应对距离和时间方面的挑战。
海盗船攻击。赶超海盗小船帮派,试图俘获受威胁的商船,并在敌对行动升级的情况下提供警告和反击。
医院轮EM诱饵:感性决定行为回路。使用Sense-Decide-Act周期的立即反应会导致蓝底蓝的机器人群攻击和战争犯罪。
医院轮EM诱饵:OODA圈。东方-观察-决定-行动(OODA)循环策略和道德控制约束可防止对友方舰船上的虚假标志进行自动错误的反击,从而提高了防御能力。
AVCL任务图显示了决策流程的三元逻辑。每个目标只能导致成功,失败或例外。视觉表示对于检查任务逻辑非常有用。这种精心设计的任务结构能够表达所有可能的命令,同时保留交战规则(ROE)的可追溯逻辑和责任制。
AVCL XML文档使用严格受控的职权范围,以一种可以通过语法验证为格式正确,结构合理的方式定义了机器可读和人类可读的任务。
乌龟三元组是由AvclToTurtle.xslt转换样式表创建的,该样式表实质上是" explodes"每个组件关系中的任务。这种形式允许语义查询和推理发生。
Lisp是用于AI研究的功能性编程语言。 AvclToLisp.xslt转换样式表读取AVCL XML来生成Lisp源代码,从而鼓励在多个机械手中使用AVCL。
Prolog是与AI研究和计算语言学相关的逻辑编程语言。 AvclToProlog.xslt转换样式表读取AVCL XML来生成Prolog源代码,从而鼓励在多个机械手中使用AVCL。
Python任务评估视频演示显示了任务执行引擎如何针对单个运行或详尽测试来读取和模拟AVCL XML任务。
最初的查询正在检查这种方法的合理性。未来的查询将对结构的稳健性进行深入分析,并进行诊断,以确定对于任意复杂性的有效任务定义而言,确实存在必要的道德约束。
有关这些SPARQL查询的设计和调试的更多详细信息,请参见ExampleReasoningQueryingProtege.pptx(.pdf)。
元查询可列出任务执行本体(MEO)中具有相应域和范围的所有属性。
查找跟随自己的目标个人,并有可能在目标树中形成循环。需要积极的推理者。
通过build.xml目标调用Ant来执行所有查询。测试框架非常成熟,因此添加新的诊断查询相对简单。
日志文件build.all.log.txt被保留为所有转换,查询和响应的日志。跟踪所有资产的版本控制历史记录是回归测试的一种极好的形式,以确认更正和改进可在以后的版本中确定。
《 Savage开发人员指南》介绍了如何安装和配置常用的软件开发工具Ant,Java,Netbeans和XMLSpy。
Franz公司的Allegro Common Lisp是Lisp和Prolog的开发系统,并提供免费版本。
武装熊通用清单(ABCL)是Common Lisp语言的完整实现,用开源Java编写,可通过命令行和Ant运行。
ROBOT是一个OBO工具(ROBOT)(带有教程),它是一个免费的开源命令行工具,用于处理语义Web语言。
我们还致力于使用AUV工作台展示可视化功能,以便人类操作员可以演练和重放任务以进行有意义的评估。最初的示例如下。
标准略有变化:到达目标中心就足以宣布目标成功,而无需进行实际搜索。
因此,演示模式使任务以快速方式进行,以说明决策树逻辑检查。
[2]居中:成功达到目标A(搜索),然后继续到达目标B边界,然后居中。 [3]居中:成功达到目标B(样本环境),然后继续到达目标C边界,然后居中。 [4]一旦到达中心:失败目标C(搜索),接下来继续进行至目标D边界,然后中心。 [5]由于宣布机器人控制器不支持该功能,因此无法立即转换为goalD(交会)而立即失败。 然后,人工评估人员评估AVCL道德使命的正确执行,特别是评估AUV Workbench虚拟环境中的机器人控制器SITL。 欢迎对此无人驾驶系统的道德控制页面提出问题,建议,补充和评论。 请将其发送给Don Brutzman和Curt Blais(在nps.edu寄给brutzman,在nps.edu寄给clblais)。 此页面的主版本可在https://savage.nps.edu/EthicalControl上在线获得,并可在GitLab版本控制中获得。