一对军事专家最近刊登了一篇文章,对五角大楼有一个简单的警告:冬天即将到来。
在这种情况下,说冬天是一个人工智能冬天,而且冬天是一个人为的冬天。
把它放在另一种方式:五角大楼在脚下射击,而其他人瞄准下游。
本文:这篇文章的作者是Marc Losito和John Anderson,这是一对军事专家(前者是目前处于现役的职业特种部队士兵,后者是一名专门用于将AI和机器学习用于军事应用的储备官员) 。他们相信五角大楼犯了谈到AI的炒作。
该部门对AI的狂热正在分散潜在的问题,以防止在规模均衡AI的运作。当这些努力未能满足期望时,糖匆忙将崩溃成绝望。
所得到的反馈回路将使和裂解AI作为关键武器系统。这被称为“AI冬天”。
背景:这里的大想法是五角大楼总是投入军事技术研发。这些专家并没有要求政府停止,他们警告政府反对像任何其他技术一样治疗AI。
作家警告说,在谈到AI之前,美国一直在这里。例如,在第二次世界大战之后,美国军事领导人对用可以为自己争夺战士的机器而替换士兵的想法非常高。回想起来,很容易证明计算机技术几乎没有足够的先进,以超越实验玩具之外的强大自主战斗单位。
问题:微积分改变了。五角大楼不再以狭窄的项目特定条款观察AI。它是AI作为一种彻底改变战争方式的方法的全能。
随着历史教导我们,在和平发现时,最革命的战争工具很少开发。他们通常在必要的火灾中伪造。
警告:专家们似乎没有涉及预算盗用的表面风险,或者政府只是被销售过度普遍的AI系统的坏行动者所欺骗。他们更担心美国军队的存在性威胁,曾经所有的垃圾造成了它的恐惧,这是为了削减它的所有垃圾。
这些专家似乎是警告我们,美国没有正确地测试和审查这些方案,以防止在不断发展的战斗空间中的靴子的现实世界需求。
谈到AI时,国防部处于倾向于倾向于倾向于。在2025年,我们将听取更多来自该部门的陈词滥调,关于如何从战场上的指挥官那里或真正的实质性反馈,了解它实际上是多么伟大。
快速采取:可能发生的是最糟糕的?鞭打。专家们担心对五角大楼未能为其双曲线承诺而言,在战争中的未来将使军事领导失去自己的计划。
像其他人一样的过度纠正,而其他人都能为美国享受美国的冬天,而其他人都喜欢作者称之为AI弹簧。