安德里亚·加利亚诺(Andrea Gagliano)是盖蒂图像公司(Getty Images)数据科学的负责人,她专注于计算机视觉和自然语言处理。她领导盖蒂图像公司(Getty Images)的科学家、工程师、产品设计师和商业领袖关于构建符合道德的人工智能产品的教育。
2020年人工智能培训的问题是,突然之间,我们改变了我们的社会和文化规范。我们教给这些算法的事实往往不再是真的。特别是视觉人工智能,我们要求它立即解释我们生活在更新的上下文中的新方式,而这是它还没有的。
算法仍在调整以适应新的可视队列,并试图了解如何准确识别它们。随着视觉人工智能的迎头赶上,我们还需要重新重视人工智能训练过程中的例行更新,以便纠正不准确的训练数据集和先前存在的开源模型。
计算机视觉模型正在努力恰当地标记我们在新冠肺炎时代发现自己所处的新场景或新情况的描述。类别已经发生了变化。例如,假设有一个形象,一个父亲在家里工作,而他的儿子在玩耍。艾仍将其归类为“休闲”或“放松”。它并不认为这是“工作”或“办公室”,尽管事实是,在这段时间里,与你身边的孩子一起工作对许多家庭来说是非常普遍的现实。
在更高的技术层面上,我们对我们的世界有不同的像素描述。在Getty Images,我们一直在训练人工智能“看”。这意味着算法可以识别图像,并根据图像的像素组成对它们进行分类,并决定它包含什么。快速改变我们的日常生活方式意味着我们也在改变一个类别或标签(比如“清洁”)的含义。
这样想吧-清洁现在可能包括擦拭已经在视觉上看起来很干净的表面。以前有人教过算法,要描绘清洁,需要有一片混乱。现在,这看起来非常不同。我们的系统必须重新培训,以解决这些重新定义的类别参数。
这在较小的范围内也有关联。可能有人坐在车里时,用小擦拭抓住车门把手,或者在清洁方向盘。曾经微不足道的细节现在变得重要起来,因为人们试图保持安全。我们需要捕捉到这些细微差别,这样它才能被适当地标记。然后,人工智能可以在2020年开始理解我们的世界,并产生准确的输出。
人工智能目前面临的另一个问题是,机器学习算法仍在努力理解如何识别和分类戴面具的人脸。人脸仅被检测为面部的上半部分,或者被检测为两张脸-一张戴着面具,另一张只有眼睛。这造成了不一致,并且阻碍了面部检测模型的准确使用。
前进的一条路是重新训练算法,使其在只给出面部的顶部(面具上方)时表现更好。面具问题类似于经典的人脸检测挑战,如戴太阳镜的人或检测侧面某人的脸。现在面具也很常见了。
这向我们表明,计算机视觉模型在真正能够“看到”我们不断发展的社会格局之前还有很长的路要走。应对这种情况的方法是构建健壮的数据集。然后,我们可以训练计算机视觉模型来解释脸部可能被遮挡或覆盖的无数不同方式。
在这一点上,我们正在扩大算法所看到的脸的参数-无论是在杂货店戴口罩的人,作为日常工作一部分戴口罩的护士,还是出于宗教原因遮住脸的人。
当我们创建构建这些健壮的数据集所需的内容时,我们应该意识到可能会增加无意的偏见。虽然人工智能内部总是会存在一些偏见,但我们现在看到的是描绘我们新常态的不平衡数据集。例如,我们看到的白人戴口罩的图像比其他种族更多。
这可能是严格的居家秩序的结果,摄影师进入自己社区以外的社区的机会有限,无法使拍摄对象多样化。这可能是因为摄影师选择拍摄这一题材的种族。或者,由于新冠肺炎对不同地区的影响程度不同。不管是什么原因,拥有这种不平衡将导致算法能够比任何其他种族或民族更准确地检测到戴面具的白人。
数据科学家和那些用模型制造产品的人有更大的责任根据社会规范的变化检查模型的准确性。对培训数据和模型的例行检查和更新是确保模型质量和健壮性的关键-现在比以往任何时候都更重要。如果输出是不准确的,数据科学家可以快速识别它们并纠正路线。
值得一提的是,我们目前的生活方式将在可预见的未来继续存在。正因为如此,我们必须谨慎对待用于培训目的的开源数据集。可以更改的数据集应该是。不能更改的开源模型需要有免责声明,这样就可以清楚地知道哪些项目可能会受到过时培训数据的负面影响。
识别我们要求系统理解的新上下文是推动视觉人工智能向前发展的第一步。那么我们需要更多的内容。对我们周围世界的更多描述-以及对它的不同视角。在我们积累这些新内容的同时,请盘点新的潜在偏见和重新训练现有开源数据集的方法。我们都必须监控不一致和不准确。坚持不懈和致力于再培训计算机视觉模型是我们将人工智能带入2020年的方式。