我将把这篇文章推荐给任何有兴趣了解更多关于基于拓扑的透视图给某些应用程序问题带来的好处的人。能够学习正确的拓扑特征来对一组图形进行分类会带来令人兴奋的机会。
Christoph Hofer,Florian Graf,Marc Niethammer和Roland Kwitt的拓扑致密分布在小样本学习的背景下研究了过参数神经网络的正则化性质,这是通过研究延迟表示的性质来实现的(本文使用了术语内部表示,但这是等价的)。更准确地说,通过由潜在表示法(或编码)引起的前推概率度量来分析泛化属性。
作者指出,潜在空间中训练样本周围的概率质量集中与模型的泛化能力有关,但更令人兴奋的是,这种集中可以通过对该空间中的样本应用拓扑约束来实现!在本文的上下文中,这样的约束与测量样本的连通性有关。这是通过持久同调来实现的,具体地说,是通过计算零维Vietoris-Rips复形来实现的-如果你不熟悉这个术语,只需考虑最小生成树。
我特别喜欢这篇论文,因为它开始为机器学习的基本概念提供坚实的答案。很多时候,我们停留在经验主义的领域,只是观察我们的网络是否泛化。这篇文章进入了一个未知的领域,并给我们提供了一个理论上的证明!
Michael Moor,Max Horn,Bastian Rieck和Karsten Borgwardt的拓扑自动编码器根据潜在空间的拓扑处理规则。更准确地说,我们在各自的空间中(分别在批次级别)保留输入数据的拓扑特征。虽然我们目前将巡视实验限制在连接的组件上(所以还没有循环,尽管我们的方法推广到更高的维度),但我们的方法使创建潜在的表示成为可能,这些表示可以“模仿”输入的拓扑特征。
这导致了一个很好的即插即用损失项,可以很容易地集成到大多数体系结构中,我们可以证明,在其他方面,它显著提高了“普通”自动编码器体系结构的质量。为了实现这个目标,我们必须解决各种有趣的冒险,其中之一就是如何让一切都变得可区分。有趣的是,我们最终得到了一个与图过滤学习纸相似的可微性必要条件,即。输入批次的不同样本之间的成对距离需要是唯一的。
我们的方法最酷的特点是,从技术上讲,它只需要输入样本3之间的距离度量,没有更多-没有特征向量表示或任何东西。因此,可以想象它可以用来表示您喜欢的任何对象(包括文档、图像和图形)的拓扑。
如果您对这份出版物的精美动画高级介绍感兴趣,您应该花时间阅读我们报纸上Michael的博客文章。
Danilo Jimenez Rezende,George Papamakario,Sébastien racanière,Michael S.Albergo,Gurtej Kanwar,Phiala E.Shanahan和Kyle Cranmeres提出了一种新的方法来计算比通常的欧几里德空间更复杂的空间上的正常化流动。具体地说,正如标题所暗示的那样,他们开发了计算环面和球面上这种流动的方法。
我喜欢这篇文章的是一种巧妙的流动构造方式:首先,圆上的流是用来构造的(使用不同的概念来定义微分同胚,我最喜欢的是Möbius变换)。由于环面可以描述为圆的笛卡尔乘积,这足以描述任意维数的环面上的流!(译者注:环面上的流可以用不同的概念来定义,我最喜欢的是Möbius变换)。由于环面可以描述为圆的笛卡尔积,这足以描述任意维数的环面上的流!接下来,将流推广到更高维的球体。
虽然我不是资金流正常化方面的专家,但我非常喜欢这篇论文。这一理论非常成熟,它是另一种向你展示如何超越当前可能的边界的出版物。此外,我喜欢对实现细节的讨论-事实证明,在这里实现数字稳定是另一个值得一提的壮举!
今年的ICML还展示了一系列有趣的基于拓扑的论文。它们并不都很适合拓扑数据分析(TDA)领域,但我很高兴看到社区开始接受这个基本主题。我仍然相信,需要拓扑驱动的视角来回答机器学习中的某些基本问题。为拓扑学的未来干杯!
在温和的假设下,即。假设过滤函数值对于每个顶点是唯一的。这总是可以通过一个小小的象征性扰动来实现。↩︎。
实际上,它甚至可能不需要度量的性质,尽管我内心的数学家对这种想法的恐怖感到尖叫。↩︎