论文翻译——MeshCNN
论文翻译——MeshCNN: A Network with an Edge
这是 CAD 五人组(好吧实际上四个人)完成的论文翻译,原论文 MeshCNN: A Network with an Edge,感谢 juraws, Gwyn, tk 三位朋友的一同协作。
摘要
多边形网格为三维形状提供了一种有效的表示方法。它们显式地捕获形状的表面和拓扑情况,并利用网格的非均匀性来表示大形平坦区域以及尖锐、复杂的特征共存的情况。然而,这种不均匀性和不规则性会阻碍使用结合卷积和池化运算的神经网络进行网格分析。在本文中,我们使用 MeshCNN,一个专门为三角形网格设计的卷积神经网络,直接通过网格的独特性质来分析 3D 形状。类似于经典的卷积神经网络,MeshCNN 使用了专门处理网格边的卷积层和池化层,具体将通过利用网格固有的测地线连接来完成。MeshCNN 对边及其 4 条邻边应用卷积,并通过保留表面拓扑的边折叠操作应用池化,从而为后续卷积生成新的网格连接 MeshCNN 学习要折叠哪些边,从而形成一个任务驱动的过程,在这个过程中,网络逐渐暴露并扩展重要的特征,同时丢弃冗余的特征。我们展示了我们的任务驱动池化操作在各种 3D 网格学习任务上应用的有效性。
介绍
三维形状是计算机图形学领域的前沿和中心,也是计算机视觉和计算几何等相关领域的主要研究点。我们周围的形状,尤其是描述自然实体的形状,通常由连续曲面组成。

出于计算的原因,同时为了便于数据处理,已经提出了各种三维形状的离散近似方法,并用于在一系列应用中表示形状。多边形网格表示(简称网格)是许多人的最爱,它通过三维空间中的一组二维多边形来近似曲面。网格提供了高效、非均匀的形状表示。一方面,只需要少量的多边形就可以描述形状大而简单的表面,另一方面,网格灵活的表示支持可能需要的高分辨率,以便支持真实感重建及表现在几何上复杂的显著形状特征。网格的另一个显著特征是它可以自然地提供面片之间的接信息。这形成了下垫面的综合表示。
与另一个流行选项(点云表示)相比,这些优势显而易见。尽管点云表示法简单且与常用的数据采集技术(扫描)直接相关,但当需要更高的质量和保留锐利的形状特征时,点云表示法仍存在不足。
近年来,在图像上使用卷积神经网络(CNN)在分类和语义分割等多种任务上表现出了优异的性能。他们成功的秘诀在于卷积层、非线性激活函数和池化层的结合,从而形成一个对输入的无关变化保持不变(或鲁棒性)的框架。然而,由于图像是在离散值的规则晶格上表示的,将 CNN 扩展到不规则结构上是不容易的。
最初的方法通过使用规则的表示,来绕过适配对于不规则数据的 CNN:将 3D 形状映射到多个 2D 投影或 3D 体素晶格。虽然这些方法受益于直接使用理解良好的图像 CNN 操作符,但它们的间接表示需要大量的内存和浪费或冗余的 CNN 计算。
更有效的方法是直接将 CNN 应用于不规则和稀疏的点云表示。虽然这些方法得益于紧凑的输入表示,但它们本质上对局部曲面不敏感。此外,邻域和连通性的概念定义不明确,使得应用卷积和池化运算变得困难。这种模糊性带来了一系列的工作来克服这一挑战。
为了激发原生的网格表示的自然潜力,我们提出了 MeshCNN:一种类似于著名 CNN,但专门为网格设计的神经网络。MeshCNN 直接对三角形网格进行操作,执行卷积和池化运算,这些操作与独特的网格属性相协调。在 MeshCNN 中,网格的边类似于图像中的像素,因为它们是应用所有操作的基本对象。我们选择使用边,因为每条边正好与两个面(三角形)关联,这定义了四条边的自然的固定大小的卷积邻域(见图 2)。我们利用一致的表面法线顺序应用非对称卷积运算,学习与位置、旋转、缩放无关的边的特征。

MeshCNN 的一个关键特征是独特的池化操作,即网格池化操作,该操作在不规则结构上运行,并在空间上适应 CNN 中的任务,池化减少了网络中特征的数量,从而学会消除信息量较小的特征。由于特征位于边,下采样的直观方法是使用著名的网格简化技术边折叠。但是,与传统的边折叠不同,传统的边折叠会删除引入最小几何变形的边,网格池化将选择要折叠的边以特定于任务的方式交给网络。删除的边是特征对所用目标贡献最小的边(参见图 1 和图 8 中的示例)。
为了增加灵活性并支持各种可用数据,每个池化层将网格简化为预定的恒定边数。此外,尽管 MeshCNN 生成某个特定数量边的输出,但它对输入网格大小没有限制,也能处理不同的三角剖分。如图 1 所示,中间计算池化步骤以及最终输出在语义上是可解释的。为了说明我们的方法的能力,我们在形状分类和分割任务上进行了各种实验,并在常见数据集和高度非均匀网格上证明了优于最新方法的结果。
相关工作
我们在工作中提出或使用的许多算子都基于经典网格处理技术,或者更具体地说,基于网格简化技术。特别是,我们使用用于任务驱动池化算子的边折叠技术。不同于经典的网格简化技术旨在以最小的几何失真减少网格元素的数量,在这项工作中,我们使用网格简化技术来降低神经网络背景下特征图的分辨率。
在下文中,我们将回顾使用神经网络进行 3D 数据分析的相关工作,这些神经网络按照输入表示类型进行组织。
我们在工作中展示或使用的许多操作都是基于经典的网格处理技术[Hoppe 于 1999 年提出;Rusinkiewicz 和 Levoy 等人于 2000 年提出;Botsch 等人于 2010 提出;Kalogerakis 等人于 2010 提出],更具体地说,网格简化技术[Hoppe 等人于 1993 提出;land 和 Heckbert 等人于 1997 年提出;Hoppe 于 1997 年提出]。特别地,我们在我们的任务驱动池化操作符中使用了边折叠技术[Hoppe 于 1997 年提出]。而经典的网格简化技术旨在以最小的几何变形减少网格元素的数量[Tarini 等人于 2010 年提出;Gao 等人于 2017...
剩余内容已隐藏