1. 首页
  2. > 银行开户 >

滤波器分类ppt(滤波器的分类及特点pdf下载)

雷锋网AI科技评论编者按:本篇文章的内容是“计算机视觉及图神经网络教程”的一特点部分,将概述重要的图神经网络方面的工作进展。通过提取关键思想并解释使用Python和PyTorch这样经典的方法背后的所思所想。


图1:图神经网络图(GNN)及其相关工作进展。为了避免造成进一步的混乱,有一部分研究成果的边缘并没有突出显示,例如,有关动态图所做的大量工作值得单独概述。


图2:这是Sperduti和Starita在1997提供一组的数字,与20多年后的我们现在正在做的工作不谋而合。


在这里,我们假设A是对称的,即A=Aᵀ,并且我们的图是无向的,否则节点度不能明确的特点定义,并且在计算拉普拉斯算子的时候必须要做一些假设。在计算下载机视觉和机器学习的背景中,拉普拉斯图定义了如果我们以公式(2)的形式叠加多个图神经层,那么节点特征应当如何更新。


假设我们的节点特征X⁽⁾是一维的,例如MNIST像素,但是它可以扩分类展到C维的情况:我们只需要对每个信息通道重复这个卷积,然后像信号或图像卷积一样在C上求和。


图5:我们可以将N维滤波器W_频谱近似为K个函数f的有限和,如下所示。因此,我们可以学习这些函数的K个系数(alpha),而不是学习W_频谱的N个值。 当pdfK


图6:对于节点1(深蓝色),是K=3的Chebyshev卷积。带圆圈的节点表示影响节点1特征表示的节点,[,]运算符表示特征维度上的连接。W⁽⁾为3CF维权值。


图7:Chebyshev基用于近似频谱域中的卷积。


生成的样条和Chebyshev基的完整代码在我的 github repo中。


图8:在MNIST上训练了一个单独的Chebyshev滤波器(左侧k=3,右侧K=20),并将其应用于具有400个点的不规则网格中的不同位置(显示为红色像素)。与标准ConvNets的过滤器相的比,GNN过滤器根据应用节点的不同而具有不同的形状,因为每个节点都具有不同的邻域结构。


上面的代码遵循与教程第一部分相同的结构,在第一部分中,我比较了经典的NN和GNN。GCN和Chebyshev卷积pdf的主要步骤之一是计算重新缩放拉普拉斯图L。进行重新缩放的目的是使特征值在[-1,1]范围内进行,以方便训练(这在实践中可能不是很重要的步骤,因为权值可以在训练过程中适应)。在GCN中,在计算拉普拉斯及算子之前,先通过添加单位矩阵将自循环添加到图中。两种方法的主ppt要区别在于,在Chebyshev卷积中,我们递归地在K上循环,以捕获K-hop附近的特征。我们可以将这样的GCN层或Chebyshev图层与非线性层叠加,建立一个图神经网络。


图9:使用辅助“滤波器生成网络”F预测主要网络的边缘特定权值。X⁻是输入节点的特性,X是输出特性。这个图显示了节点1的“动态卷积”的单次迭代(黄色)。标准GNN通常只会平均(或求和)节点1相邻的节点(节点2、3、4、5)的特征,这相当于各向同性滤波器(将是一个常数向量)。相比下载之下,这个模型还具有各向异性滤波器,因为它基于边缘标签L可以预测节点1及其所有相邻数据之间的不同边缘值,因此将特征X(1)计算为相邻数据特征的加权平均值及。图来自(Simonovsky 和 Komodakis, CVPR, 2017)。


图1分类0:在MNIST上学习的卷积滤波器以低(左)和高(右)的分辨率采样。图来自(Simonovsky和Komodakis, CVPR, 2017)。


图11:用MoNet训练的极坐标为?和的滤波器。 每个椭圆对ppt应于某个固定水平的高斯切片。这里有个想法是,如果第i个节点的坐标接近第j个高斯的中点,则在索引(i,j)处生成的权值将接近1。


总结:


手把手解释频谱图卷积https://www.leiphone.com/new滤波器s/201909/UBlc5tduQD9yjnnC.ht滤波器ml?type=preview&sign=rqhxr4R4oqeDpqKqg3V6koDLo5OBn4-WhIbMoQ


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至123456@qq.com 举报,一经查实,本站将立刻删除。

联系我们

工作日:9:30-18:30,节假日休息