首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏图与推荐

    未曾抄袭SGC,关于ICML-2019高引用图神经网络论文SGC

    本文来自 http://liqimai.github.io 中文原文:关于ICML-2019高引用图神经网络论文SGC 英文原文:About the Highly-Cited ICML-2019 GNN Paper SGC 摘要 本文想指出发表于ICML-2019的高引用图神经网络论文 “Simplifying Graph Convolutional Networks” 与我们ICLR-2019的投稿 对方论文(简称SGC,发表于ICML-2019): Felix Wu, Tianyi Zhang, Amauri Holanda de Souza Jr., Christopher Fifty, Tao 基于以上两点事实,我方在此声明: 我方论文未曾抄袭SGC,希望大家不要误会。 希望审稿人们勿再要求我方后续工作引用SGC,因为我们已经正确引用了己方CVPR-2019的论文。 id=SygjB3AcYX ^SGC被ICML-2019接收后arxiv上的最终版本 https://arxiv.org/abs/1902.07153v2 ^abICML官方公布的SGC最终版本 http

    48720编辑于 2022-04-15
  • 来自专栏KI的算法杂记

    ICML 2019 | SGC:简单图卷积网络

    GCN和SGC可以概括如下: 2. 谱分析 这一节从图卷积的角度来研究SGC,并证明了SGC在图谱域上对应一个固定的滤波器。 由表2可知,SGC在引文网络上的性能可以与GCN等最先进的GNN相媲美。特别是在Citeseer上,SGC比GCN大约好1%,作者认为这种性能提升是因为SGC的参数更少,因此更少受到过拟合的影响。 SGC在许多任务中与目前最先进的GNN模型表现相当,即使不如某些GNN模型,但也大大提升了训练速度。 此外,本文从卷积的角度分析了SGC,并证明了SGC是一个低通类型的频谱域滤波器。 最终,SGC的强大性能揭示了GCN的表达能力很可能主要来源于重复的图传播,也就是不断地对邻居节点特征进行聚合(SGC保留),而不是非线性的特征提取(SGC不保留)。 考虑到SGC的实验性能、效率和可解释性,作者认为SGC可以作为与未来图学习模型进行比较的简单baseline;此外,SGC也可以作为未来图学习研究的起点,从简单模型开始发展复杂模型。

    1.1K20编辑于 2022-11-17
  • 过时的SGC强制128位加密

    现代浏览器和服务器不再需要这种加密方式,因此SGC已过时。过时的技术:由于所有现代浏览器默认都支持强大的128位(或256位)加密,因此不再需要SGC。 目的:SGC的设计初衷是为了应对2000年之前的美国出口管制法律,这些法律限制国际浏览器使用较弱的加密技术。SGC使金融机构能够确保连接的稳定性。 他们认为 SGC 如今已无显著价值,并建议将重点放在升级服务器端 SSL 最佳实践上,而不是使用 SGC 强制旧版浏览器启用高加密级别。 不再提供:已不再在其证书中提供SGC选项,以遵守当前的安全最佳实践。过时的技术:SGC设计于20世纪90年代,用于将40位浏览器升级到128位。 早期的文件提到了SGC,最新指南表明,已经不鼓励使用SGC并停止了使用。是的,因为现在的算法已经完全超越SGC,人们完全可以使用现在最新的算法,这是因为他们更加安全,

    6700编辑于 2026-03-31
  • 来自专栏AI科技大本营的专栏

    一文读懂简化的图卷积网络GCN(SGC)| ICML 2019

    并从理论上分析了得到的线性模型SGC,并证明了SGC相当于一个固定的低通道滤波器和一个线性分类器。实验结果表明,这些简化不会对许多下游应用的准确性产生负面影响。 1.2 SGC效果 实验表明 这种简化了的线性SGC模型在很多任务上比GCN和一些其他GNN网络更高效,并且参数更少 并且在效率方面,在Reddit数据集上比FastGCN快两个数量级 SGC在文本分类 在图连通模式足够稀疏的情况下,SGD可以很自然地运用在非常大的图上,SGC的训练比GCN快得多。 3 谱分析 文中从图卷积的角度来研究SGC,并证明了SGC在图谱域上对于应一个固定的滤波器。 图3是在Pubmed和Reddit数据集上的效率对比图 显然,SGC是效率最高的 SGC中是预先计算的,SGC训练的时候只需要学习一个权重矩阵Θ,减少了内存的使用。 实验将GCN替换为SGC (K = 2)将得到的模型称为C-SGC ?

    3K21发布于 2019-10-31
  • 来自专栏深度学习自然语言处理

    一文读懂简化的图卷积网络GCN(SGC)| ICML 2019

    作者 | yyl424525 来源 | CSDN博客 编辑 | AI科技大本营 文章目录 1 相关介绍 1.1 Simple Graph Convolution (SGC)提出的背景 1.2 SGC效果 1.2 SGC效果 实验表明 这种简化了的线性SGC模型在很多任务上比GCN和一些其他GNN网络更高效,并且参数更少 并且在效率方面,在Reddit数据集上比FastGCN快两个数量级 SGC在文本分类 在图连通模式足够稀疏的情况下,SGD可以很自然地运用在非常大的图上,SGC的训练比GCN快得多。 3 谱分析 文中从图卷积的角度来研究SGC,并证明了SGC在图谱域上对于应一个固定的滤波器。 图3是在Pubmed和Reddit数据集上的效率对比图 显然,SGC是效率最高的 SGC中是预先计算的,SGC训练的时候只需要学习一个权重矩阵Θ,减少了内存的使用。 实验将GCN替换为SGC (K = 2)将得到的模型称为C-SGC ?

    3.7K20发布于 2019-11-12
  • 来自专栏MyBlog-Karos

    JVM - 垃圾回收篇笔记

    Will use -Xlog:gc* instead. 0.010sgc Using Serial 0.010sgc,init Version: 17.0.1+12-39 (release) 0.010sgc 0.010sgc,init NUMA Support: Disabled 0.010sgc,init Compressed Oops: Enabled (32-bit) 0.010sgc,init Heap Min Capacity: 20M 0.010sgc,init Heap Initial Capacity: 20M 0.010sgc,init Heap Max Capacity: 20M 0.010sgc GC(2) Pause Full (System.gc()) 26.252sgc,phases,start GC(2) Phase 1: Mark live objects 26.257sgc : 482K(1024K)->0K(1024K) 26.264sgc,heap GC(2) Tenured: 2463K(10240K)->3900K(10240K) 26.264sgc

    907243编辑于 2023-02-23
  • 来自专栏思影科技

    JAMA子刊:TMS-EEG研究:MDD患者rTMS治疗与亚属扣带回(SGC)亢进的关系

    经过rTMS治疗后,MDD患者的SGC亢进程度降低到健康对照组的水平。该研究证明SGC超活性可作为MDD病理生理学重要的生物学靶点。 安慰剂组)前后的SGC活动。 研究测量rTMS治疗前后SGC的超活性:使用显著电流密度(SCD)量化SGC超活性,显著电流散射(SCS)计算左DLPFC和SGC的有效连接。 该研究结果进一步说明左DLPFC-SGC有效连接和SGC兴奋性在MDD病理生理学和rTMS治疗中的作用,并且表明DLPFC-SGC连通性可能是rTMS治疗反应性的指标。 为了比较从DLPFC到SGC的总体散射值,计算了左右SGC脑区在TEP峰值标准时段(大约30ms,60ms,100ms,和200ms)的SCS大小。 结论: 综上所述,本研究在探讨SGC激活和DLPFC-SGC有效连接与MDD病理生理及临床改善的关系时,证实了TMS-EEG和SCD/SCS计算的有效性。

    1.2K20发布于 2019-07-10
  • 来自专栏相约机器人

    图深度学习入门教程(八)——简化图卷积模型

    GCN与SGC的处理关系见下图。 图1-1 GCN与SGC的结构 SGC之所以可以设计成这种结构,主要源于其固定的卷积核(图节点间的关系),在神经网络中,卷积核的权重是需要通过训练得到的。 图1-2 GCN与SGC的完整结构对比(来源论文arXiv: 1902.07153,2019) 2 了解DGL库中SGN的实现方式 直接使用DGL库中的简化图卷积层SGConv可以很方便的搭建SGC模型 虽然SGC模型在基准数据集上计算速度快、精度高。但该模型是建立在节点特征本身线性可分的基础之上的。 SGC只是在图结构信息与节点特征的融合部分对图卷积做了优化,而对于图卷积的非线性学习部分没有任何贡献。 为了弥补SGC模型无法拟合非线性数据的不足,可以在网络中加入更多深入学习的非线性拟合神经元。 即,使用多层SGC,并在层与层之间加入非线性激活函数。或是使用GfNN模型。

    1.6K30发布于 2020-05-25
  • 来自专栏数据安全架构与治理

    域名数字证书安全漫谈(3)-您被证书服务机构忽悠了吗?

    通常为 OV + SGC 证书 或 EV + SGC 证书,主要是 OV + SGC。 这强制实现128位高强度加密技术简称为 SGC 技术。 提出的SGC OID (nsSGC),1.3.6.1.4.1.311.10.3.3 是由微软提出的SGC OID(msSGC),两者都已经成为国际标准,所有系统都支持这两个OID,只要包含这二者当中的任何一个 ,即表示这是一张SGC证书。 那么到底要不要申请SGC证书呢? IE5.0及以下版本的早期浏览器目前已经基本绝迹了,当前的浏览器默认就会使用128位及以上的对称加密算法,大多数业务已经不需要考虑使用SGC证书了。

    1.2K20编辑于 2022-06-02
  • 来自专栏相约机器人

    图深度学习入门教程(九)——图滤波神经网络模型

    在上一篇的结尾出介绍了GfNN模型可以SGC网络可以弥补SGC模型无法拟合非线性数据的不足。本篇就来介绍下GfNN模型的结构、原理以及在DGL中的实现。 1 了解GfNN的网络结构 图滤波神经网络 (Graph filter Neural Network, GfNN)模型的主要思想就是在SGC模型后面加入深度学习中的非线性拟合功能。 通过这种方式来弥补SGC网络无法拟合非线性数据的不足。 在掌握了SGC和深度神经网络的基础上,会很容易理解GfNN的结构。GfNN的结构只是在SGC后面加了1层全连接网络而已。如图10-17所示。 __init__() 05 self.activation = activation #激活函数 06 self.sgc = SGConv(in_feats, n_hidden (g,features))#对SGC结果进行非线性变换 11 x = self.dropout(x) 12 return self.fc(x) #对变换后的特征进行全连接处理

    1.2K41发布于 2020-09-29
  • 社交机器人挑战赛冠军揭晓与对话AI技术突破

    Alexa Prize社交机器人挑战赛5冠军揭晓加州大学圣塔芭芭拉分校(UCSB)团队荣获第五届Alexa Prize社交机器人挑战赛(SGC5)总冠军。 此外,斯坦福大学团队获得科学创新一等奖——这是SGC5新设立的类别,旨在让团队通过深入研究开放对话基础来推动对话AI领域发展。 两个团队的工作与其他SGC5参赛者的成果均已收录于系列研究论文中。" 虽然首个达到该基准的团队有资格为其大学获得100万美元研究经费,但在SGC5比赛中没有团队达到该基准。" 如今年社交机器人会议记录所示,SGC5团队在推进人机交互科学方面做出了重大科学贡献,在真实环境中展示了他们的社交机器人创新。"

    14710编辑于 2025-10-28
  • 来自专栏新智元

    重新思考图卷积网络:GNN只是一种滤波器

    类似的观察在简单的架构(如SGC)和更复杂的脚骨(如DGI)中都曾被报告。 然后,我们描述了这个问题的图神经网络解决方案,并对最常用的基准模型GCN及其简化的变体SGC的机制提供了见解。 最后,我们将gfNN与SGC模型进行了比较。虽然SGC在基准数据集上计算速度快、精度高,但我们的分析表明,当特征输入是非线性可分的时,SGC会失败,因为图卷积部分对非线性流形学习没有贡献。 另一方面,gfNN和SGC对噪声的容忍度差不多。 图过滤器的表现力 ? 图5:基于两个圆形图案生成的500个数据样本的决策边界 ? 基于我们的分析,我们提出了GCN和SGC可能无法执行的两种情况:噪声特征和非线性特征空间。然后,我们提出一个在这两种情况下都能很好地工作的简单方法。

    1.6K30发布于 2019-06-10
  • BP综述|个性化和基于回路的经颅磁刺激:证据、争议和机遇

    已知SGC与异常的情绪处理、悲伤、抑郁严重程度以及对各种抗抑郁治疗的反应有关。 随着抑郁症中汇聚回路证据的积累,它为SGC种子图的实现带来了一个全新的视角(图6,iii)。SGC种子图是SGC FC的规范全脑图,最初被提出作为一种巧妙的方法来增加SGC时间序列的信噪比。 有趣的是,我们最近证明了SGC种子图非常接近上述的抑制回路模型(图5)。这意味着之前通过计算实现的SGC FC图来推导DLPFC TMS靶点无意中提供了一种靶向抑制环路而不是单独靶向SGC的方法。 首先,需要注意的是,来自该数据集的临床方案使用了组平均Fox坐标;换句话说,治疗中使用的刺激靶点已经根据SGC FC定义。这可能减少了检测SGC FC和治疗反应之间关系所需的统计学差异。 奇怪的是,最近的研究表明DLPFC与SGC的正连接位点也可能与抑郁症患者的正TMS结果相关;最简单的解释可能是,任何与SGC及其环路的连接(通路)都是有益的,尽管这需要进一步研究。

    56310编辑于 2024-06-27
  • 来自专栏GEE数据专栏,GEE学习专栏,GEE错误集等专栏

    航天宏图——宏图1号样例数据0.5米-5米分辨率(上海部分)

    数据集ID: PIE/HT1/SGC 时间范围: 2023年-2023年 范围: 北京上海部分区域 来源: 航天宏图 复制代码段: var images = pie.ImageCollection( "PIE/HT1/SGC") 波段名称 极化方式 空间分辨率 HH SH 1米 date string 影像日期 sensorMode string 传感器类型 代码: /** * @File 31.284394909968356 ], null); Map.centerObject(roi, 8); var images = pie.ImageCollection("PIE/HT1/SGC

    61900编辑于 2024-02-02
  • 来自专栏企鹅号快讯

    腾讯提出自适应图卷积神经网络,接受不同图结构和规模的数据

    方法 SGC-LL 层 SGC-LL 层的运算如算法 1 所述: AGCN 网络 图 3:AGCN 网络配置。把原始图结构数据和初始图直接输入该网络。 结论 我们提出了一种新型的基于自适应图的频谱图卷积器(SGC-LL)。SGC-LL 学习最优距离度量和特征变换,进而学习残差图拉普拉斯矩阵(Residual Graph Laplacian)。

    1.2K60发布于 2018-02-05
  • 来自专栏数据派THU

    ​比9种SOTA GNN更强!谷歌大脑提出全新图神经网络GKATs

    在GCN和SGC中,隐层中有h=32个节点。 在SGC中,将每个隐层与2个多项式局部过滤器结合。 在GAT和GKAT中,使用2个注意头,隐层中有h=9个节点。 在实验中需要控制GCN、GAT和SGC的隐层的节点数,以及GAT的每个注意头的数量,使它们的可训练参数总量与双层GKAT相当。 GKAT不同长度的随机游走结果 双层GKAT与不同隐层数量(2-6)的GCN、GAT和SGC的比较 可以看到,更浅的GKAT几乎击败了所有的GCN变体以及小于4层的GATs和SGCs。 此外,GKAT在趋势上等同于四层GAT和SGC,但它在训练和运行推理方面更快。 训练不同网络的时间,均为双层结构 此外,在达到特定精度水平所需的时间方面,常规的GKAT也比相应的模型(GCN、GAT和SGC)快。 

    63630编辑于 2023-03-29
  • 来自专栏新智元

    比9种SOTA GNN更强!谷歌大脑提出全新图神经网络GKATs

    在GCN和SGC中,隐层中有h=32个节点。 在SGC中,将每个隐层与2个多项式局部过滤器结合。 在GAT和GKAT中,使用2个注意头,隐层中有h=9个节点。 在实验中需要控制GCN、GAT和SGC的隐层的节点数,以及GAT的每个注意头的数量,使它们的可训练参数总量与双层GKAT相当。 双层GKAT与不同隐层数量(2-6)的GCN、GAT和SGC的比较 可以看到,更浅的GKAT几乎击败了所有的GCN变体以及小于4层的GATs和SGCs。 此外,GKAT在趋势上等同于四层GAT和SGC,但它在训练和运行推理方面更快。 训练不同网络的时间,均为双层结构 此外,在达到特定精度水平所需的时间方面,常规的GKAT也比相应的模型(GCN、GAT和SGC)快。

    58060发布于 2021-07-29
  • 来自专栏机器之心

    AAAI 2018 | 腾讯提出自适应图卷积神经网络,接受不同图结构和规模的数据

    方法 SGC-LL 层 SGC-LL 层的运算如算法 1 所述: ? AGCN 网络 ? 图 3:AGCN 网络配置。把原始图结构数据和初始图直接输入该网络。 结论 我们提出了一种新型的基于自适应图的频谱图卷积器(SGC-LL)。SGC-LL 学习最优距离度量和特征变换,进而学习残差图拉普拉斯矩阵(Residual Graph Laplacian)。

    1.8K80发布于 2018-05-10
  • 来自专栏时空探索之旅

    AAAI 2026| SEED:用于多变量时间序列预测的谱熵引导的时空依赖评估

    依赖评估器(Dependency Evaluator)、时间注意力(Temporal Attention)、带有符号图构造器的上下文空间提取器(Context Spatial Extractor with SGC 3)上下文空间提取器与符号图构造(CSE & SGC) 为了捕获复杂的跨变量依赖并保持时间感知,模型引入了空间建模核心组件: 局部上下文窗口: 不同于传统的全局空间建模,CSE 通过重叠的局部窗口提取特征 符号图构造器(SGC): 针对传统 Softmax 归一化会抹除负相关性的问题,SGC 允许图边权重为负值。

    13010编辑于 2026-04-02
  • 来自专栏图与推荐

    北大@KDD | GAT v.s. MLP?

    而Simplified GCN(SGC )将特征传播和非线性变换过程解耦。SGC只有训练集的节点参与到模型训练中且在模型训练过程中不需要获取相邻节点的特征。 因此,SGC 在单台机器上的计算和内存效率很高,而且在分布式环境中可以扩展。尽管具有可扩展性,SGC采用了固定的特征传播层,导致所有节点的 Receptive Field(RF)固定。

    61850编辑于 2023-03-01
领券