首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏GiantPandaCV

    移动端SOTA模型 MixNet

    再基于种种实验结果,以及相关合理的假设,约束了MDConv模块的设计,将整个网络搜索空间进一步减小,最后得到一款移动端SOTA模型。

    97230发布于 2020-06-02
  • 来自专栏前行的CVer

    2022年MOT新SOTA

    Associations Multi-Pedestrian Tracking 代码:https://github.com/NirAharon/BOT-SORT 本篇工作达到了2022年MOT17和MOT20两个数据集的新SOTA

    62930编辑于 2023-10-18
  • 来自专栏NewBeeNLP

    关系抽取新SOTA

    效果 NER效果 使用了悬浮标记的NER的效果达到了SOTA RE效果 速度 因为采用这种拼接的方式,NER的速度一定是不快,所以他们做了这个实验,对比了不同的group下PL-Marker

    2.2K50编辑于 2022-06-06
  • 来自专栏CreateAMind

    Meet CreateAMind Cuju ( 谷歌足球 SOTA )

    谷歌足球(Google Research Football)是Google Brain 开发的一个足球仿真策略游戏。

    1.1K30发布于 2020-05-09
  • 来自专栏机器学习与生成对抗网络

    人脸生成新SOTA?它还是GAN。

    动机 自编码结构通常作假设:潜在空间应该是具有匹配对应先验的概率分布的;而现有的SOTA的GAN(比如StyleGAN)表明中间的潜在空间,它与直接输入距离得足够远,往往可以(学习)到更好的解耦属性;

    83010发布于 2020-05-20
  • 来自专栏DeepHub IMBA

    自动数据增强:概述和SOTA

    作者: 原文地址:https://adam-mehdi23.medium.com/automatic-data-augmentation-an-overview-and-the-sota-109ffbf43a20

    67110发布于 2021-07-01
  • 来自专栏深度学习自然语言处理

    深度学习刷SOTA有哪些trick?

    每天给你送来NLP技术干货! ---- 作者:Gordon Lee (转载请联系作者) 链接:https://www.zhihu.com/people/gordon-lee 1. R-Drop:两次前向+KL loss约束 2. Post Training: 在领域语料上用mlm进一步预训练 3. EFL: 少样本下,把分类问题转为匹配问题,把输入构造为NSP任务形式. 4. 混合精度fp16: 加快训练速度,提高训练精度 5. 多卡ddp训练的时候,用到梯度累积时,可以使用no_sync减少不必要的梯度

    77410编辑于 2022-06-29
  • 来自专栏新智元

    微软开源FLAMA,比sota还要sota

    最近微软开源了他们的方案FLAMA,网络搜索性能比sota还要显著提升,资源消耗降低为原来的十分之一!最重要的是它是Python库,三行代码就能彻底改造你的AutoML方案!

    87520发布于 2021-09-17
  • 来自专栏NewBeeNLP

    Transformer在2027年还是SOTA吗?

    具体来说,Mamba在语言、音频、DNA序列模态上都实现SOTA。 在最受关注的语言任务上,Mamba-3B超越同等规模的Transformer,与两倍大的Transformer匹敌。 有网友发现,连在线预测平台上的“Transformer在2027年还是SOTA吗?”都在这一天出现明显下降。 有选择处理信息+硬件感知算法。 并且在音频和DNA序列建模上也优于之前的SOTA模型,表现出一定的通用性。 作者在结论中提出,Mamba是通用序列模型骨干的有力候选者。 Stability AI创始人当即表示关注。

    41110编辑于 2023-12-13
  • 来自专栏CreateAMind

    RL解决BipedalWalkerHardcore-v2 (SOTA) 更新

    在之前的公众号文章中 RL解决'BipedalWalkerHardcore-v2' (SOTA) 我们介绍了openai gym 环境'BipedalWalkerHardcore-v2'以及我们解决这个环境 BipedalWalker-v2' 的困难版本,在解决'BipedalWalkerHardcore-v2'之后我们顺带解决了 'BipedalWalker-v2', 同样达到了leaderboard上的 SOTA

    1.7K30发布于 2019-09-03
  • 来自专栏我爱计算机视觉

    刷新SOTA ! 视频恢复的重中之重:时间对齐!

    此外,本文还提出了一种非参数重加权方法(ARW),以空间方式自适应地计算每个相邻帧的重要性以进行聚合,在多任务上实现了SOTA。 方法 Overview 框架如下图所示。

    3K30编辑于 2021-12-13
  • 来自专栏NewBeeNLP

    BERT-Flow | 文本语义表示新SOTA

    来自字节跳动和CMU的 EMNLP2020工作深入分析了BERT向量,并扔给你一个SOTA模型 ? ? 针对这个问题,作者首先分析了BERT句向量分布的性质,然后利用标准化流无监督地将BERT句向量的分布变换成更规整的高斯分布,实验结果表明作者提出的BERT-flow在多项任务上取得了SOTA表现。 Supervised Training 当前文本语义相似度计算的SOTA基线模型依旧是SBERT,SBERT同样是在NLI数据集上以有监督的方式训练的,为了和SBERT对比,作者首先以SBERT的训练方式在相同的数据集上微调了 实验结果如下表所示,可以认为BERT-flow是一个新的SOTA模型。 ?

    2.1K30发布于 2021-01-08
  • 来自专栏NewBeeNLP

    简单有效,来看看这个NER SOTA

    结束了,是不是很简单,但效果很不错,在多个few shot NER的数据集上拿到了SOTA。 那看样子,label name还挺有用的,在我之前介绍的\<关系抽取>ACL2022关系抽取SOTA之PL-Marker[1]中,也用到了类似的手法: PL-Marker中用meaningful words 本文参考资料 [1] <关系抽取>ACL2022关系抽取SOTA之PL-Marker: https://zhuanlan.zhihu.com/p/496000441

    1.7K40编辑于 2022-06-06
  • 来自专栏图与推荐

    KDD23 | LM+GNN最新 SOTA

    大规模文本语料库上的模型预训练已经被证明在NLP领域的各种下游应用中非常有效。在图挖掘领域,也可以类比预训练图模型在大规模图上,以期望从中获益于下游图应用,这也被一些最近的研究所探索。然而,现有的研究从未研究过在具有丰富文本信息的大型异构图(也就是大型图谱语料库)上预训练文本加图模型,然后在具有不同图模式的不同相关下游应用上对模型进行微调。为了解决这个问题,我们提出了一个在大型图谱语料库上进行图感知语言模型预训练(GaLM)的框架,该框架结合了大型语言模型和图神经网络,并在下游应用上提供了各种微调方法。我们在亚马逊的真实内部数据集和大型公共数据集上进行了广泛的实验。全面的实证结果和深入的分析证明了我们提出的方法的有效性,以及我们从中学到的经验。

    24220编辑于 2023-09-04
  • 来自专栏前行的CVer

    2023年MOT中极简单的新SOTA

    本工作提出的方法极为简单,但非常有效,实现了MOT 17、DanceTrack、SoccerNet、GMOT-40 四个数据集上的最新SOTA

    54740编辑于 2023-10-18
  • 来自专栏机器学习炼丹术

    自监督SOTA框架 | BYOL(优雅而简洁) | 2020

    BYOL是Boostrap Your Own Latent,这个无监督框架非常的优雅和简单,而且work。收到了很多人的称赞,上一个这样起名的在我认知中就是YOLO。两者都非常简单而优美。

    1.3K50发布于 2021-02-03
  • 来自专栏DeepHub IMBA

    BRIO:抽象文本摘要任务新的SOTA模型

    在 SimCLS [2]论文发布后不久,作者又发布了抽象文本摘要任务的SOTA结果 [1]。BRIO在上述论文的基础上结合了对比学习范式。 BRIO解决什么问题? 结果 BRIO方法刷新了三个抽象摘要数据集:CNN/DailyMail、XSum和NYT的的SOTA结果。从下图4可以看出,该方法对于长摘要和短摘要的数据集都有较好的性能。 \1) BRIO [1] 和 SimCLR [2](之前的 SOTA)模型之间的主要区别在于使用单一模型进行生成和评分,以最大限度地提高 BRIO 中的参数共享,SimCLR 使用 RoBERTa 作为评估模型

    98320编辑于 2022-06-04
  • 来自专栏机器学习算法与Python学习

    刷新NMT多项SOTA

    机器学习算法与Python学习 ,选择加星标 精彩内容不迷路 ---- 新智元报道   近日,微软研究院的研究人员搞出了一个1000层的Transformer,在多语种机器翻译任务上刷新多项SOTA

    46520编辑于 2022-03-08
  • 来自专栏贾志刚-OpenCV学堂

    性能达到SOTA的CSP对象检测网络

    2.CSP检测网络在行人检测(CityPersons)与人脸检测(WiderFace)两个benchmark数据集上达到了SOTA 3.CSP检测网络在交叉数据集上表现出了良好的泛化能力。 基于行人检测CityPersons数据集不同网络模型对比,CSP效果达到SOTA ?

    1.3K40发布于 2019-08-09
  • 来自专栏深度学习自然语言处理

    GNER: 生成式实体识别的新 SoTA

    地址:https://arxiv.org/abs/2402.16602 Github:https://github.com/yyDing1/GNER 一句话概括:将负样本融入训练,模型表现远超现有 SoTA 我们的实验重点在于零样本评估(zero-shot evaluation),即模型在训练过程中没见过的实体类别上的表现,具体结果如下图所示,模型在 7 个数据集上都实现了稳定的提升,并且平均效果远超现有的 SoTA

    76210编辑于 2024-03-02
领券