首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏春天和爱情の樱花

    NLP笔记——NLP概述

    NLP概述 1. NLP基础 1.1 什么是NLPNLP是研究用计算机来处理、理解和运用人类语言,达到人与机器之间进行有效交流。 NLP主要可以分为:自然语言处理(理解文本)和自然语言生成(生成文本) 1.2 NLP研究任务 机器翻译 情感分析 智能问答 文摘生成 文本分类 舆论分析 知识图谱 1.3 NLP基本术语 分词 词性标注 (NLP神经网络) 2013 年和 2014 年是 NLP 问题开始引入神经网络模型的时期。 目前在NLP研究中,key和value常常都是同一个,即key=value。 收集了个人自用及备用的一些开源Python库、知识图谱、语料库、词表以… NLP文本分类最近开始入坑Tensorflow的一些深度学习的NLP相关实践,同时学习了文本分类领域中基于深度学习… 信息熵和条件熵机器学习中

    1.1K20编辑于 2022-09-22
  • 来自专栏机器学习初学者精选文章

    NLP】竞赛必备的NLP

    NLP必备的库 本周我们给大家整理了机器学习和竞赛相关的NLP库,方便大家进行使用,建议收藏本文。 spaCy spaCy是功能强化的NLP库,可与深度学习框架一起运行。spaCy提供了大多数NLP任务的标准功能(标记化,PoS标记,解析,命名实体识别)。 import spacy # Load English tokenizer, tagger, parser, NER and word vectors nlp = spacy.load("en_core_web_sm "worth talking to,” said Thrun, in an interview with Recode earlier " "this week.") doc = nlp ://stanfordnlp.github.io/CoreNLP/ AllenNLP AllenNLP 是由世界著名的艾伦人工智能实验室(Allen Institute for AI Lab)建立的 NLP

    2.3K11发布于 2020-09-29
  • 来自专栏有三AI

    NLP】 聊聊NLP中的attention机制

    本篇介绍在NLP中各项任务及模型中引入相当广泛的Attention机制。在Transformer中,最重要的特点也是Attention。 在NLP的很多任务中,加入注意力机制后,都取得了非常好的效果。 那么,在NLP中,Attention机制是什么呢? 往期精选 【NLP】自然语言处理专栏上线,带你一步一步走进“人工智能技术皇冠上的明珠”。 【NLP】用于语音识别、分词的隐马尔科夫模型HMM 【NLP】用于序列标注问题的条件随机场(Conditional Random Field, CRF) 【NLP】经典分类模型朴素贝叶斯解读 【NLPNLP专栏栏主自述,说不出口的话就交给AI说吧 【NLP】 深度学习NLP开篇-循环神经网络(RNN) 【NLPNLP中应用最广泛的特征抽取模型-LSTM 【技术综述】深度学习在自然语言处理中的应用发展史

    1.4K11发布于 2019-07-26
  • 来自专栏NewBeeNLP

    NLP简报

    「@Author: Elvis」 欢迎来到 NLP 时事简报!涵盖了诸如特定语言 BERT 模型、免费数据集、深度学习库等主题。 Big Bad NLP 数据库[25]是一个网站,你可以在其中搜索 200 多种 NLP 数据集的专用数据库,以执行诸如常识,情感分析,问题回答,蕴含推理等任务。 DeepPavlov 带有几个预定义的组件,用于解决与 NLP 相关的问题。它将 BERT(包括会话 BERT)集成到三个下游任务中:文本分类,命名实体识别(和一般的序列标记)以及问题解答。 紧跟 Sebastian Ruder 的 NLP News[52],以获取最新的 NLP 最新新闻。重点包括 NLP 进展的更新,过去十年的回顾,新的 NLP 课程以及其他主题。 News: http://newsletter.ruder.io/issues/nlp-progress-restrospectives-and-look-ahead-new-nlp-courses-independent-research-initiatives-interviews-lots-of-resources

    1.3K20发布于 2020-08-26
  • 来自专栏全栈程序员必看

    nlp 关键词提取_nlp信息抽取

    参考: 1、NLP关键词抽取常见算法 2、gensim models.ldamodel 3、卡方检验原理及应用 4、特征选择 (feature_selection) 5、随机森林算法总结及调参 6、句子相似度计算 本人博文NLP学习内容目录: 一、NLP基础学习 1、NLP学习路线总结 2、TF-IDF算法介绍及实现 3、NLTK使用方法总结 4、英文自然语言预处理方法总结及实现 5、中文自然语言预处理方法总结及实现 6、NLP常见语言模型总结 7、NLP数据增强方法总结及实现 8、TextRank算法介绍及实现 9、NLP关键词提取方法总结及实现 10、NLP词向量和句向量方法总结及实现 11、NLP句子相似性方法总结及实现 12、NLP中文句法分析 二、NLP项目实战 1、项目实战-英文文本分类-电影评论情感判别 2、项目实战-中文文本分类-商品评论情感判别 3、项目实战-XGBoost与LightGBM文本分类 4、项目实战 -TextCNN文本分类实战 5、项目实战-Bert文本分类实战 6、项目实战-NLP中文句子类型判别和分类实战 交流学习资料共享欢迎入群:955817470(群一),801295159(群二) 版权声明

    1.3K41编辑于 2022-09-29
  • 来自专栏yiyun 的专栏

    初识 NLP

    NLP 两大核心任务 自然语言理解(NLU,NLI) 自然语言生成(NLG) NLU: 希望机器像人一样,具备正常人的语言理解能力 NLG: 将非语言格式数据转为人类可以理解的语言格式 NLU 五大难点 语言的多样性 语言的歧义性 语言的鲁棒性 语言的知识依赖 语言的上下文 NLP 四大典型应用 情感分析 聊天机器人 语音识别 机器翻译 NLP 两大实现方式 传统机器学习 深度学习 传统机器学习:语料预处理 自然语言处理-Natural language processing | NLP 本文作者: yiyun 本文链接: https://moeci.com/posts/NLP-summary/ 版权声明:

    38430编辑于 2022-04-01
  • 来自专栏AI小白入门

    NLP】在 NLP 领域创业,真的很难

    如果细分的话,可以分为机器学习ML,图像视觉CV,和自然语言处理NLP。当然,理论上来说,CV 和 NLP 也是属于 ML 范围的。 我从事 NLP 行业,在相关的创业公司待过一段时间,所以对该领域的公司较为关注。 今天,可以来简单聊聊 CV 和 NLP 领域创业公司的情况,重点是要回答一个问题:同样是 AI 创业,为什么 NLP 领域明显弱于 CV 领域。 我们先来看看 CV 领域的创业公司们。 相比之下,NLP 领域的创业公司的发展速度和融资规模,略显逊色。目前,与 NLP 有关的创业公司,发展势头不错的有:出门问问,追一科技,竹间智能等。 所以,技术上的巨大应用难度,鸡肋的市场需求,让 NLP 创业者很容易陷入窘境。这也就解释了,为什么市面上,鲜有比肩 CV 四小龙的 NLP 创业公司。当然,目前来看,四小龙的日子过得也并不舒适。

    74331发布于 2020-02-20
  • 来自专栏机器学习初学者精选文章

    NLPNLP哪个细分方向最具社会价值?

    论文题目: How Good Is NLP? 无疑,NLP 已经渗透到了我们生活的方方面面,一些典型 NLP 应用的名字也都被我们所共享,比如某天开的一个关于 Siri 的笑话,某次复制到谷歌翻译里的英文。 对于某一项具体的 NLP 技术,譬如是否应当使用 NLP 技术应用于医疗领域之中,在三种理论下选择以 NLP 技术治病救人都是道德并可取的,我们就可以认为这具有良好的社会效益,而另一些技术,当理论的观点产生了冲突 不同的 NLP 技术如何影响社会效益? 这种分类,使得 NLP 技术具有了一个层级结构,根据每层技术之间的因果关系,可以将 NLP 技术的四个阶段用一个树状图表示出来,如下图所示: 作者认为 NLP 技术之中存在着一个因果关系,即只有当树上层的技术被发明出来时

    1K20发布于 2021-07-07
  • 来自专栏AINLP

    复旦NLP实验室NLP上手教程

    更推荐邱老师的开源书籍:神经网络与深度学习 链接:https://nndl.github.io/ 以下来自该 FudanNLP/nlp-beginner: 新加入本实验室的同学,请按要求完成下面练习, 请完成每次练习后把report上传到QQ群中的共享文件夹中的“Reports of nlp-beginner”目录,文件命名格式为“task 1+姓名”。 sequence-classification-lstm-recurrent-neural-networks-python-keras/ word embedding 的方式初始化 随机embedding的初始化方式 用glove 预训练的embedding进行初始化 https://nlp.stanford.edu pdf Enhanced LSTM for Natural Language Inference https://arxiv.org/pdf/1609.06038v3.pdf 数据集:https://nlp.stanford.edu

    2.3K41发布于 2019-06-03
  • 来自专栏杨熹的专栏

    CMU Neural Nets for NLP 2019 (4):CNN for NLP

    CMU Neural Nets for NLP 2019 (4): Convolutional Neural Networks for Language 首先,让我们考虑情感分析这个文本分类问题,看看都有哪些方法可以用

    62020发布于 2019-05-14
  • 来自专栏机器学习初学者精选文章

    NLPNLP爱好者学习资源推荐汇总

    《数学之美》 数学之美是吴军老师很经典的科普读物,用易懂的语言和故事带我们了解一个个NLP应用。书不厚,适合闲暇时间阅读。 Oxford Deep Learning for NLP class 教师:Phil Blunsom. (2017) Class by Deep Mind NLP Group. https://github.com 国外把 ACL、EMNLP、NAACL、COLING 被称为 NLP 四大顶会,其中唯独ACL在CCF里面是 A 类,可见在 ACL 中一篇文章是很难的。 NLP/CL 也有自己的旗舰学术期刊 Computational Linguistics 和 ACL 创办的期刊 TACL。 作为交叉学科,也有很多相关领域值得关注。 基础教程,包括情感分析,句子生成等nlp基本内容 https://github.com/adashofdata/nlp-in-python-tutorial 东北大学自然语言处理实验室维护的自然语言处理和机器学习综述论文项目

    3.2K30发布于 2021-04-16
  • 来自专栏Reinvent Data Science

    「X」Embedding in NLP|初识自然语言处理(NLP

    为了方便大家能够深入了解向量数据库与 NLP 的关系及应用,我们上线了「X」Embedding in NLP 系列专题,分为初阶和进阶两部分。 本文为初阶第一篇,将详细介绍 NLP 以及以 Zilliz Cloud、Milvus 为代表的向量数据库是如何为 NLP 赋能的。 01. 什么是 NLPNLP 原理 NLP 是指通过一系列技术和算法,使计算机能够处理、理解和生成人类语言。以下是 NLP 工作流程: 文本预处理—— NLP 的初始步骤通常是文本数据的预处理。 NLP 模型 在大型数据集上接受训练以执行特定NLP任务的深度学习模型被称为 NLP 的预训练模型(PTM),它们可以通过避免从头开始训练新模型来帮助下游 NLP 任务。 Zilliz 如何赋能 NLP? 开发者正在使用向量数据库革新 NLP 领域。

    66210编辑于 2023-11-22
  • 来自专栏大鹅专栏:大数据到机器学习

    NLP烤面筋

    NLP [myr9rcwyqo.jpeg] 各种词向量种类及特点: 种类 基于one-hot、tf-idf、textrank等的bag-of-words; 主题模型:LSA(SVD)、pLSA、LDA; NLP必读 | 十分钟读懂谷歌BERT模型: 虽然这确实能让团队获得双向预训练模型,但这种方法有两个缺点。

    1.5K115编辑于 2022-06-02
  • 来自专栏有三AI

    NLP】 理解NLP中网红特征抽取器Tranformer

    本篇介绍目前NLP领域的“网红”特征抽取器Transformer。 确实,Transformer是现在NLP领域最大的网红特征抽取器,基本现在所有的前沿研究都基于Transformer来做特征提取,不奇怪大家对他颇有兴致。 后来,因为在序列编码中强大的特征抽取能力和高效的运算特性,Transformer被从编解码结构里抽离出来,成为了在NLP领域,目前最流行的特征抽取器。 话说回来,NLP中,模型参数已经大大超过了CV模型的参数量,正在朝着超大规模网络的方向狂奔。真有点担心,这样下去,后面NLP的玩家就只剩下那几个大玩家了。 NLP领域的同学们,务必好好研究。

    1.1K20发布于 2019-07-31
  • 来自专栏有三AI

    NLP】ALBERT:更轻更快的NLP预训练模型

    目前在NLP领域,出彩的预训练模型的新工作,几乎都是基于BERT的改进,前面我们就介绍了XLNET。今天我来介绍一个更新的工作,相比于BERT,它更轻量,效果也要好。 作者&编辑 | 小Dream哥 1 预训练模型进展 2018年底,BERT横空出世之后,预训练模型开始走进NLP舞台的中央,吸引了业内所有人的关注。 之后,各种预训练模型开始不断的刷新NLP领域的SOTA榜单,比较有影响力的包括,GPT-2.0,XLNET,RoBERTa等。 这是NLP领域第一次发现dropout对大规模的预训练模型会造成负面影响。 此外,ALBERT还有一个albert_tiny模型,其隐藏层仅有4层,模型参数量约为1.8M,非常的轻便。

    1.5K10发布于 2019-11-06
  • 来自专栏有三AI

    NLP】详聊NLP中的阅读理解(MRC)

    机器阅读理解,笔者认为他是NLP中最有意思的任务了。机器阅读一份文档之后,可以“理解”其中的内容,并可以回答关于这份文档的问题。听上去,有一种很强的“人工智能”的Feel。 作者&编辑 | 小Dream哥 目标 目前来讲,还没有一种NLP技术,能够端到端的实现对文本的理解。 通常是转化位不同的NLP任务,来实现对文本不同层面的“理解”,例如如下的任务: 词性识别 命名实体识别 句法依存 句法依存 MRC也是一种理解文本的任务,它的大体模式是:机器阅读文档,并回答相关的问题 我们前面还介绍过,如何基于BERT来做MRC的任务,感兴趣的读者可以看看: 【NLP】如何利用BERT来做基于阅读理解的信息抽取 总结 基于MRC可以完成知识抽取、QA等重要的NLP任务,读者务必熟悉。

    4.3K10发布于 2020-03-17
  • 来自专栏AutoML(自动机器学习)

    NLP CS224N笔记】Lecture 1 - Introduction of NLP

    什么是NLP NLP全称是Natural Language Processing,即自然语言处理,这是一门计算机科学、人工智能以及语言学的交叉学科。 NLP涉及的几个层次由下图所示。 NLP相关技术 1.Word Vector 本节视频没有深入介绍,后面的内容会详细介绍。 2.NLP表示层次:形态(Morphology)级别 ? 3.NLP工具:句法分析 ? 还有其他的NLP技术和应用不在赘述,详细的课观看教学视频和其他笔记。

    61230发布于 2018-12-28
  • 来自专栏有三AI

    NLP】 深度学习NLP开篇-循环神经网络(RNN)

    从这篇文章开始,有三AI-NLP专栏就要进入深度学习了。本文会介绍自然语言处理早期标志性的特征提取工具-循环神经网络(RNN)。 所以,在NLP专栏就暂不介绍相关的内容了。如果有需要的同学,可以留言提出来。 目前,RNN及其变种在NLP领域有着广泛的应用。语音识别、对话系统、机器翻译、情感分析等等领域,在产业界,RNN及其变种都是最主要的特征提取工具。 在语音识别,对话系统以及机器翻译等NLP领域实际应用比较广泛的是基于RNN模型的变种。 读者们可以留言,或者加入我们的NLP群进行讨论。 感兴趣的同学可以微信搜索jen104,备注"加入有三AI NLP群"。

    68330发布于 2019-07-27
  • 来自专栏自动化测试实战

    NLP - 新词发现

    判断组合左右的混乱程度,如果左、右熵都很大,表明组合左右变化很大,证明这个组合是一个词的概率很大

    36510编辑于 2024-05-09
  • 来自专栏深度学习框架

    NLP随笔(三)

    本篇介绍深度学习在自然语言处理(NLP)中的应用,从词向量开始,到最新最强大的BERT等预训练模型,梗概性的介绍了深度学习近20年在NLP中的一些重大的进展 在深度学习之前,用于解决NLP问题的机器学习方法一般都基于浅层模型 并且基于传统机器学习的NLP系统严重依赖手动制作的特征,它们极其耗时,且通常并不完备。 而近年来,基于稠密向量表征的神经网络在多种NLP任务上得到了不错结果。 这一项研究工作还率先将词嵌入作为 NLP 任务的高效工具。 在Collobert 2011年的研究中,他扩展了以前的研究,并提出了一种基于CNN的通用框架来解决大量NLP任务,这两个工作都令NLP研究者尝试在各种任务中普及 CNN架构。 该模板天然适合很多NLP 任务,如语言建模、机器翻译、语音识别、图像字幕生成。因此近年来,RNN在NLP任务中逐渐流行。

    57800发布于 2021-08-03
领券