- 链接地址:https://blog.csdn.net/weixin_39996234/article/details/111973085
- 链接标题:bert下游_【NLP】彻底搞懂BERT-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:6619
文章浏览阅读487次。一、词向量模型这里主要横向比较一下word2vec,ELMo,BERT这三个模型,着眼在模型亮点与差别处。传统意义上来讲,词向量模型是一个工具,可以把真实世界抽象存在的文字转换成可以进行数学公式操作的向量,而对这些向量的操作,才是NLP真正要做的任务。因而某种意义上,NLP任务分成两部分,预训练产生词向量,对词向量操作(下游具体NLP任务)。从word2vec到ELMo到BERT,做的其实主要是把..._bert 文本向量化 输入下游
版权声明:本文发布于特牛网址导航 内容均来源于互联网 如有侵权联系删除