特牛网址导航

文本匹配之Sentence Bert模型_sentencebert中文模型-CSDN博客

网友收藏
文章浏览阅读4.1k次,点赞4次,收藏28次。文章目录前言Bert句向量表示效果为什么不好?Sentence Bert 原理前言目前,对于大部分的NLP任务来说,通过对预训练模型进行微调的方式已经取得了很好的效果,但对于某些特定的场景,我们常常需要的是文本的表示,比如文本聚类,文本匹配(搜索场景)等等;在进行文本匹配任务时,在计算语义相似度时,Bert模型需要将两个句子同时进入模型,进行信息交互,假如有10000个句子,找出最相似的句子对,需要计算(10000*9999/2)次,非常耗时。而Sentencebert可以预先将标准库中的问题预先离线_sentencebert中文模型