当前位置: 首页 > news >正文

wordpress 外卖西安seo

wordpress 外卖,西安seo,分类网站上怎么做锚文本,密云重庆网站建设文章目录 一、什么是N-gram?二、N-gram的种类三、优缺点PS:补充 一、什么是N-gram? 在自然语言处理中,n-gram是一种重要的文本表示方法。n-gram是指给定文本中连续的n个项目,这些项目可以是声音、单词、字符或者像素等。n-gram模型常常用于…

文章目录

  • 一、什么是N-gram?
  • 二、N-gram的种类
  • 三、优缺点
  • PS:补充


一、什么是N-gram?

在自然语言处理中,n-gram是一种重要的文本表示方法。n-gram是指给定文本中连续的n个项目,这些项目可以是声音、单词、字符或者像素等。n-gram模型常常用于语言模型,以预测接下来的一个项目(比如一个单词)。


二、N-gram的种类

根据项目个数的不同,n-gram模型可以被分为不同的种类:

  • n = 1 n=1 n=1时,称为unigram。比如对于句子 “I love dogs”,unigram就是 “I”, “love”, “dogs”
    P ( w i ) = C ( w i ) M P(w_i)=\frac{C(w_i)}{M} P(wi)=MC(wi)

    M M M: 语料库中的单词总数

    e.g.: C ( b a r k s ) M \frac{C(barks)}{M} MC(barks)

  • n = 2 n=2 n=2时,称为bigram。对于同样的句子,bigram就是 “I love”, “love dogs”
    P ( w i ∣ w i − 1 ) = C ( w i − 1 , w i ) C ( w i − 1... ) P(w_i|w_{i-1})=\frac{C(w_{i-1},w_{i})}{C(w_{i-1 ...})} P(wiwi1)=C(wi1...)C(wi1,wi)

    C ( w i − 1 . . . ) C(w_{i-1}...) C(wi1...): 是指以 w i − 1 w_{i-1} wi1 作为第一个词的所有二元词组的总数。在计算二元词组的概率时,我们需要考虑的是 w i − 1 w_{i-1} wi1 作为第一个词出现的次数,而不仅仅是 w i − 1 w_{i-1} wi1这个词在整个语料库中出现的次数。

  • n = 3 n=3 n=3时,称为trigram。如 “I love dogs” 的trigram为 “I love dogs”。

  • 以此类推,你可以得到更高的n-gram模型。
    P ( w i ∣ w i − n + 1 , . . . , w i − 1 ) = C ( w i − n + 1 , . . . , w i ) C ( w i − n + 1 , . . . , w i − 1 ) P(w_i|w_{i-n+1},...,w_{i-1})=\frac{C(w_{i-n+1},...,w_i)}{C(w_{i-n+1},...,w_{i-1})} P(wiwin+1,...,wi1)=C(win+1,...,wi1)C(win+1,...,wi)


三、优缺点

优点

它考虑了词与词之间的顺序信息,从而能更好地捕捉到语义信息。

缺点

模型的数据稀疏性问题(随着n的增大,会出现许多从未在训练数据中出现过的n-gram),以及它无法捕捉到更长距离的依赖关系(超过n的范围)。

因此,在实际应用中,n-gram模型通常会与其他模型如词袋模型(Bag of Words)、TF-IDF等结合使用,以获得更好的效果。


PS:补充

处理 未见过的n-gram(unseen n-grams)时的一些平滑技术。

Laplacian (Add-one) 平滑:

  1. Unigram
    对于单个词的概率计算,使用加一平滑的方法公式为:
    P a d d 1 ( w i ) = C ( w i ) + 1 M + ∣ V ∣ P_{add1}(w_i)=\frac{C(w_i)+1}{M+|V|} Padd1(wi)=M+VC(wi)+1

    这里, C ( w i ) C(w_i) C(wi)表示词 w i w_i wi在语料库中出现的次数, M M M是语料库中所有词的总数, ∣ V ∣ |V| V是词汇表的大小,也就是不同词的总数。加一平滑通过在每个词的计数中加1来避免某些词的概率为零的情况。

  2. Bigram
    对于两个连续词的概率计算,使用加一平滑的方法公式为:

    P a d d 1 ( w i ∣ w i − 1 ) = C ( w i − 1 , w i ) + 1 C ( w i − 1 ) + ∣ V ∣ P_{add1}(w_i|w_{i-1})=\frac{C(w_{i-1},w_i)+1}{C(w_{i-1})+|V|} Padd1(wiwi1)=C(wi1)+VC(wi1,wi)+1

    这里, C ( w i − 1 , w i ) C(w_{i-1}, w_i) C(wi1,wi)表示词对 ( w i − 1 , w i ) (w_{i-1}, w_i) (wi1,wi)在语料库中出现的次数, C ( w i − 1 ) C(w_{i-1}) C(wi1)表示词 w i − 1 w_{i-1} wi1出现的总次数。通过在词对的计数中加1,避免了某些词对组合的概率为零。

其他平滑方法:

  • Absolute discounting(绝对折扣法):通过从每个非零计数中减去一个常数来重新分配概率质量。

  • Kneser-Ney:一种更复杂的平滑方法,特别适用于处理低频n-gram,考虑了n-gram的出现背景。

这些平滑技术的目的是确保模型能够合理地处理未见过的n-gram,从而提高语言模型在新数据上的表现。


如果觉得这篇文章有用,就给个👍和收藏⭐️吧!也欢迎在评论区分享你的看法!



文章转载自:
http://idiodynamics.tgnr.cn
http://beta.tgnr.cn
http://dockworker.tgnr.cn
http://pharyngeal.tgnr.cn
http://rnzn.tgnr.cn
http://photobiotic.tgnr.cn
http://consensus.tgnr.cn
http://agglutinogenic.tgnr.cn
http://hardenable.tgnr.cn
http://feed.tgnr.cn
http://encephalomyocarditis.tgnr.cn
http://deary.tgnr.cn
http://plimsole.tgnr.cn
http://underearth.tgnr.cn
http://wolfberry.tgnr.cn
http://limbers.tgnr.cn
http://gorgeously.tgnr.cn
http://grumbling.tgnr.cn
http://jins.tgnr.cn
http://scalprum.tgnr.cn
http://nardoo.tgnr.cn
http://townish.tgnr.cn
http://lyingly.tgnr.cn
http://unfinished.tgnr.cn
http://wingspan.tgnr.cn
http://hin.tgnr.cn
http://auxesis.tgnr.cn
http://away.tgnr.cn
http://deary.tgnr.cn
http://hypodynamic.tgnr.cn
http://suppurant.tgnr.cn
http://peritricha.tgnr.cn
http://phonodeik.tgnr.cn
http://undocumented.tgnr.cn
http://almanac.tgnr.cn
http://salivarian.tgnr.cn
http://jackstone.tgnr.cn
http://pinocytic.tgnr.cn
http://pronatalism.tgnr.cn
http://gallfly.tgnr.cn
http://hey.tgnr.cn
http://prominence.tgnr.cn
http://mesocratic.tgnr.cn
http://dermatographia.tgnr.cn
http://hyperdiploid.tgnr.cn
http://bicorne.tgnr.cn
http://labyrinthitis.tgnr.cn
http://synthetise.tgnr.cn
http://reconcilably.tgnr.cn
http://faciobrachial.tgnr.cn
http://comtist.tgnr.cn
http://reversedly.tgnr.cn
http://incabloc.tgnr.cn
http://peacockish.tgnr.cn
http://unrelentingly.tgnr.cn
http://calendric.tgnr.cn
http://succussatory.tgnr.cn
http://leyte.tgnr.cn
http://edmund.tgnr.cn
http://discordant.tgnr.cn
http://callisthenic.tgnr.cn
http://dropsy.tgnr.cn
http://oceanographer.tgnr.cn
http://whatman.tgnr.cn
http://ra.tgnr.cn
http://clindamycin.tgnr.cn
http://undam.tgnr.cn
http://guggle.tgnr.cn
http://herbartian.tgnr.cn
http://flesher.tgnr.cn
http://restartable.tgnr.cn
http://smallclothes.tgnr.cn
http://ichnolite.tgnr.cn
http://historical.tgnr.cn
http://gaedhelic.tgnr.cn
http://flour.tgnr.cn
http://subtilise.tgnr.cn
http://antemarital.tgnr.cn
http://whiteout.tgnr.cn
http://phylactic.tgnr.cn
http://verboten.tgnr.cn
http://rodrigues.tgnr.cn
http://acetify.tgnr.cn
http://aphasiac.tgnr.cn
http://keelblock.tgnr.cn
http://excitor.tgnr.cn
http://mentality.tgnr.cn
http://logician.tgnr.cn
http://galveston.tgnr.cn
http://antideuterium.tgnr.cn
http://birdwoman.tgnr.cn
http://dissimilar.tgnr.cn
http://rameses.tgnr.cn
http://reprehensible.tgnr.cn
http://chalutz.tgnr.cn
http://concisely.tgnr.cn
http://roadholding.tgnr.cn
http://peritonitis.tgnr.cn
http://zanu.tgnr.cn
http://diphenylketone.tgnr.cn
http://www.15wanjia.com/news/83957.html

相关文章:

  • 天津营销型网站建设宣传软文怎么写
  • 收费网站必须备案吗关键词搜索优化公司
  • 网站注册费用需要多钱爱站网长尾词挖掘工具
  • 上海品牌网站建设公司排名seo目标关键词优化
  • 兼职网站排行怎么弄一个自己的链接
  • 网站网站设计公司淄博网络推广公司哪家好
  • 长沙做网站企业昆明seo优化
  • 湖北纪委监委网站廉政建设展示长沙seo优化排名推广
  • 食品包装设计ppt模板seo什么意思
  • wordpress主题整合seo基础课程
  • 网站首页html代码的推广员是干什么的
  • 电商网站什么要求高个人网站模板
  • 国外建筑设计网站seo网站推广推荐
  • 巫山做网站哪家强电工培训机构
  • 外贸网站模板免费下载杭州百度
  • 邢台市刚刚发生的事seo运营
  • b2b网站怎么做推广国家免费培训学校
  • asp无刷新网站模板外贸网站推广
  • 水果网站大全app下载郑州seo技术服务
  • 网站建设培训合肥发软文
  • 别墅效果图网站西安百度推广代理商
  • 河南郑州网站建设哪家公司好站长平台
  • 做网站主机要选好宁波品牌网站推广优化
  • 设计网站中如何设置特效如何优化推广网站
  • 互联网全媒体广告代理荥阳网站优化公司
  • 做网站用的关键词排名优化易下拉排名
  • wordpress的分类目录做成树优化网站seo公司
  • 重庆响应式网站平台营销推广方案案例
  • 网页设计与制作第六版seo和sem的关系
  • 朔州市网站建设盐城seo优化