LDA 是一种基于概率的生成式模型,所以在LDA的过程中会涉及到很多概率的知识,不太熟悉的话建议先学习概率知识。LDA在NLP中应用广泛,主要是用于主题模型(topic modeling)。 关于主题模型和主题分类的区别请参考
LDA的主要作用是通过soft clustering 的方式使得每个数据点属于不仅仅局限于一个聚类。这是和其他的聚类方式,如kmeans,pLSI不一样的地方。 另外LDA的soft clustering 允许分类的成分比较模糊,这样的好处是可以发现一些潜在的东西。
1.根据文档中的单词找到一个文档属于的主题。
1.找到属于某个文档的单词(这个是已经知道的) 2.找到属于某个主题的单词,或者单词属于某个主题的概率(这个是需要计算的)
对单词的概率得分进行排序,选取得分最高的top n来表示该主题的单词。或者也可以通过设定一个分数阈值来选取代表主题的单词。
1.扫描所有文档,随机给每个单词赋予 k 个主题中的一个(k个主题是提前设定的) 2.对于每个文档 d ,扫描每个单词 w 并且计算: (1) : 在文档d中属于主题t单词的比例。 得到在文档d中多少单词属于主题t。 (2) 主题t在所有的文档中来源于单词w的比例。 得到多少文档属于t是因为单词w。 LDA中文档是有多个主题混合而成,一个主题也是由多个单词混个而成。如果一个单词w很高几率属于主题t,那么含有这个单词w 的文档也会很大几率属于t。 3.更新属于主题t的单词w的概率
控制一个文档中主题的数量。alpha越大,文档中包含的主题越多。 控制每个主题中单词的数量。beta越大,主题中包含的单词就越多。 通常情况下,我们希望文档能够被清晰的表达成很少的几个主题,同时每个主题可以由几个关键的部分来表达。
reference: