October 15, 2009

PythonでPLSAを実装してみる

probabilistic latent semantic analysis (PLSA)は、

・文書dがP(d)で選ばれる
・潜在変数zがP(z|d)で選ばれる
・語wがP(w|z)で生成される

というプロセスを経て、結果として(d,w)のペアが観測されるという文書と語の生成モデル。

式で表すと
(1)
となる。P(d,w)の尤もらしい確率分布を見つけたい。対数尤度関数は
(2)
となる。n(d,w)は語wが文書dに出現する回数。この式は訓練データn(d,w)(;どの語がどの文書に何回出現したか)が尤もらしい確率分布P(d,w)に従うとき最大になる。ベイズの定理を用いると
(3)
となることを利用して、この尤度関数を最大化するためにEMアルゴリズムを用いて実装してみる。(過学習を回避するために文献ではTempered EM (TEM)を用いている。)尤度関数が収束するまで以下のE-stepとM-stepを繰り返す。

E-step: 現在推定されているパラメータの分布に基づく潜在変数の条件付き確率の計算
(4)
M-step: 尤度の期待値を最大化するためのパラメータの計算
(5)
(6)
(7)
細かい導出は下の方に。
各確率はランダムな値で初期化した。



桁落ちで math domain error が。要対策。

(4)~(7)の導出は以下のとおり。

(4)は単純にベイズによる変形で求められる。P(z),P(w|z),P(d|z)が入力でP(z|d,w)が出力。文書dと語wがどのクラスzに属しているか。

(5)~(7)はQ関数(対数尤度関数の期待値)を最大化するパラメータを求める。P(z|d,w)とn(d,w)が入力でP(z),P(w|z),P(d|z)が出力。
対数尤度関数(2)でlogP(d,w)は未知だが、E-stepで求めたP(z|d,w)を用いてlogP(d,w)のΣP(z|d,w)logP(d,w)と期待値を求める(ベイズの定理を用いればlogP(d,w)はzの関数)(これがEMアルゴリズムのキモ)。Q関数は、
(8)
となる。ここで
(9)
(10)
(11)
という制約のもとにラグランジュ関数は
(12)
となる。たとえばP(d|z)で偏微分して0になるようにパラメータを定めれば
(13)
でもって、両辺にP(d|z)かけて
(14)
そんで両辺dについて和を求めれば
(15)
で(11)の条件から
(16)
とかなってβzが求まって(14)に代入すれば
(17)
で(5)になってめでたしめでたし。
P(z),P(w|z)も同じように。


Thomas Hofmann, Probabilistic Latent Semantic Indexing, Proceedings of the Twenty-Second Annual International SIGIR Conference on Research and Development in Information Retrieval (SIGIR-99), 1999.

No comments:

Post a Comment