Introduction to Semi-Supervised Learning #4
- 作者: Xiaojin Zhu,Andrew B. Goldberg
- 出版社/メーカー: Morgan and Claypool Publishers
- 発売日: 2009/09/15
- メディア: ペーパーバック
- 購入: 1人 クリック: 52回
- この商品を含むブログ (9件) を見る
自分用のメモ書きです。
4. Co-Training
4.1 Two views of an instance
- 固有名詞分類(named entity classification)における事例の素性の二つの見方
- 固有名詞そのものの単語列
- 固有名詞の周辺にある単語列
4.2 Co-Training
- 素性空間を二つに分割:素性空間1,2
- 素性空間1でラベル付き事例を学習:分類器1
- 素性空間2でラベル付き事例を学習:分類器2
- 分類器1でラベルなし事例を分類し,信頼度の高いk個を分類器2の学習データに追加
- 分類器2でラベルなし事例を分類し,信頼度の高いk個を分類器1の学習データに追加
- 素性空間1でラベル付き事例+追加事例を学習:分類器1
- 素性空間2でラベル付き事例+追加事例を学習:分類器2
- 分類器1でラベルなし事例を分類し,信頼度の高いk個を分類器2の学習データに追加
- 分類器2でラベルなし事例を分類し,信頼度の高いk個を分類器1の学習データに追加
- ラベルなしデータがなくなるまで繰り返す
- 二つの分類器が互いに教えあう。
- Co-trainingはラッパーメソッドなので,分類結果にスコアを付与する分類器であれば使える。
4.3 The assumptions of co-training
- 二つの見方のそれぞれでも十分良い分類器がつくれること。
- クラスラベルに対して二つの見方が条件付き独立であること。
- Co-EM
- Co-TrainingのEMアルゴリズム版
- それぞれの見方の確率モデルを更新していく
4.4 Multiview Learning
- 損失関数(loss function): c(x, y, f(x))
- 事例x, ラベルy, 分類器による予測f(x)
- 回帰では二乗誤差: (y-f(x))^2
- 分類では0/1 loss: 1 if y ≠ f(x), and 0 otherwise
- 経験損失(empirical risk)
- 訓練事例に対する損失関数の平均
- 経験損失最小化(empirical risk minimization, ERM)
- 訓練事例の間違いを最小化する。
- オーバーフィッティングしてしまうことがある。
- 正則化項(regularizer)の導入
- fの関数
- fがスムースであるほど0に近づく
- fがジグザグしていると値が大きくなる
- Multiview Learning