アンサンブル学習【Bagging Boosting】

Python, ML07 January 2021

アンサンブル学習とは

弱いモデルを組み合わせて性能をあげ、強いモデルを作ろうとする考え方。手法。 かなり広い概念としての言葉になっている

Bagging(バギング)

  • 並列処理でのアンサンブル
  • 複数のモデルの多数決を取って、最も投票のあった解を採用する
  • 簡単かつ並列にできるメリットがある

Boosting(ブースティング)

  • 直列処理でのアンサンブル
  • モデルの苦手な部分を次のモデルで補って精度を上げていく
  • 時間はかかるが精度は上がることが多い

教師あり事前学習

  • ニューラルネットワークの各層ごとに学習する
  • 次の層を学習するときはその前の層は固定する
  • 最後の層まで学習したら、最後に全ての層で学習する
  • ファインチューニングと呼ぶ

tags: Python, ML