機械学習および データマイニング |
---|
|
問題
- 分類
- クラスタリング
- 回帰
- 異常検知
- 相関ルール ( 英語版 )
- 強化学習
- 構造化予測 ( 英語版 )
- 特徴量設計 ( 英語版 )
- 表現学習 ( 英語版 )
- オンライン学習 ( 英語版 )
- 半教師あり学習 ( 英語版 )
- 教師なし学習
- ランキング学習 ( 英語版 )
- 文法獲得 ( 英語版 )
|
- 決定木 ( 英語版 )
- アンサンブル ( 英語版 )
(バギング、ブースティング、 ランダムフォレスト)
- k-NN
- 線形回帰
- 単純ベイズ
- ニューラルネットワーク
- ロジスティック回帰
- パーセプトロン
- 関連ベクトルマシン (RVM) ( 英語版 )
- サポートベクトルマシン (SVM)
|
クラスタリング
- BIRCH ( 英語版 )
- 階層的 ( 英語版 )
- k平均法
- 期待値最大化法 (EM)
DBSCAN
- OPTICS ( 英語版 )
- 平均値シフト ( 英語版 )
|
次元削減 ( 英語版 )
- 因子分析
- CCA
- ICA
- LDA ( 英語版 )
- NMF ( 英語版 )
- PCA
- t-SNE
|
構造化予測 ( 英語版 )
- グラフィカルモデル
(ベイジアンネットワーク、 CRF、HMM)
|
|
ニューラルネットワーク
- オートエンコーダ
- ディープラーニング
- DeepDream ( 英語版 )
- 多層パーセプトロン
- RNN
- 制約ボルツマンマシン ( 英語版 )
- SOM
- 畳み込みニューラルネットワーク
|
強化学習
- Q学習
- SARSA ( 英語版 )
- 時間差分 (TD) ( 英語版 )
|
理論
- バイアスと分散のトレードオフ ( 英語版 )
- 計算論的学習理論 ( 英語版 )
- 経験損失最小化 ( 英語版 )
- オッカム学習 ( 英語版 )
- PAC学習 ( 英語版 )
- 統計的学習 ( 英語版 )
- VC理論 ( 英語版 )
|
議論の場
- NIPS ( 英語版 )
- ICML ( 英語版 )
- ML ( 英語版 )
- JMLR ( 英語版 )
|
|
教師あり学習(きょうしありがくしゅう, 英: Supervised learning)とは、機械学習の手法の一つである。事前に与えられたデータをいわば「例題(=先生からの助言)」とみなして、それをガイドに学習(=データへの何らかのフィッティング)を行うところからこの名がある。
典型的なものとして分類問題と回帰問題がある。たとえば最も簡単な分類問題である 二値分類 問題では、訓練データ(例題)が、典型的にはベクトルとラベルの組として、
のように与えられる。ここで、
は0または1の2値を取るラベルで、
は
番目のデータの座標を表す。そして「学習」とは、これらのデータに何らかの基準でもっとも合う関数関係
を求めることである。回帰問題でもほぼ同様で、違いは
が離散値の代わりに実数値を取るということである。
このような関数関係が求められれば、未知のデータ
にそれを適用して、予言
を与えることができる。分類問題であればこれを分類器、回帰問題であればこれを回帰曲線などと称する。