AIファイナンス応用研究所

Japanese | English

<< 前のページに戻る

AI・機械学習

機械学習(Machine Learning)の主なアプローチ

アプローチ 概要と長所
線形分類器 線形分離分析
(LDA:Linear Discriminant Analysis)
20世紀前半に考案された方法。
クラス内外の分散の関係から線形な境界を探し出す。
ロジスティック回帰
(Logistic Regression)
二値分類問題で非常によく使われる。
リッジ、ロッソなどの正則化項を加えられることが多い。
カーネル法 サポートベクターマシン
(SVM:Support Vector Machine)
カーネル関数の選択によって性質が大きく変わる。
よく利用されるRBFカーネル曲線的な二値分類問題が得意。
さまざまな分野の分類・予測に利用される。
ツリー構造 CART決定木
(Classification And Regression Trees)
対象のさまざまな観点による分類を(樹木の枝分かれのように)繰り返す方法。
AIの古典的方法だがさまざまな工夫が施されている。
ランダムフォレスト
(Random Forest)
決定木をたくさん集めたアンサンブル学習。
さまざまなメリットがある。(過学習しにくい、データの正規化の必要がない、混合データに対応、少ない学習データに対応、変数重要度を把握できる)
多値分類も得意。
勾配ブースティング
(Gradient Boosting)
ランダムフォレストに似たアンサンブル学習。
学習データにより強くフィットさせる方法がとられていて分類能力は向上。
ディープラーニング 畳み込みニューラルネットワーク
(CNN:Convolutional Neural Network)
画像認識などの定番として利用されるディープラーニング。
さまざまな用途に利用される。<br> ResNetなどの発展形がある。
回帰型ニューラルネットワーク
(RNN:Recurrent neural network)
自然言語解析などでよく使われる。
長・短期記憶(LSTM)やゲート付き(GRU)など、いくつかの発展形がある。
その他の教師あり型 k-近傍法
(k-NN: k-Nearest Neighbor)
k個の近傍を調べることによって分類する方法。
シンプルな割に性能がよいアプローチ。
学習の必要がない。
クラスタリング k-平均法
(k-Means Clustering)
与えられたデータをk個の領域に分類するシンプルな分類方法。
k個の中心値(center)を探し出し、どの中心に一番近いかによって分類する。
階層的クラスタリング
(Hierarchical Clustering)
階層的なクラスタをつくる。
「距離」の定義にいくつかの方法がある。

表示モード切り替え