IT用語集

ランダムフォレストとは? 10分でわかりやすく解説

水色の背景に六角形が2つあるイラスト 水色の背景に六角形が2つあるイラスト
アイキャッチ
目次

ランダムフォレストは、機械学習で広く使われている分類・回帰の手法の一つです。単体では不安定になりやすい決定木を「たくさん作って多数決(平均)」でまとめることで、精度と安定性を両立しやすい点が特徴です。本記事では、ランダムフォレストの定義、仕組み、強みと弱み、活用場面、導入時の注意点までを整理し、読者が「自分の課題に適用すべきか」を判断できる状態を目指します。

ランダムフォレストとは?わかりやすく解説

ランダムフォレストは、複数の決定木(Decision Tree)を組み合わせて予測する、代表的なアンサンブル学習(ensemble learning)の手法です。決定木は直感的で扱いやすい一方、学習データに引っ張られて過剰適合(過学習)しやすいという性質があります。ランダムフォレストはこの弱点を、「学習用データや特徴量の見方を少しずつ変えた決定木を多数作り、予測を統合する」ことで緩和します。

ビジネスでデータ活用を進める場面では、「少ない調整で一定以上の精度が出やすい」「外れ値やノイズが混じっていても破綻しにくい」といった理由から、まず試す候補として選ばれることが多いモデルです。ただし、万能ではありません。目的(分類か回帰か)、評価指標(精度・再現率・AUCなど)、運用要件(説明責任、推論時間、モデル更新頻度)によっては別手法が適することもあります。

ランダムフォレストの概要と特徴

ランダムフォレストは、複数の決定木を組み合わせて予測を行う機械学習アルゴリズムです。分類(例:不正か否か、解約するか否か)にも回帰(例:需要量、売上、故障確率)にも使えます。

一般に挙げられる主な特徴は次の通りです。

  1. 予測精度が安定しやすい:単体の決定木より、平均化・多数決によりブレが小さくなる傾向があります。
  2. 過学習に比較的強い:学習データの見方を変えた複数木で平均化するため、特定の木の偏りが緩和されます。
  3. 特徴量重要度を算出できる:どの特徴が予測に効いていそうかの手がかりを得られます。
  4. 前処理の負担が比較的小さい:線形モデルほど強い仮定(正規性など)を置かずに扱えることが多いです。

一方で「欠損値や異常値に強い」といった表現は、ライブラリ実装や欠損の扱い方によって実態が変わります。欠損をそのまま渡せる実装もあれば、補完が必要な実装もあります。後述するように、欠損・異常値は“強い/弱い”の一言で片付けず、前処理方針と評価で確認するのが現実的です。

アンサンブル学習の一種としてのランダムフォレスト

ランダムフォレストは、アンサンブル学習の一種です。アンサンブル学習とは、複数のモデルの予測を統合して性能を高める考え方で、大きく分けると次のような枠組みがあります。

手法説明
バギング学習データをブートストラップサンプリング(重複あり抽出)し、複数モデルを独立に学習して平均化・多数決する
ブースティング弱い学習器を順に学習し、誤りやすいデータに重みを置きながら改善していく
スタッキング複数モデルの予測を特徴量として別モデルに入力し、統合の仕方自体を学習する

ランダムフォレストは基本的にバギング系に分類されます。決定木はデータのわずかな違いで形が変わりやすいため、バギングによる平均化の効果が出やすい、という相性の良さが背景にあります。

決定木をベースにした分類・回帰モデル

決定木は、特徴量(説明変数)を条件分岐として使いながらデータを分割し、葉(最終ノード)に到達したときにクラス(分類)や数値(回帰)を出すモデルです。直感的ですが、深く育てるほど訓練データに合わせ込みやすく、過学習の原因にもなります。

ランダムフォレストは、「データの抽出」と「分割に使う特徴量の選び方」をランダム化して、多様な決定木を多数作ることで、単体木の偏りを薄めます。ここが「フォレスト(森)」の本質です。

ランダムフォレストのアルゴリズムと仕組み

ランダムフォレストの要点は、「同じデータからでも木が多様になるように、二段階でランダム性を入れる」ことです。具体的には、①学習データの作り方(バギング)と、②分割時に候補にする特徴量の絞り方(ランダム特徴量選択)の2つが柱になります。

ランダムフォレストにおけるバギングの利用

バギング(Bootstrap Aggregating)では、元の学習データから重複を許してランダムにサンプリングし、複数の学習用サブセット(ブートストラップ標本)を作ります。各サブセットで決定木を独立に学習するため、木ごとに見ているデータが微妙に異なり、予測のばらつきを平均化しやすくなります。

なお、ブートストラップで抽出されなかったデータ(各木にとっての「未使用データ」)は、OOB(Out-of-Bag)と呼ばれ、簡易的な検証(OOB誤差)に使われることがあります。交差検証ほど厳密ではないものの、モデルの当たりを付ける材料として有用です。

ランダムサンプリングとランダム特徴量選択

ランダムフォレストのもう一つの要点が、分割時に使う特徴量候補をランダムに絞ることです。もし常に全特徴量から最良の分割を選ぶと、強い特徴量が毎回選ばれ、木同士が似通ってしまいます。そこで各ノードで、全特徴量のうちランダムに選んだ一部(例:分類なら√p、回帰ならp/3などの経験則がよく使われます)から最良の分割を探します。

この工夫により、似た木が量産されにくくなり、結果としてアンサンブル全体の汎化性能が上がりやすくなります。逆に言えば、特徴量が極端に少ない場合や、特徴量の設計が不十分な場合には、この「ランダム化」がメリットになりにくいケースもあります。

決定木の構築とアンサンブル

各決定木は、選ばれた学習サブセットを再帰的に分割していきます。分類なら「不純度(Gini不純度、エントロピーなど)」を減らす方向、回帰なら「二乗誤差など」を減らす方向に分割が決まるのが一般的です。

そして推論(予測)時には、森を構成する各決定木がそれぞれ予測を出し、最終的に統合します。統合方法はシンプルで、分類は多数決、回帰は平均(または中央値など)を使うのが基本です。

多数決による最終的な予測の生成

分類タスクでは、各決定木が出したクラスのうち最も多いものを最終予測とします。多数決には、単体木が偶然外したケースを相殺しやすい利点があります。

ただし、実務では「クラスラベル」だけでなく、確率(例:不正確率)を使って意思決定することが多いはずです。その場合は、木が出す確率(または投票割合)を平均して確率として扱い、業務コストに応じた閾値を設定する、といった運用設計が重要になります。精度(Accuracy)だけでなく、再現率・適合率、ROC-AUC、PR-AUC、誤検知コストなどで評価軸を揃えるのが現実的です。

ランダムフォレストの利点と欠点

ランダムフォレストは「まず試しやすい」一方、適用の前提を誤ると期待外れになりやすいモデルでもあります。この章では、利点だけでなく、運用上の落とし穴になりやすい欠点も含めて整理します。

高精度な予測が可能

ランダムフォレストは、複数の決定木を組み合わせることで単一の決定木より高い精度を狙えることが多いモデルです。各木が異なるデータ・特徴量の見方で学習するため、誤差が平均化されやすく、安定した性能を得やすい傾向があります。

一方で「常に最強」というわけではありません。高次元で疎なデータや、特徴量同士の相互作用が複雑で、かつ大規模データを扱う場合には、勾配ブースティング系(XGBoost、LightGBMなど)が優位になることもあります。ランダムフォレストは、比較対象のベースラインとして価値が高い、という位置づけが実務に近いでしょう。

過学習に対するロバスト(頑健)性

ランダムフォレストは、過学習に対して比較的頑健です。単体の決定木が「たまたまの分割」で訓練データに合わせ込みやすいのに対し、森では多数の木の平均化で偏りが薄まります。

ただし、過学習が「起きにくい」だけであって、起きないわけではありません。木の深さを無制限にし、木の本数も極端に増やし、特徴量にリーク(未来情報の混入)があると、当然ながら評価が崩れます。ランダムフォレストを使う場合でも、データリークの点検検証設計(時系列分割、グループ分割など)は欠かせません。

特徴量の重要度を評価できる

ランダムフォレストは特徴量重要度を出せます。代表的には、分割により不純度がどれだけ改善したかを集計する方法(不純度ベース)が知られています。これにより、どの特徴が効いていそうかの当たりを付けられます。

ただし、重要度の解釈には注意点があります。例えば、カテゴリ数の多い特徴量や連続値の特徴量が相対的に有利になりやすいなど、算出方法によってバイアスが出ることがあります。より信頼できる比較をしたい場合は、特徴量をシャッフルして性能低下を見るPermutation Importanceなど、別の見方も併用すると安全です。

ハイパーパラメータの調整が比較的行いやすい

ランダムフォレストは、深層学習や一部のブースティング手法と比べると、調整が比較的シンプルです。代表的な調整対象は以下です。

  • 木の本数(n_estimators):増やすほど安定しやすいが、学習・推論が重くなります。
  • 最大深さ(max_depth):深いほど表現力は上がるが、過学習や計算量の要因になります。
  • 分割に使う特徴量数(max_features):木の多様性と精度のバランスに影響します。
  • 最小サンプル数(min_samples_split / min_samples_leaf):過剰な分割を抑える安全弁になります。

ただし「適切な範囲内なら大きく性能が損なわれない」と言い切ってしまうと誤解が生まれます。データ規模やノイズ量、クラス不均衡の度合いによっては、パラメータ差が性能や再現率に直結することがあります。“調整しやすい”は“調整しなくてよい”ではない、という整理が現実的です。

欠点と注意点

ランダムフォレストの代表的な欠点も押さえておくと、適用判断がしやすくなります。

  • 解釈性が単体の決定木より落ちる:森全体の意思決定を1本のルールで説明するのは難しくなります。
  • 学習・推論が重くなる場合がある:木の本数や深さ次第で計算量が増え、リアルタイム推論に不向きになることがあります。
  • カテゴリ変数の扱いは実装依存:ワンホット化が必要だったり、カテゴリ数が多いと次元が膨らみやすかったりします。
  • 確率の校正が必要になることがある:出力確率が意思決定に直結する場合は、校正(Platt scaling / isotonic など)を検討します。

また、本文中にあった「数値データに強いがカテゴリカルが多いと不向き」という言い回しは、ケースによって結論が変わります。ワンホット化や適切なエンコーディングができれば十分に機能する一方で、高カーディナリティ(種類が極端に多い)では特徴量数が爆発し、別手法が有利になることがあります。重要なのは「データ型」より、特徴量設計と評価設計で現実の性能を確認することです。

ランダムフォレストの適用分野と活用例

ランダムフォレストは、ノイズを含む現実データでも一定の性能を出しやすく、分類・回帰の両方に使えるため、幅広い領域で活用されています。ただし、ここで挙げる例は「できる」という一般論に留めず、どんな判断に結び付くのかまでイメージできる形で整理します。

金融リスク予測への応用

金融領域では、与信審査、不正検知、延滞予測などで機械学習が使われます。ランダムフォレストは、顧客属性や利用履歴、取引パターンなどの特徴量から、リスクの高低を分類したり、損失見込みを回帰したりできます。

ただし金融では、精度だけでなく説明責任公平性、誤検知時の顧客影響が重要です。そのため、重要度や部分依存(PDP)などを併用して「なぜその判断になったか」の説明を補強したり、閾値を業務側のコスト構造に合わせて設計したりする運用が現実的です。

マーケティング分析でのスコアリングと施策最適化

本文では「セグメンテーション」として記載がありましたが、ランダムフォレストは基本的に教師あり学習であり、グルーピング自体(クラスタリング)の目的には別手法が使われるのが一般的です。マーケティングでの現実的な使い方としては、次のような「スコアリング」が中心になります。

  • 購入確率(CV確率)の予測:見込み顧客に優先度を付ける
  • 解約確率(Churn)の予測:フォロー対象を絞り込む
  • 反応確率の予測:キャンペーン配信の最適化に使う

そのうえで、スコアに応じて顧客を複数の層に分ける(運用上のセグメントを作る)ことはよくあります。モデルの役割は「分ける」ではなく、意思決定に使える確率や順位を出す、と整理した方が誤解が減ります。

製造業における品質管理と予兆保全

製造では、センサーデータや工程データを使って「不良の発生」「故障の予兆」「品質指標の逸脱」を予測するニーズがあります。ランダムフォレストは、非線形な関係や特徴量の相互作用をある程度拾えるため、ルールベースでは取りこぼしやすいパターン検出に向きます。

ただし、現場導入では「誤報をどこまで許容するか」「検知した後に何をするか」が重要です。予測精度が高くても、アラートが多すぎれば運用が回りません。評価段階で、再現率と適合率のバランス、アラート件数の上限、対応工数まで含めて設計する必要があります。

医療分野での診断支援

医療では、症状・検査値・既往歴などから疾患リスクを推定する、重症度の予測を行う、といった補助用途で機械学習が使われます。ランダムフォレストも候補になりますが、医療は特に偽陰性(見逃し)と偽陽性(誤検知)のコストが非対称になりやすい領域です。

そのため、単に「精度が高い」では不十分で、何を優先するのか(見逃しを減らすのか、過検査を減らすのか)を明確にし、閾値や評価指標を合わせることが重要です。また、データの偏りや施設差、時期差(ドリフト)も起きやすいため、継続的な性能監視と再学習の設計が前提になります。

まとめ

ランダムフォレストは、複数の決定木を組み合わせるアンサンブル学習(主にバギング系)の代表手法で、分類・回帰の両方に適用できます。ブートストラップサンプリングで学習データを変え、各分割で特徴量候補をランダムに絞ることで木同士の多様性を確保し、多数決(分類)や平均(回帰)で予測を統合します。その結果、単体の決定木より安定して高い精度を出しやすく、ベースラインとして試しやすいモデルになっています。

一方で、森全体の説明は単体木ほど直感的ではなく、木の本数・深さによっては計算負荷も増えます。また、欠損値やカテゴリ変数の扱いは実装・前処理方針に依存するため、「強い/弱い」で断定せず、データ特性と評価設計で確認する姿勢が重要です。金融、マーケティング、製造、医療など幅広い分野で活用できますが、精度だけでなく業務コスト、説明責任、運用設計まで含めて適用判断を行うことが、失敗を防ぐポイントになります。

参考文献

(執筆時点で参照した書籍・論文・公式ドキュメント等を、運用ルールに沿って追記してください)

Q.ランダムフォレストとは何ですか?

複数の決定木の予測を統合して、分類や回帰を行うアンサンブル学習手法です。

Q.ランダムフォレストが過学習しにくいのはなぜですか?

学習データと特徴量の選び方をランダム化した複数の木で平均化するため、単体木の偏りが薄まるからです。

Q.バギングとは何ですか?

学習データを重複ありで抽出して複数モデルを学習し、予測を平均化・多数決で統合する手法です。

Q.分類と回帰で予測の統合方法は変わりますか?

分類は多数決、回帰は平均を取るのが一般的です。

Q.ランダム特徴量選択は何のために行いますか?

木同士が似すぎないようにして多様性を高め、汎化性能を上げやすくするためです。

Q.特徴量重要度は何に役立ちますか?

どの特徴が予測に効いているかの手がかりになり、特徴量改善や説明補強に使えます。

Q.ランダムフォレストの代表的な欠点は何ですか?

単体の決定木より解釈が難しく、木の本数や深さ次第で計算負荷が増える点です。

Q.カテゴリ変数が多い場合は使えませんか?

使えますが、エンコーディング次第で特徴量数が増えるため、評価しながら手法を選ぶ必要があります。

Q.主要なハイパーパラメータは何ですか?

木の本数、最大深さ、分割に使う特徴量数、葉に必要な最小サンプル数などです。

Q.導入時に最初に確認すべきことは何ですか?

目的と評価指標、データリークの有無、運用上の閾値設計ができるかどうかです。

記事を書いた人

ソリトンシステムズ・マーケティングチーム