ベイジアン学習とは
統計の分野では、期待値最大化 (EM) アルゴリズムは、(局所的な) 最大尤度または事後確率の最大値を発見するための反復的なアプローチです。 (MAP) 統計モデルのパラメーターの推定。モデルは観測されていない潜在変数に依存します。 EM アルゴリズムは、最尤法または最大事後推定 (MAP) 推定としても知られています。 EM 反復の期待値 (E) ステップは、パラメーターの現在の推定値を使用して評価された対数尤度の期待値の関数を作成します。EM 反復の最大化 (M) ステップは、期待値を最大化することを目的としてパラメーターを計算します。 期待ステップで見つかった対数尤度。 これら 2 つのステップは、反復を通じて交互に実行されます。 これらのパラメータ推定値は、後続の E フェーズで利用され、潜在変数の分布を決定する目的で使用されます。
どのようなメリットがあるか
(I) 次のトピックに関する洞察と検証:
第 1 章: 期待値?最大化アルゴリズム
第 2 章: 尤度関数
第 3 章: 最大値 尤度推定
第 4 章: ロジスティック回帰
第 5 章: 指数族
第 6 章: フィッシャー情報
第 7 章: 一般化線形 モデル
第 8 章: 混合モデル
第 9 章: 変分ベイジアン法
第 10 章: EM アルゴリズムと GMM モデル
(II ) ベイズ学習に関する一般のよくある質問に答えます。
(III) 多くの分野でベイズ学習を使用する実際の例。
(IV) 17 の付録で簡単に説明します。 各業界の 266 の新興テクノロジーを取り上げ、ベイジアン学習テクノロジーを 360 度完全に理解できます。
本書の対象者
専門家、学部生、大学院生 学生、愛好家、趣味人、そしてあらゆる種類のベイズ学習について基本的な知識や情報を超えたいと考えている人。
統計の分野では、期待値最大化 (EM) アルゴリズムは、(局所的な) 最大尤度または事後確率の最大値を発見するための反復的なアプローチです。 (MAP) 統計モデルのパラメーターの推定。モデルは観測されていない潜在変数に依存します。 EM アルゴリズムは、最尤法または最大事後推定 (MAP) 推定としても知られています。 EM 反復の期待値 (E) ステップは、パラメーターの現在の推定値を使用して評価された対数尤度の期待値の関数を作成します。EM 反復の最大化 (M) ステップは、期待値を最大化することを目的としてパラメーターを計算します。 期待ステップで見つかった対数尤度。 これら 2 つのステップは、反復を通じて交互に実行されます。 これらのパラメータ推定値は、後続の E フェーズで利用され、潜在変数の分布を決定する目的で使用されます。
どのようなメリットがあるか
(I) 次のトピックに関する洞察と検証:
第 1 章: 期待値?最大化アルゴリズム
第 2 章: 尤度関数
第 3 章: 最大値 尤度推定
第 4 章: ロジスティック回帰
第 5 章: 指数族
第 6 章: フィッシャー情報
第 7 章: 一般化線形 モデル
第 8 章: 混合モデル
第 9 章: 変分ベイジアン法
第 10 章: EM アルゴリズムと GMM モデル
(II ) ベイズ学習に関する一般のよくある質問に答えます。
(III) 多くの分野でベイズ学習を使用する実際の例。
(IV) 17 の付録で簡単に説明します。 各業界の 266 の新興テクノロジーを取り上げ、ベイジアン学習テクノロジーを 360 度完全に理解できます。
本書の対象者
専門家、学部生、大学院生 学生、愛好家、趣味人、そしてあらゆる種類のベイズ学習について基本的な知識や情報を超えたいと考えている人。