3,99 €
inkl. MwSt.
Sofort per Download lieferbar
  • Format: ePub

K 最近傍アルゴリズムとは
k-NN としても知られる k 近傍手法は、最初に作成されたノンパラメトリック教師あり学習手法です。 1951年、統計学の分野でエブリン・フィックスとジョセフ・ホッジスによって発表。 トーマス・カバーは後に元のコンセプトを拡張しました。 回帰と分類の両方に応用できます。 どちらのシナリオでも、入力はデータ コレクション内の互いに最も近い k 個のトレーニング インスタンスで構成されます。 k-NN が分類または回帰に使用されたかどうかに関係なく、結果は次のようになります。k 最近傍分類の出力はクラス メンバーシップです。 複数のアイテムの近傍がオブジェクトをどのように分類するかについて投票し、オブジェクトはその k 個の最近傍の中で最も人気のあるクラスに割り当てられます (k は正の数で、多くの場合非常に小さいです)。 k が 1 に等しい場合、オブジェクトはその単一の最近傍のカテゴリに属するものとして単純に分類されます。k-NN 回帰の結果は、オブジェクトに関連付けられた特定のプロパティの値です。 この値は、現在の位置に最も近い k 個の近傍の値の平均です。 k が 1 に等しい場合、出力の値は 1 つの最近傍の値から単純に取得されます。
メリット
(I) 次のトピックに関する洞察と検証:
第 1 章: K
…mehr

Produktbeschreibung
K 最近傍アルゴリズムとは

k-NN としても知られる k 近傍手法は、最初に作成されたノンパラメトリック教師あり学習手法です。 1951年、統計学の分野でエブリン・フィックスとジョセフ・ホッジスによって発表。 トーマス・カバーは後に元のコンセプトを拡張しました。 回帰と分類の両方に応用できます。 どちらのシナリオでも、入力はデータ コレクション内の互いに最も近い k 個のトレーニング インスタンスで構成されます。 k-NN が分類または回帰に使用されたかどうかに関係なく、結果は次のようになります。k 最近傍分類の出力はクラス メンバーシップです。 複数のアイテムの近傍がオブジェクトをどのように分類するかについて投票し、オブジェクトはその k 個の最近傍の中で最も人気のあるクラスに割り当てられます (k は正の数で、多くの場合非常に小さいです)。 k が 1 に等しい場合、オブジェクトはその単一の最近傍のカテゴリに属するものとして単純に分類されます。k-NN 回帰の結果は、オブジェクトに関連付けられた特定のプロパティの値です。 この値は、現在の位置に最も近い k 個の近傍の値の平均です。 k が 1 に等しい場合、出力の値は 1 つの最近傍の値から単純に取得されます。

メリット

(I) 次のトピックに関する洞察と検証:

第 1 章: K 最近傍アルゴリズム

第 2 章: 教師あり学習

第 3 章: パターン 認識

第 4 章: 次元の呪い

第 5 章: 最近傍探索

第 6 章: クラスター分析

第 7 章: カーネル 方法

第 8 章: 大マージン最近傍法

第 9 章: 構造化 kNN

第 10 章: 弱い監視

(II) 応答 k 最近傍アルゴリズムに関する公開トップの質問。

(III) 多くの分野での k 最近傍アルゴリズムの使用例の実例。

(IV) 説明する 17 の付録。 簡単に説明すると、k 最近傍アルゴリズムのテクノロジを 360 度完全に理解できるよう、各業界の 266 の新興テクノロジが紹介されています。

本書の対象者

プロフェッショナル 大学生、大学院生、愛好家、愛好家、およびあらゆる種類の k 最近傍アルゴリズムに関する基本的な知識や情報を超えたいと考えている人。