Dieses Buch widmet sich der statistischen Theorie des Lernens und der Verallgemeinerung - das heißt, dem Problem der Auswahl der gewünschten Funktion auf der Basis empirischen Datenmaterials. Anwendung findet die Theorie auf vielen verschiedenen Gebieten - in neuronalen Netzwerken, Fuzzy-Logic-Systemen und künstlicher Intelligenz - beispielsweise in der Psychologie und der Informationswissenschaft.
Dieses Buch widmet sich der statistischen Theorie des Lernens und der Verallgemeinerung - das heißt, dem Problem der Auswahl der gewünschten Funktion auf der Basis empirischen Datenmaterials. Anwendung findet die Theorie auf vielen verschiedenen Gebieten - in neuronalen Netzwerken, Fuzzy-Logic-Systemen und künstlicher Intelligenz - beispielsweise in der Psychologie und der Informationswissenschaft.
Produktdetails
Produktdetails
Adaptive and Cognitive Dynamic Systems: Signal Processing, Learning, Communications and Control
Vladimir Naumovich Vapnik is one of the main developers of the Vapnik-Chervonenkis theory of statistical learning, and the co-inventor of the support vector machine method, and support vector clustering algorithm.
Inhaltsangabe
Partial table of contents: THEORY OF LEARNING AND GENERALIZATION. Two Approaches to the Learning Problem. Estimation of the Probability Measure and Problem of Learning. Conditions for Consistency of Empirical Risk Minimization Principle. The Structural Risk Minimization Principle. Stochastic Ill-Posed Problems. SUPPORT VECTOR ESTIMATION OF FUNCTIONS. Perceptrons and Their Generalizations. SV Machines for Function Approximations, Regression Estimation, and Signal Processing. STATISTICAL FOUNDATION OF LEARNING THEORY. Necessary and Sufficient Conditions for Uniform Convergence of Frequencies to Their Probabilities. Necessary and Sufficient Conditions for Uniform One-Sided Convergence of Means to Their Expectations. Comments and Bibliographical Remarks. References. Index.
Partial table of contents: THEORY OF LEARNING AND GENERALIZATION. Two Approaches to the Learning Problem. Estimation of the Probability Measure and Problem of Learning. Conditions for Consistency of Empirical Risk Minimization Principle. The Structural Risk Minimization Principle. Stochastic Ill-Posed Problems. SUPPORT VECTOR ESTIMATION OF FUNCTIONS. Perceptrons and Their Generalizations. SV Machines for Function Approximations, Regression Estimation, and Signal Processing. STATISTICAL FOUNDATION OF LEARNING THEORY. Necessary and Sufficient Conditions for Uniform Convergence of Frequencies to Their Probabilities. Necessary and Sufficient Conditions for Uniform One-Sided Convergence of Means to Their Expectations. Comments and Bibliographical Remarks. References. Index.
Es gelten unsere Allgemeinen Geschäftsbedingungen: www.buecher.de/agb
Impressum
www.buecher.de ist ein Shop der buecher.de GmbH & Co. KG Bürgermeister-Wegele-Str. 12, 86167 Augsburg Amtsgericht Augsburg HRA 13309