Statistical Learning Theory /

Contenido: El problema de la inducción y la inferencia estadística, I) Teoría de aprendizaje y generalización: 1) Dos perspectivas del problema del aprendizaje, 2) Apreciación de la medida de probabilidad y el problema del aprendizaje, 3) Condiciones para la consistencia del principio empírico de mi...

Description complète

Enregistré dans:
Détails bibliographiques
Auteur principal: Vapnik, Vladimir N. (autor)
Format: Livre
Langue:anglais
Publié: Danvers, EUA : Wiley, 1998, c1998
Collection:(Inter Science Wiley)
Sujets:
Tags: Ajouter un tag
Pas de tags, Soyez le premier à ajouter un tag!

MARC

LEADER 00000nam^a2200000^a^4500
001 000371524
005 20250521000000.0
009 20260310115935.073
020 |a 978-0-471-03003-4 
037 |a Acervo ITESO - Biblioteca 
041 |a ING 
082 |a 006. 331  |b VAP 
100 |a Vapnik, Vladimir N.  |e (autor) 
245 1 0 |a Statistical Learning Theory /  |c V.N. Vapnik. 
264 4 |a Danvers, EUA :  |b Wiley,  |c 1998, c1998 
300 |a XXIV, 736 p. 
336 |a texto  |b txt  |2 rdacontenido 
337 |a sin mediación  |b n  |2 rdamedio 
338 |a volumen  |b nc  |2 rdasoporte 
440 1 |a (Inter Science Wiley) 
520 |a Contenido: El problema de la inducción y la inferencia estadística, I) Teoría de aprendizaje y generalización: 1) Dos perspectivas del problema del aprendizaje, 2) Apreciación de la medida de probabilidad y el problema del aprendizaje, 3) Condiciones para la consistencia del principio empírico de minimización de riesgo, 4) Límites del riesgo por indicador de pérdida de funciones, 5) Límites del riesgo por valoración real de pérdida de funciones, 6) El principio de minimización estructural de riesgo, 7) Problemas de III Propuesta Estocástica, 8) Evaluación de los valores de función en puntos específicos; II) Valoración de funciones del vector de apoyo: 9) Perceptores y sus generalizaciones, 10) El método de vector de apoyo para la valoración de las funciones del indicador, 11) El método de vector de apoyo para la evaluación de funciones de valoración real, 12) Máquinas vector de apoyo para el reconocimiento de patrones, 13) Máquinas vector de apoyo para las funciones de aproximación, regresión, valoración y proceso de señal; III) Fundamentación estadística de la teoría del aprendizaje: 14) Condiciones necesarias y suficientes para la convergencia uniforme de frecuencias a sus probabilidades, 15) Condiciones necesarias y suficientes para la convergencia uniforme de medios a sus previsiones, 16) Condiciones necesarias y suficientes para la convergencia uniforme unilateral de medios a sus previsiones. 
521 |a Peticiones 2016 Juan Diego Sánchez Torres 
649 |a XX 
650 |a Aprendizaje Automático (Inteligencia Artificial) -  |x Tema Principal 
650 |a Redes Neurales 
650 |a Control Adaptativo 
650 |a Autómatas Matemáticos -  |x Teoría -  |x Tema Principal 
650 |a Modelos Matemáticos 
650 |a Lógica Matemática 
650 |a Matemáticas 
910 |a Fondo General 
920 |a Impresos - Libros 
930 |a Colección General 
905 |a 101 
901 |a 0500265916  |b IT1  |c ACC  |i C150633  |u 20250521 
902 |a https://opac.biblio.iteso.mx/vufind/Record/000371524