Vladimir Vapnik - Vladimir Vapnik
Vladimir Naumovich Vapnik (en ruso : Владимир Наумович Вапник ; nacido el 6 de diciembre de 1936) es uno de los principales desarrolladores de la teoría de aprendizaje estadístico de Vapnik-Chervonenkis , y el co-inventor del método de máquina de vectores de apoyo y el algoritmo de agrupación de vectores de apoyo. .
Temprana edad y educación
Vladimir Vapnik nació en una familia judía en la Unión Soviética . Recibió su maestría en matemáticas de la Universidad Estatal de Uzbekistán , Samarcanda , República Socialista Soviética de Uzbekistán en 1958 y su doctorado en estadística en el Instituto de Ciencias de Control de Moscú en 1964. Trabajó en este instituto de 1961 a 1990 y se convirtió en Director de la Departamento de Investigación en Ciencias de la Computación.
Carrera académica
A fines de 1990, Vladimir Vapnik se mudó a los EE. UU. Y se unió al Departamento de Investigación de Sistemas Adaptativos en AT&T Bell Labs en Holmdel, Nueva Jersey . Mientras estaban en AT&T, Vapnik y sus colegas trabajaron en la máquina de vectores de soporte . Demostraron su desempeño en una serie de problemas de interés para la comunidad de aprendizaje automático , incluido el reconocimiento de escritura a mano . Más tarde, el grupo se convirtió en el Departamento de Investigación de Procesamiento de Imágenes de AT&T Laboratories cuando AT&T escindió Lucent Technologies en 1996. En 2000, Vapnik y el experto en redes neuronales, Hava Siegelmann, desarrollaron Support-Vector Clustering, que permitió que el algoritmo categorizara las entradas sin etiquetas, convirtiéndose en una de las aplicaciones de agrupación de datos más ubicuas en uso. Vapnik dejó AT&T en 2002 y se unió a NEC Laboratories en Princeton, Nueva Jersey , donde trabajó en el grupo de aprendizaje automático. También ocupa un puesto de profesor de informática y estadística en Royal Holloway, Universidad de Londres desde 1995, así como un puesto de profesor de informática en la Universidad de Columbia , Nueva York desde 2003. A partir del 1 de febrero de 2021, ha un índice h de 86 y, en general, sus publicaciones han sido citadas 226597 veces. Su libro sobre "La naturaleza de la teoría del aprendizaje estadístico" solo ha sido citado 91650 veces.
El 25 de noviembre de 2014, Vapnik se unió a Facebook AI Research , donde trabaja junto a sus antiguos colaboradores Jason Weston, Léon Bottou , Ronan Collobert y Yann LeCun . En 2016, también se unió a Vencore Labs .
Honores y premios
Vladimir Vapnik fue admitido en la Academia Nacional de Ingeniería de EE. UU . En 2006. Recibió el premio Gabor 2005, el premio Paris Kanellakis 2008 , el premio Neural Networks Pioneer 2010, el premio IEEE Frank Rosenblatt 2012 , la medalla Benjamin Franklin en informática y cognición 2012 Ciencia del Instituto Franklin , Premio C&C 2013 de la Fundación NEC C&C, Premio Kampé de Fériet 2014, Medalla John von Neumann IEEE 2017 . En 2018, recibió la Medalla Kolmogorov de la Universidad de Londres y pronunció la Conferencia Kolmogorov. En 2019, Vladimir Vapnik recibió el Premio Fundación BBVA Fronteras del Conocimiento .
Publicaciones Seleccionadas
- Sobre la convergencia uniforme de frecuencias relativas de eventos a sus probabilidades , coautor AY Chervonenkis, 1971
- Condiciones necesarias y suficientes para la convergencia uniforme de los medios a sus expectativas , coautor AY Chervonenkis, 1981
- Estimación de dependencias basada en datos empíricos , 1982
- La naturaleza de la teoría del aprendizaje estadístico , 1995
- Teoría del aprendizaje estadístico (1998). Wiley-Interscience, ISBN 0-471-03003-1 .
- Estimación de dependencias basadas en datos empíricos , Reimpresión 2006 (Springer), también contiene un ensayo filosófico sobre la ciencia de la inferencia empírica , 2006
Ver también
Referencias
enlaces externos
- Fotografía del profesor Vapnik
- Breve biografía de Vapnik del Centro de Investigación de Aprendizaje de Computadoras, Royal Holloway
- Entrevista de Lex Fridman