Box, Clarke y Feynman; o cómo desarmar la magia de machine learning

Aceptada

Un proyecto de Fundación Vía Libre: la construcción de un cuerpo didáctico para entender los sistemas de aprendizaje automático (ML) mediante un proceso constructivo. Trabajo en curso.


Tipo: Talk / Charla

Nivel: Medio

Disertantes: Enrique Chaparro

Biografiá del Disertante: Enrique Chaparro es matemático por profesión, y especialista en seguridad de sistemas de información por oficio. Un viejo activista del software libre, en todos los sentidos de la palabra “viejo”, empeñado en la defensa de los derechos fundamentales ahí donde estos se cruzan con las tecnologías digitales. Secretario y expresidente de Fundación Vía Libre.

Horario: 15:00 - 16:00 - 19/10/2024

Sala: Sala A - 4to piso

Etiquetas/Tags: free software machine learning programming

Descripción completa

Un modelo generativo es un modelo estadístico de la distribución conjunta de probabilidad P(X.Y). Sostenía el estadístico británico George E. P. Box que“todos los modelos están equivocados, pero algunos son útiles”. Y el aprendizaje automático (machine learning) parece cosa de magia; como reza la famosa 3a Ley de Clarke, “toda tecnología lo suficientemente avanzada es indistinguible de la magia”. Acá es donde Richard Feynman viene a ayudarnos: quedó escrito en su pizarrón de Caltech “Lo que no puedo crear, no lo entiendo”. ]Y ese es el proyecto, por ahora en desarrollo: una introducción “desde cero y sin GPU” al aprendizaje automático moderno, desde una aproximación construccionista. Por supuesto, hay muchos y buenos turotiales, pero este tiene como objetivo explicar realmente qué pasa, desde el principio. La idea es desarrollar una demo hasta que sea de verdad útil con datos reales. Otros tutoriales parten del (muy impresionante) entorno PyTorch, o intentan matematizarlo desde los primeros principios. Tratar de entender el aprendizaje profundo a través de PyTorch es como intentar aprender aerodinámica volando en un Airbus A380. Mientras tanto, el enfoque puramente matemático (“es fácil, es sólo una matriz jacobiana”) es probablemente sólo apto para matemáticos experimentados. El objetivo de este tutorial es desarrollar redes neuronales modernas completamente desde cero, pero en las que aún así acabamos con resultados realmente impresionantes. ¡Y en menos de 2000 líneas de código! Esta charla NO ES el tutorial (resultaría imposible por las limitaciones de tiempo, y porque aún está en elaboración) sino un ‘teaser’ de las ideas generales, una ocasión para mejorar el proceso de elaboración, y quizás también un ‘bait’ para que nos acompañen haciéndolo y difundiéndolo.