The Wrecking Ball: Demoliendo IAs

Aceptada

Una exploración sobre los desafíos de seguridad planteados por los sistemas de ML, y en particular las IA generativas. Exploraremos los problemas fundacionales, una taxonomía de ataques, repasaremos algunos casos prototípicos, y reflexionaremos sobre qué hay por delante.


Tipo: Talk / Charla

Nivel: Medio

Disertantes: Enrique Chaparro (Vía Libre)

Biografiá del Disertante: Matemático de formación (Lic., M.Sc., MPhil), pero dedicado hace décadas a los desafíos teóricos y prácticos de seguridad de la información, y viejo (en múltiples sentidos) activista del software libre. Empeñado en defender los derechos humanos en la frontera donde estos se cruzan con las tecnologías digitales. Miembro de Fundación Vía Libre. Socio humano del Braulio.

Horario: 15:50 - 16:35 - 16/09/2023

Sala: D1

Etiquetas/Tags: - computer security - machine learning - attacks - manipulation - extraction

Descripción completa

Los sistemas de aprendizaje automático (ML), y en particular los grandes modelos de lenguaje (LLM) y similares IA generativas han atraído la atención global. En parte, porque presentan numerosas características útiles e interesantes; en otra, porque están rodeadas de 'hype' que les atribuye propiedades casi mágicas. Sin embargo, poco se ha estudiado y trabajado sobre la seguridad de estos sistemas (tanto los de 'caja negra' como los de 'caja transparente'). Esta presentación pretende, muy a vuelo de pájaro, subsanar en parte ese déficit. Abordaremos, desde el punto de vista de la seguridad, algunos de los problemas fundacionales de los sistemas de ML; una taxonomía de los ataques de manipulación y extracción sobre el input, los datos y los modelos (con algo de foco adicional en los ataques de manipulación de input o "ejemplos adversarios" y sobre los de extracción de modelo); y una breve exploración de los ataques más significativos. Esta exploración es inevitablemente fragmentaria. Lo es porque además de los riesgos "técnicos", los avances en el campo de ML entrañan un número no menor de riesgos sociopolíticos; no pretendemos en esta presentación recorrerlos exhaustivamente, pero sí dejar al menos sembrada una semilla de advertencia. Finalmente, se procura iniciar la reflexión sobre el rol de las comunidades de software libre en este campo. Ante el enorme potencial de los sistemas de ML para aliviar y acelerar trabajo humano, aparecen también como contracara enormes riesgos ¿Cómo construir sistemas fiables, robustos y explicables? ¿Qué limitaciones enfrentaremos para hacerlo?