Uso de LLM local en Linux para hardware AMD

Aceptada

Desde la aparición de los LLM, el uso local de estos se vio limitado al Hardware específico de Nvidia en Windows, Linux abre la puerta a quienes quieran ejecutar estos modelos con hardware modesto.


Tipo: Lightning talk / Relampago

Nivel: Principiante

Disertantes: Emanuel Botta

Biografiá del Disertante: Emanuel Bautista Botta. Estudiante de ingeniería Informatica en la UCSE Rafaela y Técnico en Informática.

Horario: 10:30 - 10:45 - 25/04/2026

Sala: Sala IV

Etiquetas/Tags: linux open source llm ia fedora linux

Descripción completa

Linux permite que se puedan utilizar LLM y modelos de difusión locales sin importar el tipo de hardware sobre el que se ejecuten. Principalmente placas de video AMD que debido a su precio suelen ser la opción de muchos, y que a través de las librerías Rocm y la plataforma open source Ollama en Linux, se puede aumentar drásticamente el rendimiento y mejorar los tiempos de inferencia en comparación a Windows. En mi experiencia, la mejora de rendimiento es notoria y es un salvavidas para alguien que quiere tener un proyecto local de IA sin tener que invertir en hardware costoso.