Todo lo que necesitas es atención: ¿qué hay detrás de los transformadores que han revolucionado el mundo de la Inteligencia Artificial?

Ponente(s): Jesús Jorge Armenta Segura
En el año 2017, ocho empleados de Google establecieron un antes y un después en el mundo de la Inteligencia Artificial al inventar los transformadores: arquitecturas de aprendizaje profundo basadas en los mecanismos de atención multi-cabeza. Estas arquitecturas arrasaron en casi todas las tareas en las que fueron usadas, y llevaron el estado del arte del Procesamiento del Lenguaje Natural a una nueva era liderada por métodos como GPT (con T de "transformador") o LlaMa. En esta charla divulgativa se presenta una explicación "masticada", sucinta y en Español del artículo fundamental "Attention is all you need", el cual sentó el punto de partida de toda esta revolución. El componente matemático detrás de este artículo es denso y de necesaria discusión si se desea conseguir una comprensión profunda y esencial de esta nueva era en la Inteligencia Artificial: es el punto de partida para diseñar nuevos modelos, formular nuevas hipótesis o inclusive para pretender falsear el paradigma rumbo a modelos más eficientes y efectivos.