¿Es este el final de las redes neuronales convolucionales? Welcome Vision-Transformers
Descripción
30 minutos
Durante casi una década, las redes neuronales convolucionales han dominado la investigación en el campo de la visión por computación. Sin embargo, la aparición de nuevos métodos que aprovechan los Transformers para dar sentido a las imágenes está dando bastantes buenos resultados. Los Transformers se diseñaron inicialmente para tareas de procesamiento del lenguaje natural con un enfoque principal en la traducción automática neuronal. Las investigaciones recientes proponen nuevas arquitecturas llamadas “Vision-Transformers” para procesar imágenes usando Transformers. Durante esta sesión explicaremos los principales problemas que tienen las redes neuronales y como los Transformers pueden mitigarlos haciendo uso del concepto de “self-attention”. Además, mostraremos varias aplicaciones y ejemplos de entrenamiento de estas nuevas arquitecturas en el campo de la segmentación de imágenes.
Ponente
Rodrigo Cabello
AI MVP and Research Team at Plain Concepts
Research Engineer en Plain Concepts y MVP de Microsoft en Inteligencia Artificial con más de 10 años de experiencia en desarrollo de software. Apasionado de las tecnologías de vanguardia y de todo lo relacionado con la Inteligencia Artificial. Actualmente desarrollo soluciones de Machine Learning de última generación, principalmente en el área de Computer Vision.
Suscríbete a nuestra newsletter
¿QUIERES SER EL PRIMERO EN ENTERARTE DE NUESTROS EVENTOS, DESARROLLOS, NOTICIAS, VACANTES…?