En busca de una AI inclusiva
Extracto
55 minutos
La inteligencia artificial está creando nuevas oportunidades para mejorar la vida de las personas en todo el mundo, haciendo grandes aportes en diferentes campos como pueden ser la sanidad o la educación. ¿Pero qué pasaría si estos algoritmos estuviesen aprendiendo a ser injustos? El efecto podría ser catastrófico y a gran escala. Por ejemplo, un sistema de búsqueda de trabajo podría favorecer a los candidatos masculinos para realizar entrevistas, o asumir pronombres femeninos al traducir palabras como «enfermera» o «secretaria».
Por ello, es necesario alzar la voz para trabajar hacia sistemas que sean justos e inclusivos para tod@s de forma que se logre asegurar que un sistema será justo e inclusivo en todas las situaciones. Esto es un desafío a día de hoy en el campo de la inteligencia artificial, acentuado en gran medida porque no hay una definición de qué es justo y qué no. En esta sesión veremos los principales problemas asociados al sesgo de los datos y cómo se pueden llegar a construir modelos que sean éticos, justos e interpretables.
Ponentes
Daniela Solís
Artificial Intelligence Team Lead at Plain Concepts
Team Lead del equipo de IA de Plain Concepts. Maestría en Inteligencia Artificial de la Universidad de Amsterdam con grado en Ingeniería del Software de la Universidad Politecnica de Madrid. Apasionada de las nuevas tecnologías y del mundo de la Inteligencia Artificial.
Sara San Luis
AI Software Development Engineer at Plain Concepts
Apasionada de las ciencias desde pequeña, estudié Matemáticas en la Universidad de Santiago de Compostela, formación que completé con un Máster en Estadística e Investigación Operativa. Este último me permitió adentrarme en el mundo de la IA y del ML, campos en los que trabajo ahora mismo.
Suscríbete a nuestra newsletter
¿QUIERES SER EL PRIMERO EN ENTERARTE DE NUESTROS EVENTOS, DESARROLLOS, NOTICIAS, VACANTES…?
[cp_popup display=»inline» style_id=»2082″ step_id = «1»][/cp_popup]