JHON EDUARD JIMÉNEZ HERRERA / JOSÉ JULIÁN MORENO SÁENZ / MARENA VITOLA-QUINTERO
A través de una revisión sistemática de literatura, este documento explora cómo algunos de los algoritmos de IA están sesgados, situación representa un riesgo ético y social de gran magnitud, dado que los sistemas automatizados participan activamente en diversas decisiones. También analiza cómo la falta de diversidad en los equipos de desarrollo de IA y en los conjuntos de datos de entrenamiento incrementa la probabilidad de sesgos. Además, se destacan las implicaciones éticas y sociales de estos sesgos en distintos contextos, como el laboral, donde las herramientas de contratación automatizada discriminan a candidatas mujeres, o en la medicina, donde los diagnósticos son menos precisos para mujeres por falta de datos representativos. Desde el punto de vista normativo, se reconoce la insuficiencia de marcos legales vinculantes. Aunque existen esfuerzos como la Ley de IA propuesta por la Unión Europea o las recomendaciones éticas de la UNESCO, muchas de estas regulaciones carecen de mecanismos efectivos de aplicación. En contraste, países como Canadá han avanzado con herramientas obligatorias de evaluación de impacto algorítmico, lo que representa un modelo más efectivo.