La creciente presencia de inteligencia artificial preocupa a la ONU

los inteligencia artificial (IA), silenciosamente presente ya en los sistemas de seguridad, asignaciones de trabajo o búsquedas en internet, comienza a preocuparse dentro de la ONU, donde el alto comisionado para los derechos humanos, Michelle Bachelet, pidió hoy una moratoria parcial sobre su venta y uso.

Usan inteligencia artificial para predecir la progresión de la enfermedad de Parkinson

Lee mas

Esta moratoria debería aplicarse en principio a aquellas tecnologías de IA que sean potencialmente discriminatorias o que atenten contra nuestros derechos, dijo Bachelet ante el Consejo de Derechos Humanos de las Naciones Unidas, que se reúne estos días en Ginebra.

Bachelet hizo este llamamiento antes de la presentación ante el mismo Ayuntamiento de un informe que documenta las amenazas que plantea la IA, una tecnología que se define como aquella en la que la máquina puede aprender por sí misma.

No podemos seguir reaccionando tardíamente a los efectos de la inteligencia artificial, ni permitir que se utilice de forma ilimitada, sin fronteras ni supervisión, y luego afrontar sus casi inevitables consecuencias sobre los derechos humanos.

Michelle Bachelet, ONU

El informe ha estudiado el comportamiento de la IA en sistemas de elaboración automática de perfiles, toma de decisiones y otros usos, que, según concluye, puede vulnerar el derecho a la intimidad y otros relacionados con la salud, la educación, la libertad de circulación o la libertad de expresión.

GRANDES DATOS Y RECONOCIMIENTO FACIAL

El estudio documenta varios aspectos en los que la inteligencia artificial ya está interfiriendo con los derechos humanos, por ejemplo a través del uso extensivo de datos personales, algo que pone en riesgo la privacidad de millones de personas.

Las grandes multinacionales tecnológicas, propietarias de muchas de estas gigantescas bases de datos, las están utilizando para determinar a través de la inteligencia artificial qué contenidos filtrar, cuáles amplificar o dejar en segundo plano, algo que al menos plantea desafíos a la libertad de expresión e información.

pandemia

La OMS quiere anticiparse a futuras pandemias con análisis de datos e inteligencia artificial

Lee mas

Un segundo aspecto es el uso de estos datos de forma discriminatoria, y en este sentido el informe destaca que ya se ha verificado que algunos sistemas de IA han mostrado sesgos sexistas o racistas a la hora de asignar puestos de trabajo o decidir quién puede o no acceder a determinados servicios sociales.

Además, se han observado tecnologías que utilizan la IA para influir en el comportamiento de las personas o intentar predecir lo que será en el futuro, apunta el informe, que también hace sonar la alarma sobre la falta de transparencia en el que se desarrolla el sector.

No menos preocupante es el uso de la inteligencia artificial en términos de seguridad, por ejemplo en el control de fronteras o en la identificación de sospechosos, a veces incluso de forma remota, mediante sistemas biométricos como el reconocimiento facial e incluso emocional.

.