Cuidado con esta amenaza de la Inteligencia Artificial: cualquier persona puede ser reemplazada por código

Durante los últimos meses, el tema de la Inteligencia Artificial ha ocupado un lugar destacado en las conversaciones, desde discusiones entre la gente común hasta debates entre líderes gubernamentales de alto rango. Un ejemplo de esto es la reciente iniciativa de la Casa Blanca, que ha presentado una orden ejecutiva dirigida a fomentar el uso responsable y seguro de sistemas de IA. La efectividad de esta medida dependerá en gran medida de la implementación de las regulaciones y de qué aspectos se consideren obligatorios y cuáles sean de carácter voluntario.

Por otro lado, el grupo de países del G7 ha llegado a un acuerdo sobre un conjunto de principios éticos para las empresas de IA, aunque este acuerdo se considera de carácter voluntario. Se está llevando a cabo una cumbre los días 1 y 2 de noviembre en Bletchley Park, reconocido por su importancia histórica en el descifrado de los códigos de la máquina Enigma por Alan Turing durante la Segunda Guerra Mundial. El propósito de este encuentro es establecer normas globales en relación a la implementación segura de la Inteligencia Artificial.

Cuando los algoritmos se emplean para privarnos de nuestros derechos, somos reducidos a simples códigos

En mi punto de vista, estas propuestas dedican una atención excesiva a posibles amenazas futuras para la humanidad derivadas de inteligencias artificiales avanzadas. Todo esto refleja una narrativa de largo plazo, promovida principalmente desde Silicon Valley, acerca de los peligros existenciales que plantea la IA. Esta narrativa está ganando cada vez más terreno en las conversaciones públicas.

Esto plantea una preocupación, ya que enfocar los esfuerzos en prevenir posibles daños hipotéticos que podrían o no surgir en un futuro lejano desvía la atención de los daños reales que la IA está provocando en la actualidad. Uno de estos problemas reales es el riesgo palpable de ser reducidos a códigos, como ha expresado la experta en IA y activista Joy Buolamwini al acuñar el término “excodificados”, combinando los conceptos de “excluidos” y “codificados”.

Estamos en peligro de ser reducidos a códigos cuando un hospital utiliza un programa informático para determinar que no somos una prioridad para recibir un trasplante de órgano. Lo mismo ocurre cuando un algoritmo bancario nos deniega un préstamo o cuando un sistema automático descarta nuestro currículum vitae. Incluso un algoritmo de selección de inquilinos puede negarnos el acceso a una vivienda. Estos son ejemplos tangibles de lo que realmente está sucediendo. Nadie está a salvo de ser “reducido a códigos”, y aquellos que ya están marginados corren un riesgo aún mayor.

No es coincidencia que la narrativa a largo plazo sea promovida por los líderes de las principales empresas tecnológicas de Silicon Valley. Su objetivo es enmascarar los peligros reales detrás de una perspectiva a largo plazo, con la finalidad de evitar una regulación más estricta. Utilizan el argumento, cuestionable por cierto, de que se quedarán rezagados en la carrera de la innovación.

La palabra “excodificados”, creada por una especialista en Inteligencia Artificial, fusiona los conceptos de “excluidos” y “codificados”

Lo que se necesita es una transformación total en la construcción de sistemas de inteligencia artificial, comenzando con una regulación rigurosa de las prácticas de recopilación de datos para asegurar su ética y el consentimiento de los propietarios de los datos. Las empresas tecnológicas deben estar abiertas al escrutinio público en lo que respecta a sus sistemas de IA, asegurando que sus productos se desarrollen minimizando posibles daños y considerando su impacto en nuestras vidas, en la sociedad y en los sistemas políticos una vez desplegados.

Hasta ahora, aquellos pocos que han señalado los problemas reales causados por los sistemas de IA se han enfrentado a duras críticas en las redes sociales. Joy Buolamwini, por ejemplo, tuvo que defenderse de los ataques públicos de Amazon, mientras que Timnit Gebru y Margaret Mitchell fueron despedidas por los responsables de Google, tras enfrentarse a rechazos por parte de sus empleadores.

Es lamentable que las voces que alertan sobre los peligros tangibles de la IA corran el riesgo de ser silenciadas por las mismas empresas que dicen estar preocupadas por los riesgos de la IA. Aquellos de nosotros involucrados en la investigación y desarrollo de la IA tenemos la responsabilidad moral de informar al público que los sistemas de IA pueden reducirnos a simples códigos. Para evitar esto, es crucial enfrentar a las grandes empresas tecnológicas a través de una regulación estricta, quizás más rigurosa que la prevista en la futura “AI Act” de la UE, e incluso considerar la prohibición de aplicaciones que representen un alto riesgo para la sociedad.

Deja un comentario