En un comunicado publicado este viernes, una quincena de relatores y especialistas de la ONU afirmó que las nuevas tecnologías, incluidos los sistemas de vigilancia biométrica basados en inteligencia artificial, se utilizan cada vez más «en contextos delicados», sin el conocimiento ni el consentimiento de las personas.

Deben trazarse líneas rojas urgentemente

«Se necesitan líneas rojas reglamentarias urgentes y estrictas para las tecnologías que pretenden realizar el reconocimiento de emociones o de género», afirmaron los expertos**, entre los que se encuentra Fionnuala Ní Aoláin, relatora especial sobre la promoción y protección de los derechos humanos en la lucha contra el terrorismo.

Los expertos, designados por el Consejo de Derechos Humanos, condenaron el ya «alarmante» uso de los programas espía y las tecnologías devigilancia con defensores de los derechos humanos y periodistas, «a menudo bajo el pretexto de estar tomando medidas de seguridad nacional y antiterroristas».

También pidieron una regulación para hacer frente al vertiginoso desarrollo de la inteligencia artificial generativa, que permite la producción masiva de contenidos falsos en línea, promoviendo la desinformación y la incitación al odio.

Consecuencias en el mundo real

Los expertos subrayaron la necesidad de garantizar que estos sistemas no expongan aún más a las personas y las comunidades a violaciones de los derechos fundamentales; en concreto, mediante la expansión y el abuso de prácticas de vigilancia que vulneran el derecho a la privacidad y que facilitan la comisión de graves violaciones, incluidas las desapariciones forzadas, y la discriminación.

También expresaron su preocupación por el respeto a las libertades de expresión, pensamiento y protesta pacífica, y por el acceso a los derechos económicos, sociales y culturales esenciales, así como a los servicios humanitarios.

«Deben evitarse por completo las tecnologías y aplicaciones específicas en las que no sea posible regular las quejas sobre derechos humanos», afirmaron los expertos.

También expresaron su preocupación por el hecho de que el desarrollo de la inteligencia artificial generativa esté impulsado por un pequeño grupo de actores poderosos, entre ellos empresas e inversores, sin que existan requisitos adecuados para llevar a cabo la diligencia debida en materia de derechos humanos o la consulta con las personas y comunidades afectadas.

Además, los expertos señalaron que el trabajo crucial de regulación interna, a través de la moderación de contenidos, a menudo es realizado por individuos en situación de explotación laboral.

Más transparencia

«Se necesita urgentemente una regulación que garantice la transparencia, alerte a las personas cuando se encuentren con medios sintéticos (formatos o contenidos digitales creados o modificados por la inteligencia artificial) e informe al público sobre los datos de entrenamiento y los modelos utilizados», señalaron los expertos.

También reiteraron sus llamamientos a la cautela en el uso de la tecnología digital en el contexto de las crisis humanitarias, desde la recogida de datos a gran escala, incluida la recopilación de datos biométricos altamente sensibles, hasta el uso de tecnologías avanzadas de vigilancia selectiva.

«Instamos a la moderación en el uso de tales medidas hasta que se comprendan plenamente las implicaciones más amplias para los derechos humanos y se establezcan salvaguardias sólidas de protección de datos», afirmaron.

El cifrado y la privacidad, primordiales

Subrayaron la necesidad de garantizar soluciones técnicas, incluida una encriptación sólida de extremo a extremo y un acceso sin restricciones a las redes privadas virtuales, y asegurar y proteger las comunicaciones digitales.

«Tanto la industria como los Estados deben rendir cuentas, entre otras cosas por su impacto económico, social, medioambiental y en los derechos humanos», afirmaron. «La próxima generación de tecnologías no debe reproducir ni reforzar los sistemas de exclusión, discriminación y pautas de opresión».

Fuente: Naciones Unidas