Dos informes publicados este mes advierten sobre los riesgos que conlleva para la privacidad y los derechos de las personas, la aplicación irrestricta de la inteligencia artificial (IA), una tecnología en rápida evolución en el mundo.
“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, dijo Michelle Bachelet, alta comisionada de las Naciones Unidas para los Derechos Humanos (ACNUDH)
El informe titulado “El derecho a la privacidad en la Era Digital”, de la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos (ACNUDH), señala que si bien la IA puede generar grandes beneficios a la sociedad, de no utilizarse con las debidas protecciones, puede poner en peligro los derechos humanos, por lo que recomienda imponer moratorias a la venta y uso de tales sistemas hasta que se establezcan las salvaguardas adecuadas para proteger esos derechos.
Por su parte, el Informe del panel 2021 del “Estudio de cien años de inteligencia artificial” (AI100), reconoce que el avance de esta tecnología llegó a un punto de inflexión. Y advierte sobre la urgencia de “pensar seriamente en las desventajas y los riesgos “de la amplia aplicación de la IA”.
“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, dijo Michelle Bachelet, alta comisionada de la ACNUDH, durante la presentación del informe (20 de setiembre del 2021).
“Pero dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”, añadió.
El informe de la ACNUDH analiza cómo la IA —a través de la elaboración automática de perfiles, la toma de decisiones y el aprendizaje de máquinas— puede afectar al derecho a la intimidad, pero también los relativos a salud, educación, libertad de movimiento, libertad de reunión y asociación pacífica, y libertad de expresión.
Para evitar esos riesgos, es imprescindible que el desarrollo de la IA no sólo considere la tecnología y su correcta aplicación para resolver brechas productivas, dijo a SciDev.Net Fernando Hentzschel, gerente de Capacidades Tecnológicas de Corfo (Corporación de Fomento de la Producción, Chile).
“Siempre debe ir acompañada de las reflexiones sobre los potenciales problemas éticos que pueda generar. Pero también de las acciones o mitigaciones en los casos que sea necesario, para que se implemente de manera responsable”, agregó.
El problema es que la IA es una tecnología tan nueva y que evoluciona tan rápido que es difícil anticiparse a sus resultados. Por ello, tanto su desarrollo como la generación de una política que la regule deben ir a la par, comentó a SciDev.Net Denis Parra, docente de la Facultad de Ingeniería de la Pontificia Universidad Católica de Chile.
Si bien cree que el desarrollo y utilización de la IA no deberían detenerse, sí concuerda con la propuesta de moratoria de la ACNUDH respecto de aplicaciones militares. “Utilizarla para fines bélicos puede tener complicaciones serias (por la falta de precisión)”, opina.
Asimismo, señala que uno de los principales escollos a salvar es determinar qué tan peligrosos son los algoritmos que se utilizan y también poder entender cómo funcionan.
“Los algoritmos de "deep learning" (aprendizaje profundo) son tan grandes y complejos que es difícil explicar cómo toman las decisiones, y si ellas son discriminatorias o no”, dijo.
Los algoritmos tienen el potencial de ser tan beneficiosos, que pueden ayudar a la reactivación económica pos pandemia, como un programa que está impulsando Corfo en Chile, pero también pueden dejar a alguien sin ayudas sociales, o incluso ampliar la brecha de género en temas tan variados como el acceso a la educación o al financiamiento bancario.
En ese contexto, el informe (AI100) asegura que la creciente capacidad para automatizar decisiones a escala, es un arma de doble filo, porque puede ser manipulada o utilizada de forma irresponsable, lo que no solo puede terminar en el engaño o discriminación de las personas, sino también en daño físico.
Ese es el caso de los algoritmos entrenados en base a datos históricos, ya que ellos pueden reforzar y exacerbar los prejuicios y desigualdades existentes.
Justamente uno de los parámetros que debieran considerarse en la calificación de riesgo de los algoritmos es la calidad de los datos en los que se basan, aseguró Denis Parra. “Por eso es importante que se definan las métricas que permitan 'testear' la seguridad de los algoritmos”, explicó.
La inteligencia artificial (IA), puede ayudar en muchos campos del conocimiento, pero también puede afectar muchos derechos humanos.