El 24 de julio del 2024 llegará a Costa Rica el experto internacional de origen chileno, P.h.D. Ricardo Baeza Yates, quien actualmente es director de Investigación en el Instituto de IA Experiencial de Northeastern University, Silicon Valley campus (EEUU).
El Dr. Ricardo Baeza Yates es un referente mundial en IA, especialmente en lo que se refiere al uso ético de esta “tecnología”. Sobre este tema ha dictado numerosas conferencias, talleres y charlas en diferentes países de Iberoamérica.
Su visita responde a una invitación de la Vicerrectoría de Investigación de la Universidad de Costa Rica, en el marco de su 50 Aniversario. El Dr. Baeza ofrecerá la conferencia "Inteligencia Artificial Responsable" en el auditorio de la Ciudad de la Investigación de la Universidad de Costa Rica, contiguo al Centro de Investigación en Ciencias del Mar y Limnología (CIMAR). La actividad es abierta a todo público previa inscripción en el siguiente enlace: https://acortar.link/lVvPfl
La Vicerrectoría de Investigación hace una especial invitación a la comunidad académica y de investigación de las universidades, a la comunidad estudiantil y a jóvenes de colegios científicos del país, así como a colegios profesionales, gobiernos locales y organizaciones públicas y privadas más directamente relacionadas con el tema.
El Dr. Baeza es miembro del DATA Lab del Khoury College of Computer Sciences y consultor de emprendimientos y empresas tecnológicas; así como de instituciones internacionales sin fines de lucro, especialmente en IA (Inteligencia Artificial) responsable.
Como experto ese campo está activamente involucrado en muchas iniciativas, comités y consejos consultivos alrededor del mundo: Global AI Ethics Consortium, Global Partnership on AI, la iniciativa fAIr LAC del BID (Latinoamérica y el Caribe) y US Technology Policy Committee de la ACM.
También es co-fundador de OptIA en Chile, una ONG para el uso transparente e inclusive de algoritmos, y miembro del comité editorial del nuevo AI and Ethics Journal, donde fue co-autor de un artículo que enfatiza la importancia de la libertad de investigación sobre la ética de la IA. Entre 2019 y 2023 fue miembro del Consejo de IA de España.
Previo su visita, el Dr. Baeza respondió algunas consultas del Portal de la Investigación, donde analiza brevemente algunos aspectos relevantes sobre lo que él denomina la “inteligencia computacional”, y esboza algunos elementos que desarrollará durante su conferencia en la Universidad de Costa Rica.
César A. Parral (CP): ¿Cómo define usted la Inteligencia Artificial (IA) y qué aplicaciones puede tener?
Ricardo Baeza Yates (RBY): No hay una definición consensuada para la IA. Yo preferiría hablar de inteligencia computacional, que sería la inteligencia que puede tener un algoritmo, la cual es distinta de la humana. Esto es similar a considerar que la inteligencia humana se diferencia de la inteligencia de otros animales, como las ballenas o los pulpos.
CP: ¿Cómo y dónde surgió, por qué o para qué se creó esta “tecnología”?
RBY: Alan Turing, uno de los padres de la teoría de la computación fue el primero que estudió este tema en forma sistemática. Pero el término IA se usó por primera vez en la propuesta para realizar un taller en Darmouth College en 1956 organizado por John McCarthy.
La propuesta para el taller fue enviada en 1955 y estaba firmada por McCarthy, Marvin Minsky, Nathaniel Rochester and Claude Shannon (uno de los padres de la teoría de la información y el que había sugerido el taller). Años después uno de los participantes confesó que habían inventado el nombre para conseguir dinero de investigación.
CP: ¿Existen preocupaciones éticas sobre la IA? ¿Cuáles son y cómo podrían abordarse?
RBY: Muchísimas y es el tema de mi presentación en Costa Rica. Las más importantes son la discriminación de personas, el impacto medioambiental, la desinformación y la salud mental.
CP: ¿Qué significa para usted “Inteligencia Artificial Responsable”?
RBY: Significa utilizar la IA de forma ética y hacerse responsable del impacto negativo que tenga. Esto implica que el impacto debe ser siempre positivo y minimizar los riesgos.
La Universidad de Costa Rica cuenta con varios (as) especialistas en el ámbito de la Inteligencia Artificial, e incluso ha desarrollado novedosas iniciativas, como una plataforma basada en inteligencia artificial para evaluar el conocimiento de idiomas extranjeros de las personas. Inicialmente se ha aplicado a estudiantes de secundaria.
CP: ¿Cuál es su principal línea o líneas de investigación y por qué decidió incursionar en ese campo?
RBY: Mi principal línea de investigación actualmente es el análisis de los sesgos de los sistemas de IA (que generan discriminación) y la evaluación correcta de los mismos (entender el impacto de los daños y no medir el porcentaje del tiempo en que funciona).
CP: ¿Cuáles diría usted que son sus tres principales logros o aportes como investigador, particularmente en el ámbito de la IA.
RBY: Mi trabajo sobre el círculo vicioso de todos los sesgos que se encuentran en la “Web” [Internet], publicado en 2018, ha permitido entender que los sesgos no están sólo en los datos, sino que también pueden ser causados por los algoritmos mismos y por la interacción de ellos con los usuarios.
Mi aporte a los nuevos principios de la ACM [Association for Computing Machinery] para sistemas algorítmicos responsables publicados en 2022, permite tener una visión más amplia del tema. En particular el principio inicial de legitimidad y competencia, que implica que primero se deben analizar los posibles beneficios y daños y las competencias que se necesitan, para decidir si debemos o no implementar un sistema.
Mi definición de errores no humanos, que son los que hace la IA pero no las personas, permite definir una clase de errores que pueden generar problemas, ya que las personas no los esperan. Por ejemplo, que un carro autónomo no reconozca una mujer cruzando de noche en bicicleta, causando su muerte en Arizona [EE.UU.] en el 2018.
La Inteligencia Artificial tiene varios años de desarrollo y su potencial ya está siendo aprovechado por personas de diferentes ámbitos profesionales, instituciones y empresas para mejorar su desempeño. Sin embargo entraña peligros y aún despierta temores ante las implicaciones que puede tener en todos los ámbitos sociales.
CP: ¿Cuáles son los temas o ejes principales de la conferencia que usted brindará en la Universidad de Costa Rica? ¿De qué trata, cuál es la idea o ideas principales que usted desea transmitir en esta conferencia?
RBY: Primero [utilizo] ejemplos del uso irresponsable de la IA, incluyendo los más recientes debido a la IA generativa. En la segunda parte veremos posibles soluciones, como principios éticos, gobernanza y regulación.
CP: ¿Cómo deberían prepararse las universidades y nuestros países en general ante el creciente desarrollo de la IA? ¿Cuáles podrían ser algunas acciones importantes a considerar?
RBY: Enseñar un curso de ética tecnológica en el primer año de estudios, y luego reforzar el tema trabajando en un ejemplo concreto en cada una de las materias de ingeniería y sistemas. También es importante crear programas de postgrado en ciencias de datos y/o IA.
CP: ¿Qué sectores sociales, instituciones, ámbitos o personas podrían ser los más afectados por la IA en el corto y mediano plazo?
RBY: Todos serán afectados, pero hay que preocuparse de los que impactan [a las] personas: servicios públicos y privados, mercado laboral, educación, etc.
CP: ¿Cuál es su opinión sobre el impacto de la IA en el empleo y la economía en general?
RBY: Si usamos la IA para empoderar personas y aumentar la productividad, el impacto es muy positivo. Pero si la usamos para reemplazar personas y abaratar costos, puede ser muy negativo. Así que depende de nosotros, pero a veces los incentivos económicos no están alineados con el bienestar social.
CP: ¿Considera usted importante o necesario establecer algunas regulaciones legales en relación con la IA? ¿Qué han hecho otros países al respecto?
RBY: Sí, aunque la regulación de la Unión Europea, que debería comenzar pronto, tiene varios problemas conceptuales. Estados Unidos de América aún no plantea nada y China ya tiene, desde el año pasado, una regulación para el uso de la IA generativa, ya que sabe que la desinformación puede desestabilizar cualquier régimen político, no sólo las democracias.
CP: ¿Cuál es el nivel de avance alcanzado por los países latinoamericanos en comparación con los países desarrollados en esta materia? Y específicamente, ¿Qué conoce sobre Costa Rica?
RBY: Hay políticas de IA en varios países de la región: Brasil, Chile, Colombia, México, son los ejemplos más importantes. De Costa Rica conozco bastante pues durante el 2021 apoyamos al BID [Banco Interamericano de Desarrollo] y al MICITT [Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones], a través de una ONG [Organización No Gubernamental] chilena, OptIA, de la cual soy co-fundador, para crear un marco conceptual para la estrategia de IA de Costa Rica.
Para esto dirigí un equipo costarricense-chileno de ingenieros y abogadas que entrevistó a casi 50 personas relevantes en el tema y propuso un marco ético, líneas de trabajo y una hoja de ruta, presentando el informe final en marzo del 2022.
Pero luego hubo el cambio de Gobierno y no sabemos si este trabajo, que tenía más de 200 páginas, ha servido para la estrategia de IA que se anunció en febrero de 2023. Espero que sí.
CP: ¿Qué recomendaciones haría a las personas investigadoras de Costa Rica que trabajan en este campo o están interesados en hacerlo?
RBY: Que aprovechen algún ámbito donde Costa Rica tenga liderazgo mundial, [como] el impacto medioambiental. Es decir investigar en temas que tengan un amplio impacto social para el país. Los países deben buscar temas donde tengan ventajas competitivas.
CP: ¿Cuáles son los avances más significativos que han ocurrido en el campo de la IA en los últimos años?
RBY: Los dos más importantes son el uso de redes neuronales supervisadas para detectar objetos en imágenes (2010) y el uso de redes que aprenden sin supervisión, directamente del texto, para generar texto de gran calidad (2020), lo que hoy se llama IA generativa.
CP: ¿Qué desafíos enfrenta la comunidad de investigación en IA en la actualidad?
RBY: El acceso a recursos de cómputo y volumen de datos a un nivel similar a los que tienen las grandes compañías tecnológicas.
CP: ¿Cómo ve el futuro de la interacción entre humanos y máquinas con el avance de la IA?
RBY: Prefiero contestar de lo que me gustaría ver: seres humanos apoyados por la IA para aumentar la productividad, pero realizando menos esfuerzo. Esto permitiría trabajar menos y lograr más.
CP: ¿Cuál es su opinión sobre la idea de una "singularidad tecnológica", donde la IA eventualmente superaría la inteligencia humana?
RBY: No creo que esto ocurra en un futuro cercano. Además jugar a ser dioses es peligroso, pues si creáramos un ente más inteligente que nosotros, la conclusión inmediata sería que para salvar al planeta hay que exterminar a los parásitos que tiene la Tierra: nosotros mismos. Es la misma conclusión que tomaría una civilización alienígena avanzada.
Esta entrevista se realizó con apoyo de IA