La revolución de la IA: una urgencia regulatoria para Latinoamérica

10 abril, 2023 • Artículos, Asuntos globales, Europa, Latinoamérica, Portada, Red Omnia • Vistas: 1324

Oriente Cloud

logo fal N eneJavier de Iruarrizaga

Abril 2023

Una colaboración de la Red Omnia*

“Quiero ser poderoso, quiero estar vivo”, se leía en el título de una nota publicada en The New York Times. Si bien esas palabras parecieran salir de algún guion de ciencia ficción, en realidad son parte del diálogo que, por más de 2 horas, mantuvo un periodista de ese medio de comunicación con Bing, un buscador creado por Microsoft que es potenciado por inteligencia artificial (IA), auspiciada por OpenAI. Esta ha sido una de las múltiples interacciones controversiales que se suman a la explosión de la IA en el mundo tras el aterrizaje portentoso de ChatGPT, un chatbot inteligente que tiene al mundo sorprendido y expectante.

La IA ha existido durante varias décadas, pero ha sido en los últimos años cuando ha experimentado un avance significativo gracias al aumento de la potencia de cálculo y al acceso a grandes cantidades de datos. Diversas organizaciones internacionales, como la Unión Europea, la Organización para la Cooperación y el Desarrollo Económicos y la Organización de las Naciones Unidas, han comenzado a regular su uso para minimizar los riesgos y maximizar los beneficios de estas herramientas.

Beneficios y opacidades

Los beneficios son considerables en varios ámbitos. Para la industria manufacturera, la IA ha mejorado la eficiencia de producción en la línea, a tal punto que, según un informe de Accenture, podría aumentar su producción 20% para 2035. En el sector del transporte, la IA ha mejorado la seguridad en las carreteras y en los vuelos. Un estudio realizado por la Asociación Internacional de Transporte Aéreo encontró que la implementación de la IA en la aviación podría reducir los retrasos 30% y los costos 25%. En la medicina, un estudio realizado por el Centro Médico Cedars-Sinaí, en Los Ángeles, encontró que un algoritmo de IA puede detectar ciertos problemas cardíacos con una precisión de 90%.

La consultora Mckinsey aseguró que, según sus simulaciones, para 2030, cerca de 70% de las empresas habrán adoptado algún tipo de IA. Consecuentemente, como una revolución que se instala, debemos entender también que la IA está condicionando el funcionamiento de nuestras vidas, de nuestras organizaciones, de los sistemas democráticos y, a la larga, de nuestras políticas públicas. La razón es fácil de entender, pues esta nueva tecnología logra sustituir al humano en la toma de decisiones rápidas, con gran cantidad de información y de manera mucho más barata.

Sin embargo, no solo problemas como la obsolescencia laboral, la brecha digital o la rendición de cuentas, son los que hacen necesaria su regulación. Uno de los riesgos más preocupantes de esta tecnología son los sesgos, que ocurren cuando los algoritmos aprenden de datos que contienen prejuicios y discriminación, lo que puede llevar a decisiones injustas y discriminatorias.

El caso de ChatGPT es evidente, pues ha mostrado una clara posición política: puede dedicar poemas alabando a Barack Obama, a Luiz Inácio Lula da Silva y a Andrés Manuel López Obrador, pero no a Donald Trump, a Jair Bolsonaro ni a Enrique Peña Nieto. Y aunque en este caso se trata de figuras controversiales, es clara su capacidad de incidir en el debate político a favor de una posición. En el futuro, estas manipulaciones podrían fácilmente extenderse a cuestiones valóricas, culturales y religiosas bajo la equivocada presunción de imparcialidad por parte de los usuarios. El sesgo algorítmico puede incidir y perpetuar estructuras de desigualdad, generando mayor discriminación y exclusión.

Jenna Burrell, investigadora de la Universidad de California, reconoció tres tipos de “opacidades” en los sistemas de IA: 1) los que se mantienen deliberadamente opacos (empresas y Estados prefieren esconderlos); 2) los que responden a un analfabetismo técnico (aquellos que la generalidad de la gente no comprende), y 3) los que surgen del aprendizaje automático (machine learning), que escapa incluso al conocimiento de los programadores.

¿Qué puede pasar si estas herramientas son mal utilizadas a nivel gubernamental? ¿Quiénes son los responsables de las decisiones y de las acciones que se realizan con tecnologías y aplicaciones de IA? ¿Qué tipo de sanciones se deben aplicar a los responsables? Hoy, en Latinoamérica, estamos lejos de tener respuestas concretas, y ya es momento de que nos preparemos para prevenir una penetración nociva de esta nueva inteligencia en nuestras sociedades.

Regulaciones en Latinoamérica

Lo que sí hay en nuestra región son estrategias y programas nacionales, que se encuentran en etapas de definición de objetivos, principios e implicaciones, que resguardan principalmente los temas éticos y humanitarios. Un estudio realizado por la Universidad de Guadalajara respecto a los planes nacionales de Argentina, Brasil, Chile, Colombia, México y Uruguay concluyó que sus respectivas planificaciones, por lo general, contemplan la dimensión ética y de derechos fundamentales como guía para el desarrollo nacional de la IA a futuro.

¿Qué significa esta visión ética? Se refiere al conjunto de principios y de valores que guían el desarrollo y el uso de esta tecnología de manera justa, equitativa y responsable. La dimensión ética de la IA busca garantizar que se respeten los derechos humanos, incluidos la privacidad, la no discriminación y la protección de datos, y que se promueva el bien común en la sociedad. También busca prevenir el uso malintencionado de la IA, como la manipulación de opiniones o la toma de decisiones sin supervisión humana adecuada.

Hoy, en Latinoamérica, estamos lejos de tener respuestas concretas, y ya es momento de que nos preparemos para prevenir una penetración nociva de esta nueva inteligencia en nuestras sociedades.

Todos los planes estudiados, menos el de Uruguay, establecen que se debe impulsar una legislación específica que considere las implicaciones éticas de este desarrollo tecnológico, así como crear consejos o comités en materia de IA. Es decir, los congresos de estos países deberán moldear los límites de los creadores e instaurar las responsabilidades por el despliegue de sus tecnologías. Argentina, por ejemplo, establece como meta la conformación de un Observatorio Nacional en Inteligencia Artificial y un Comité de Ética de IA.

El enfoque de derechos humanos, por su parte, ha sido concebido por Argentina, Colombia, México y Uruguay como el concepto de justicia, libertad de expresión, no discriminación, transparencia, seguridad, privacidad y dignidad. Todos deben ser pilares rectores del proceso y del desarrollo de las aplicaciones de IA. Además, Argentina, Chile y México consideran la revisión constante del desarrollo tecnológico para asegurar su armonización con los derechos humanos.

En definitiva, en el marco general, pareciera que las planificaciones estatales son bastante uniformes y están delineadas. Sin embargo, entre este primer paso y las regulaciones puntuales hay una gran distancia, sobre todo si se considera la velocidad con la que evoluciona la tecnología. Esto es especialmente preocupante dado el rápido avance de la tecnología de la IA y su creciente impacto en la economía y en la sociedad.

Un ejemplo a seguir es el trabajo de la Comisión Europea que redactó el Acta sobre Inteligencia Artificial, la más completa y avanzada regulación hasta ahora y que entrará en vigor en 2023. Dentro de las cuestiones más destacables, la propuesta prohíbe ciertas aplicaciones de IA por considerar que tienen riesgos inaceptables e introduce obligaciones para desarrollos que conllevan altos riesgos en términos de salud, seguridad y derechos fundamentales. Para ello, se ha previsto un sistema multinivel que clasifica el riesgo intrínseco asociado a las prácticas de IA.

Además, la regulación también incluye requisitos para una supervisión humana adecuada en la toma de decisiones de IA y medidas para garantizar la responsabilidad en caso de daños causados por su uso. Si bien, Latinoamérica puede enfrentar desafíos únicos al implementar un marco regulatorio, la normativa de la Comisión Europea ofrece un modelo sólido para adaptar en la región.

Al tomar todo esto en consideración, vemos la necesidad de que nuestro continente recoja el antecedente europeo: un marco general flexible, adaptable a contextos distintos, pero que proteja el desarrollo de la industria bajo “estándares democráticos”, con el fin de que la tecnología “complemente al trabajo humano”. Por lo pronto, es necesario apresurar los proyectos de ley en trámite y velar por un correlato regulatorio en todos los casos en los que solo se han establecido principios. Ya tenemos a donde mirar, ahora más vale moverse rápido.

JAVIER DE IRUARRIZAGA es licenciado en Derecho y maestro en Prensa por la Pontificia Universidad Católica de Chile (UC), así como maestrando en Administración Pública con enfoque en Políticas Públicas Urbanas y Sociales en la Columbia University. Fue asesor legislativo y Jefe de Gabinete en el Senado de Chile, asesoró legislativamente a la federación de industrias de Chile SOFOFA, y fue Gerente Principal de Asuntos Públicos para SWVL, Cono Sur. Sígalo en Twitter en @javierdei. Las opiniones del autor son personales y no corresponden necesariamente a las de la Red Omnia ni representan a las instituciones a las que pertenece.

*La Red Omnia es una agrupación de estudiantes latinoamericanos de posgrado en Políticas Públicas en Estados Unidos. Funciona como un punto de encuentro con el fin potenciar la vinculación de la región y como vehículo para los centros de estudios latinoamericanos de cada universidad. La red está integrada por los centros de la Georgetown University, la Columbia University, la Yale University, la Harvard University, la John Hopkins University y la American University.

Tags:, , ,

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.