A
Adrián Z. Rivero
Guest
Aunque en 2024 el Ministerio de Ciencia, Tecnología, Innovación y Telecomunicaciones (Micitt) presentó la Estrategia Nacional de Inteligencia Artificial (ENIA) utilizando la garantista regulación europea como referencia, ahora parece darle la espalda porque esta no es del agrado de las empresas privadas.
Así se desprende de declaraciones de la ministra de Ciencia y Tecnología, Paula Bogantes, el pasado 6 de abril, durante una comisión legislativa donde se discutía un proyecto de ley sobre la Inteligencia Artificial (IA) en procesos electorales.
Allí salió el tema de la regulación de la IA, de forma general, y la jerarca dedicó un espacio a comparar la situación nacional con los ejemplos internacionales.
“Conocerán bien a la Unión Europea (UE). Ya ellos publicaron y están en proceso de implementación del AI Act, bastante restrictivo en la aplicación de la IA en territorio europeo, dicho por empresas privadas. Entonces, no es un ejemplo que nosotros queramos copiar”, agregó la ministra.
“En la medida que no existan, sobre todo, normas robustas en materia de protección de datos y ciberseguridad, el desprotegido es el usuario”, Juan Durango, experto en derecho digital.
Acto seguido, Bogantes citó la alternativa estadounidense bajo una narrativa diferente: “Más bien ellos lo que están es limitando la sobrerregulación para buscar una mayor y más rápida implementación de la IA”, describió.
El tercer ejemplo fue el de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), de la cual la jerarca solo mencionó brevemente que su marco fue tomado en cuenta para la estrategia ENIA.
El giro es evidente. El ejemplo europeo que ahora no se quiere “copiar” había sido esencial en la ENIA para la clasificación de riesgos asociados a la IA, pero más allá de esto, ambos instrumentos comparten elementos medulares, como la protección de los derechos humanos o el desarrollo tecnológico centrado en las personas.
“La tendencia de Costa Rica siempre ha sido desarrollar su normativa a partir de lo que se desarrolla en Europa por ser tan garantista; pero, por primera vez en mucho tiempo, en temas de tecnología se está intentando cambiar esa perspectiva a partir de este último gobierno”, señaló el abogado Juan Durango, especialista en protección de datos y derecho digital.
Europa frente a Estados Unidos
El AI Act europeo se aprobó en marzo de 2024, con el objetivo de “mejorar el funcionamiento del mercado interior y promover la adopción de la IA centrada en el ser humano”. La normativa establece niveles de riesgo, a partir de los cuáles los modelos de IA son regulados en mayor o menor medida.
Así, los sistemas con riesgos mínimos (como filtros de spam) no están regulados; los de riesgos limitados (como chatbots) tienen pequeñas obligaciones de transparencia; los de riesgos altos (como los utilizados en seguridad) tienen requisitos más fuertes como permitir supervisión humana o tener un sistema de gestión de riesgos; y finalmente hay sistemas prohibidos, como los que puedan explotar vulnerabilidades de personas o desplieguen técnicas manipuladoras que distorsionen el comportamiento.
El America’s AI Action Plan de julio de 2025, en cambio, dice que se basa en los pilares de innovación; infraestructura; y diplomacia y seguridad:
“Estados Unidos necesita innovar con mayor rapidez y amplitud que sus competidores en el desarrollo y la distribución de nuevas tecnologías de IA en todos los ámbitos, y desmantelar las barreras regulatorias innecesarias que obstaculizan al sector privado”, dice el documento.
Al respecto, el filósofo y académico Luis Arturo Martínez, quien ha trabajado ampliamente el tema y coordinó el proceso de regulación de la IA en la Universidad de Costa Rica (UCR), explicó que la diferencia fundamental es que, en el modelo europeo, las instituciones regulan a las empresas, mientras que en el estadounidense las empresas se autorregulan.
“Bastante cómodo (el estadounidense) para las empresas porque lo único que se solicita es que cada una de las empresas tenga sus marcos regulatorios, sus condiciones específicas y que haya una implementación tanto ética como normativa de la manera en la que van a llevar a cabo esto”, agregó el académico.
Martínez advirtió que el sistema norteamericano es tan abierto que permite que haya diferencias conceptuales entre empresas. Es decir, Open AI podría tener una definición distinta a la de Google de lo que es un marco regulatorio o de lo que significa la ética.
Por su parte, Durango explicó que, aunque en el caso costarricense las empresas y el Estado podrían beneficiarse de la ausencia de regulación en IA, el costo finalmente sería asumido por los usuarios, que serían los perjudicados.
“En la medida que no existan, sobre todo, normas robustas en materia de protección de datos y ciberseguridad, el desprotegido es el usuario”, alertó el abogado, quien incluso señaló que regular esas dos materias es más urgente que legislar acerca de la IA. Ese orden de prioridades también fue apuntado por Bogantes durante su audiencia en la comisión legislativa.
El experto indicó que inclusive la UE desarrolló primero leyes de protección de datos y ciberseguridad antes de la normativa sobre IA.
“A mí lo que me preocupa es que ni el gobierno de Rodrigo Chaves ni el que viene pareciera estar muy interesado en mejorar la legislación en materia de protección de datos, porque está siendo muy conveniente para ellos estos vacíos legales en la materia para poder tener una recopilación masiva de datos entre instituciones, intercambiar datos de manera poco vigilada o poco apegada a la poca normativa que tenemos y eso está generando riesgos muy importantes para el país”, advirtió el especialista en derecho digital.
Datos en riesgo
Ambos expertos coincidieron en que el mayor riesgo está en el manejo de los datos de las personas: “En los modelos de inteligencia artificial, los datos son los que alimentan los modelos que se implementan para los usuarios”, explicó Martínez. El académico señaló que se requieren protocolos para resguardar los datos de forma adecuada y que los usuarios pueden decidir si quieren brindar o no su información, además de que, desde una perspectiva ética y humanista, “los modelos de IA deben mantenerse bajo supervisión humana en todas las etapas del proceso”.
En la misma línea, Durango indicó que uno de los principales riesgos de la falta de regulación está en la sobreexposición de datos:
“Una sobreexposición es cuando yo le suministro datos a una institución y esa institución comienza a compartir esos datos con otras instituciones, sin los controles adecuados, sin controles de seguridad de la información, controles legales, etc”, apuntó el experto.
El abogado explicó que entre más datos personales tengan los terceros, mayor riesgo hay de que esa información sea vulnerada o exfiltrada y caiga en manos de personas que puedan atentar contra la población:
“No solo es un tema de privacidad, que ya es un derecho fundamental, sino que además pueden tomar esos datos y crear un perfil de ese ciudadano para buscar cometer algún acto ilícito, llamémoslo una estafa informática, que al día de hoy se cuentan por miles las denuncias en un solo año”, concluyó Durango.
UNIVERSIDAD envió una serie de consultas al Micitt sobre este tema, sin embargo, al cierre de edición no se logró obtener una respuesta.
La entrada Gobierno da la espalda a Europa y mira hacia EE.UU. en regulación de inteligencia artificial aparece primero en Semanario Universidad.
Sigue leyendo...