L
Lorena Naranjo Godoy
Guest
La política, al igual que la vida, se está virtualizando progresivamente. La aceleración tecnológica ha impulsado a las campañas electorales a una nueva etapa, la de las “campañas algorítmicas”. La Inteligencia Artificial (IA) ha trascendido su estatus inicial de herramienta tecnológica especializada para convertirse en un agente transformador esencial que está redefiniendo fundamentalmente la esfera pública a escala global.
Este fenómeno no es ajeno a Ecuador. Durante las recientes elecciones del Referéndum y Consulta Popular 2025, la IA no solo estuvo presente, sino que se integró directamente en el proceso de información ciudadana. Una encuesta digital en ciudades como Quito, Guayaquil y Cuenca reveló que los votantes utilizaron chats automatizados (chatbots) para resolver dudas sobre las preguntas e, incluso, para pedir orientación de voto.
Si bien los jóvenes fueron los que más consultaron estas herramientas, el impacto percibido fue transversal. El estudio indicó que hasta el 72% de los “baby boomers” (generaciones de mayor edad) afirmaron que las respuestas de la IA influirían “poco, algo o bastante” en su voto.
Este uso, en principio, representa una oportunidad para optimizar la comunicación política y mejorar la capacidad de los líderes y organismos electorales para acercarse a la población. Alivia la carga de información y permite una comprensión diferenciada de los escenarios.
Sin embargo, el protagonismo de la tecnología en las campañas electorales viene acompañado de una amenaza latente para la democracia, la erosión de la confianza.
La IA no solo ayuda a informar, sino que también aumenta la capacidad de persuasión y disuasión de partidos y candidatos. Sus técnicas permiten una microsegmentación extrema del electorado y el uso de mensajes con una fuerte carga emocional y manipulativa, todo mediado por algoritmos. El problema se agrava con el creciente uso de la IA generativa para crear contenido sintético, como los deepfakes, que complican los esfuerzos por garantizar procesos informados y creíbles.
El reto más urgente, identificado por expertos en la Coalición de Acción del PNUD, a través de establecer un marco de transparencia y rendición de cuentas. Este marco debe equilibrar la promoción de la innovación tecnológica con la protección de la libre formación de la voluntad popular. (Tomado de Strengthening Information Integrity in Elections: Insights from the 2025 Action Coalition Strategic Dialogue”, Programa de las Naciones Unidas para el Desarrollo (PNUD)
La falta de un marco legal claro crea un “conflicto normativo” al dificultar la determinación de la autoría o la intencionalidad legal del contenido sintético, a la vez que se afronta el “dilema de la proliferación”, donde una sobrerregulación puede frenar la innovación, pero la falta de ella puede llevar a la manipulación masiva.
Aún más alarmante es el riesgo de la supresión del voto algorítmica. El microtargeting y la IA pueden ser utilizados no solo para persuadir, sino para disuadir y excluir a votantes específicos, especialmente aquellos de bajos recursos o minorías, manipulando la logística electoral o difundiendo desinformación sobre dónde y cómo votar. Estas estrategias modernas de discriminación provocan largas esperas en las urnas y debilitan el poder de comunidades específicas, como ya ha ocurrido en algunas elecciones en Estados Unidos, (Brennan Center of Justice, 2025).
Cuando los algoritmos opacos y sesgados crean “cámaras de eco”, la esfera pública se fragmenta, volviéndose inducida e irreal. El ciudadano corre el riesgo de recibir únicamente información que refuerza sus burbujas identitarias, lo que debilita el debate público racional, libre e informado.
Estamos, por tanto, en una época de “elecciones de alto riesgo“. La pregunta ya no es si la tecnología es buena o mala, sino cómo gestionamos sus aplicaciones para mitigar sus efectos negativos.
Como ciudadanos debemos guiarnos por los principios de la verdad, análisis crítico y responsabilidad pública. Si bien es difícil cuantificar si estas prácticas logran alterar los resultados de una elección, sí está claro que suponen una amenaza al atacar la raíz de la democracia, la confianza.
Es crucial exigir a las plataformas tecnológicas y a los actores políticos la máxima transparencia en el uso de la IA y el microtargeting. La autorregulación se ha demostrado insuficiente; será necesario revisar la necesidad de una normativa que garanticen la integridad del proceso electoral.
El diseño de la tecnología es, en esencia, el diseño de la sociedad que queremos. Si no actuamos con rigor y responsabilidad, corremos el riesgo de que la promesa de una IA que mejora la comunicación se convierta en la sombra de una herramienta que socava la legitimidad de nuestro voto.
Solo a través de la verificación constante, el contraste de fuentes y la educación mediática podremos asegurar que la voz que resuene en las urnas sea la de los ciudadanos, y no la de un algoritmo.
Sigue leyendo...
Este fenómeno no es ajeno a Ecuador. Durante las recientes elecciones del Referéndum y Consulta Popular 2025, la IA no solo estuvo presente, sino que se integró directamente en el proceso de información ciudadana. Una encuesta digital en ciudades como Quito, Guayaquil y Cuenca reveló que los votantes utilizaron chats automatizados (chatbots) para resolver dudas sobre las preguntas e, incluso, para pedir orientación de voto.
Si bien los jóvenes fueron los que más consultaron estas herramientas, el impacto percibido fue transversal. El estudio indicó que hasta el 72% de los “baby boomers” (generaciones de mayor edad) afirmaron que las respuestas de la IA influirían “poco, algo o bastante” en su voto.
Este uso, en principio, representa una oportunidad para optimizar la comunicación política y mejorar la capacidad de los líderes y organismos electorales para acercarse a la población. Alivia la carga de información y permite una comprensión diferenciada de los escenarios.
El Desafío de la Confianza y la Realidad Sintética
Sin embargo, el protagonismo de la tecnología en las campañas electorales viene acompañado de una amenaza latente para la democracia, la erosión de la confianza.
La IA no solo ayuda a informar, sino que también aumenta la capacidad de persuasión y disuasión de partidos y candidatos. Sus técnicas permiten una microsegmentación extrema del electorado y el uso de mensajes con una fuerte carga emocional y manipulativa, todo mediado por algoritmos. El problema se agrava con el creciente uso de la IA generativa para crear contenido sintético, como los deepfakes, que complican los esfuerzos por garantizar procesos informados y creíbles.
El reto más urgente, identificado por expertos en la Coalición de Acción del PNUD, a través de establecer un marco de transparencia y rendición de cuentas. Este marco debe equilibrar la promoción de la innovación tecnológica con la protección de la libre formación de la voluntad popular. (Tomado de Strengthening Information Integrity in Elections: Insights from the 2025 Action Coalition Strategic Dialogue”, Programa de las Naciones Unidas para el Desarrollo (PNUD)
La falta de un marco legal claro crea un “conflicto normativo” al dificultar la determinación de la autoría o la intencionalidad legal del contenido sintético, a la vez que se afronta el “dilema de la proliferación”, donde una sobrerregulación puede frenar la innovación, pero la falta de ella puede llevar a la manipulación masiva.
Aún más alarmante es el riesgo de la supresión del voto algorítmica. El microtargeting y la IA pueden ser utilizados no solo para persuadir, sino para disuadir y excluir a votantes específicos, especialmente aquellos de bajos recursos o minorías, manipulando la logística electoral o difundiendo desinformación sobre dónde y cómo votar. Estas estrategias modernas de discriminación provocan largas esperas en las urnas y debilitan el poder de comunidades específicas, como ya ha ocurrido en algunas elecciones en Estados Unidos, (Brennan Center of Justice, 2025).
Cuando los algoritmos opacos y sesgados crean “cámaras de eco”, la esfera pública se fragmenta, volviéndose inducida e irreal. El ciudadano corre el riesgo de recibir únicamente información que refuerza sus burbujas identitarias, lo que debilita el debate público racional, libre e informado.
Estamos, por tanto, en una época de “elecciones de alto riesgo“. La pregunta ya no es si la tecnología es buena o mala, sino cómo gestionamos sus aplicaciones para mitigar sus efectos negativos.
Hacia una Opinión Responsable
Como ciudadanos debemos guiarnos por los principios de la verdad, análisis crítico y responsabilidad pública. Si bien es difícil cuantificar si estas prácticas logran alterar los resultados de una elección, sí está claro que suponen una amenaza al atacar la raíz de la democracia, la confianza.
Es crucial exigir a las plataformas tecnológicas y a los actores políticos la máxima transparencia en el uso de la IA y el microtargeting. La autorregulación se ha demostrado insuficiente; será necesario revisar la necesidad de una normativa que garanticen la integridad del proceso electoral.
El diseño de la tecnología es, en esencia, el diseño de la sociedad que queremos. Si no actuamos con rigor y responsabilidad, corremos el riesgo de que la promesa de una IA que mejora la comunicación se convierta en la sombra de una herramienta que socava la legitimidad de nuestro voto.
Solo a través de la verificación constante, el contraste de fuentes y la educación mediática podremos asegurar que la voz que resuene en las urnas sea la de los ciudadanos, y no la de un algoritmo.
Sigue leyendo...