Editoriales

OPINIÓN

La IA que vota por ti

Pulso Electoral

La IA que vota por ti

La IA que vota por ti

OMAR ORTEGA SORIA

La inteligencia artificial (IA) ha tenido un avance exponencial, se ha convertido en una herramienta muy eficiente y peligrosa en todo cuarto de guerra electoral; justamente esta semana, en el marco de la próxima presentación de la reforma electoral, la Presidenta Sheinbaum puso en la agenda pública la necesidad de regularla, lo que sin lugar a dudas es muy necesario.

Hace apenas un par de años, nos sorprendíamos con imágenes mal editadas que delataban su falsedad al primer vistazo. Hoy, esa barrera ha desaparecido; la IA ha democratizado el engaño; lo que antes requería un estudio de postproducción en Hollywood, hoy lo hace un usuario con una suscripción básica desde su celular. Cualquiera puede clonar una voz, fabricar un video o difundir una noticia falsa hiperrealista en cuestión de segundos. El riesgo no es solo la mentira en sí, sino la perdida de la confianza: cuando todo puede ser falso, el ciudadano deja de creer incluso en lo que es verdad.

Los ejemplos globales son una advertencia: en las primarias de Estados Unidos de 2024, miles de votantes recibieron llamadas con la voz clonada de Joe Biden instándolos a no votar; mientras que en Argentina, la elección presidencial entre Sergio Massa y Javier Milei fue el primer ambicioso experimento de guerra generada por IA, donde los candidatos fueron transformados en héroes o villanos de película.

En México, ya hemos tenido varios ejemplos, desde el audio clonado de Batres, presuntamente dando instrucciones políticas o los videos deepfake de la propia Sheinbaum invitando a invertir en fraudes financieros. Peor aún, la semana pasada vimos cómo la herramienta Grok inundó las redes con imágenes polémicas que rozan la difamación sin control editorial alguno.

Mientras en México apenas se abre el debate legislativo, en la Unión Europea, ya ha clasificado a los sistemas que influyen en los votantes como de alto riesgo. Allá, las etiquetas de contenido generado por IA no son una sugerencia, sino una obligación legal. Se busca que, si un algoritmo intenta convencerte, al menos sepas que es un programa quien está detrás.

No basta con la buena voluntad de las plataformas tecnológicas ni con códigos de ética voluntarios, necesitamos una legislación que obligue a la transparencia del famoso algoritmo y penalice el uso malicioso de deepfakes. El peligro real de la próxima elección no es solo la polarización, la intervención del crimen organizado o el uso del dinero ilícito, sino que la ciudadanía acuda a las urnas convencida por una mentira generada artificialmente.

Regular no es frenar la innovación; es blindar la democracia para que, al final del día, quien decida siga siendo el ciudadano de carne y hueso y no el que manipule mejor con alguna inteligencia artificial.

X @omarortegasoria

Escrito en: Pulso Electoral sino, inteligencia, próxima, solo

Noticias relacionadas

EL SIGLO RECIENTES

+ Más leídas de Editoriales

TE PUEDE INTERESAR

LECTURAS ANTERIORES

Fotografías más vistas