Inteligencia artificial: La contendiente electoral que lleva la delantera

Ya arrancó la contienda electoral rumbo a los comicios que se celebrarán en México el próximo 2024, todos los partidos políticos están alistando a sus mejores candidatos y candidatas. Sin embargo, en estas elecciones la principal contendiente será la inteligencia artificial...

Ya arrancó la contienda electoral rumbo a los comicios que se celebrarán en México el próximo 2024, todos los partidos políticos están alistando a sus mejores candidatos y candidatas. Sin embargo, en estas elecciones la principal contendiente será la inteligencia artificial…

Es una rival fuerte, la cual puede usarse para mejorar las elecciones, la democracia y el Estado de derecho, aunque también para desprestigiar y dañar la imagen pública de las y los candidatos y modificar así la intención de votos. En estas elecciones hay que prestar mucha atención y cuidado a las llamadas deepfakes, una herramienta que uti­liza inteligencia artificial para crear video-monta­jes que pueden engañar al espectador porque son casi imposibles de detectar.

INTELIGENCIA ARTIFICIAL EN LAS ELECCIONES

Desde hace ya varios años se ha utilizado a la inteligencia artificial en las elecciones de todo el mundo y México no ha sido la excepción. Se ha usado para el análisis de grandes volúmenes de datos y predecir resultados electorales basados en tendencias y patrones históricos. También se ha empleado para analizar y comprender el sentimiento expresado por los usuarios en redes sociales respecto a las y los candidatos y los temas del momento, lo que puede contribuir a modificar las estrategias y realizar campañas más exitosas. Por ejemplo, con ayuda de la inteligencia artificial se logran identificar de manera más precisa grupos específicos de votantes y personalizar mensajes, lo que maximiza el impacto y ayuda a optimizar la inversión en mercadotecnia.

La inteligencia artificial también ha contri­buido en la seguridad de las elecciones al identificar patrones de comportamiento inusuales que pudieran interferir en el proceso electoral, como los ciberataques o intentos de manipulación de votos electrónicos. Asimismo, la inteligencia ar­tificial ha facilitado el sufragio con el desarrollo de sistemas de votación electrónica más seguros y eficientes. Por otra parte, en un futuro podría ayudar a hacer más accesible la votación para personas con discapacidad, por ejemplo, median­te tecnologías de reconocimiento de voz o rostro.

Del mismo modo, esta herramienta se ha uti­lizado para insertar asistentes virtuales en sitios web y redes sociales para responder las preguntas más recurrentes de los votantes.

EL LADO OSCURO DE LA INTELIGENCIA ARTIFICIAL

Si bien la inteligencia artificial se puede usar para mejorar las elecciones como ya se expuso, tam­bién se ha utilizado para fines poco éticos que han modificado el resultado de las elecciones, tal es el caso de Cambridge Analytica en 2018. Esta consultora adquirió de forma indebida informa­ción de 50 millones de usuarios de la red social Facebook en Estados Unidos. Con dichos datos logró saber cuál debía ser el contenido, tema y tono de los mensajes para cambiar la forma de pensar de los votantes de una forma casi indivi­dualizada de tal suerte que resultara irresistible y así hiciera efecto.

La compañía no solo envió publicidad perso­nalizada, sino que desarrolló noticias falsas que luego esparció a través de redes sociales, blogs y medios, para construir una hiperrealidad que trascendió mundo digital al offline y cambió el resultado de las elecciones. Esto prendió las alar­mas en todo el mundo porque evidenció el uso deshonesto de la inteligencia artificial para bene­ficiar a ciertos actores políticos. Aunque fue en Estados Unidos, en México ya también se han registrado ciertos casos irregulares como los lla­mados «PeñaBots».

Los «PeñaBots» eran cuentas de «usuarios» automatizados en Twitter y Facebook que tenían como propósitos: enviar mensajes positivos a las publicaciones del entonces candidato Enrique Peña Nieto y «sepultar» comentarios negativos y noticias falsas.

Por desgracia los «Peñabots» abrieron «escue­lita» para otros políticos y políticas. Como bien señala Gabriel Sosa Plata en su artículo «“Peña­bots” y el fracaso de la comunicación política», publicado en 2016 en el portal SinEmbargo:

Los «Peñabots» no desaparecerán. Luego vendrán los «Osoriobots», los «Zavalabots» o los «Peje­bots». Su uso parece ser una práctica frecuente de nuestra clase política, que busca ser un sustituto o complemento en la era infocomunicacional de los acarreos masivos a cualquier acto de campaña o de gobierno. Es una expresión de la calidad de nues­tra democracia y de los enormes retos que tenemos como sociedad. Identificar, convivir y rechazar a estos usuarios virtuales y pagados es también parte de nuestros aprendizajes sobre el mundo digital

En la actualidad el reto es mayor, ya que no solo es identificar y rechazar usuarios falsos, sino de­tectar las noticias falsas, las cuales se vuelven cada vez más complejas, y los videos falsos creados con deepfakes.

DEEPFAKES, LAS NUEVAS JUGADORAS ELECTORALES

Las deepfakes utilizan inteligencia artificial para crear contenido falso, como videos, imágenes o grabaciones de audio, que parecen tan rea­les, pero han sido generados por algoritmos de aprendizaje profundo. Se basan en técnicas de inteligencia artificial conocidas como redes gene­rativas antagónicas (GAN, por sus siglas en inglés). Estas son sistemas de aprendizaje profundo que pueden generar datos nuevos e increíblemente realistas después de ser entrenados con grandes conjuntos de datos.

Estas redes tienen dos elementos funda­mentales: un generador de contenido falso y un discriminador que evalúa la autenticidad del contenido generado. Estas dos partes tra­bajan en conjunto para mejorar continuamen­te la calidad del contenido falso hasta que sea casi indistinguible del contenido real. Un ejem­plo de ello son las fotos falsas del ex Presidente Donald Trump detenido por el FBI, las cuales se volvieron virales en redes. Esas imágenes pare­cían tan reales, pues mostraban gestos carac­terísticos del exmandatario. Otro ejemplo son las fotografías falsas del papa Francisco vestido con ropa deportiva, en particular una peculiar chamarra blanca; también están las representa­ciones pornográficas de cantantes y artistas de Hollywood; o la foto de una explosión en el Pentágono, entre muchas otras.

Si bien esta herramienta le favorece a in­dustrias como la de entretenimiento para crear efectos especiales y para reemplazar a actores en escenas peligrosas, existe la preocupación de que pueda ser utilizada para cometer fraudes, como suplantación de identidad en videos o grabaciones de audio, además de que se use para manipulación electoral, al realizar y viralizar videos falsos de políticos o figuras públicas para dañar su imagen e impactar los resultados de la contienda.

Esto afectaría de manera crítica la llama­da integridad electoral que plantea la abogada Paula S. Suárez, en el artículo «La inteligencia artificial (IA) y las elecciones: breves y primeras reflexiones sobre el uso, el impacto y la influencia de la IA en los procesos electorales», publicado en julio de 2023, en la revista Pensar en Derecho. Ella plantea que un aspecto central de cualquier sistema democrático constitucional es la integri­dad electoral, la cual se vuelve más vulnerable ante la inteligencia artificial, en particular ante las deepfakes:

El concepto de integridad electoral y su correla­to negativo, el de mala práctica electoral, se han convertido en objeto de intenso debate y de inves­tigaciones académicas en los últimos tiempos [por­que] el control político está cambiando de mando aceleradamente, la esfera pública transita hacia su instalación en el mundo virtual, en el campo y am­biente originario de la Inteligencia Artificial.

¿ESTAMOS PREPARADOS PARA ENFRENTAR A LA INTELIGENCIA ARTIFICIAL?

Para algunos politólogos, sociólogos e incluso algunos abogados, la inteligencia artificial no in­venta el hilo negro en el tema de «guerra sucia» en las elecciones, ya que la manipulación, co­rrupción, abuso y fraude electoral siempre han existido y hay reglamentos y sanciones para esos actos.

Para el doctor Jesús Manuel Niebla Zatara­in, investigador de la Facultad de Derecho Ma­zatlán, de la Universidad Autónoma de Sinaloa (UAS) y especialista en derecho e inteligencia ar­tificial, México sí está preparado jurídicamen­te para este tipo de guerra sucia electoral. En entrevista para este artículo, señaló que ante casos de deepfakes en procesos electorales el o la afectada deberán avisar al Tribunal Electoral del Poder Judicial de la Federación para que sea la instancia que reporte o dé aviso a las plata­formas o redes que eliminen el contenido falso y que se identifique el usuario que comenzó la propagación.

No obstante, aquí hay dos cuestiones relevan­tes a tomar en cuenta: una que si el video se em­pieza a propagar por WhatsApp será imposible rastrear desde qué número se comenzó a esparcir. Además, el grave peligro de este tipo materiales falsos en las contiendas electorales es que una vez que causan el daño es difícil y tardado revertirlo.

ÉTICA PARA INTELIGENCIA ARTIFICIAL

Ante el uso faccioso de la inteligencia artificial, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) pu­blicó en 2022 el documento Recomendación sobre la ética de la inteligencia artificial. Este tiene como objetivo servir de base para poner los sistemas de inteligencia artificial al servicio de la humanidad, las sociedades y el medio ambiente, así como para prevenir daños. Asimismo, aspira también a estimular la utilización de dichos sistemas con fines pacíficos.

Por ejemplo, establece que

Ningún ser humano ni comunidad humana de­bería sufrir daños o sometimiento, ya sean de ca­rácter físico, económico, social, político, cultural o mental, durante ninguna etapa del ciclo de vida de los sistemas de IA. A lo largo de su ciclo de vida, los sistemas de IA deberían mejorar la cali­dad de vida de los seres humanos, dejando a las personas o los grupos la tarea de definir el con­cepto de «calidad de vida», siempre que como re­sultado de esa definición no se produzca ninguna violación o abuso de los derechos humanos y las libertades fundamentales ni de la dignidad de las personas (p. 18).

También determina que

Los sistemas algorítmicos requieren evaluaciones adecuadas del impacto en la privacidad, que in­cluyan también consideraciones sociales y éticas de su utilización y un empleo innovador del enfoque de privacidad desde la etapa de concepción. Los actores de la IA deben asumir la responsabilidad de la concepción y la aplicación de los sistemas de UA, de manera que se garantice la protección de la información personal durante todo el ciclo de vida del sistema de ia (p. 22).

Además, subraya que los Gobiernos de los Esta­dos miembros deberían establecer sus políticas de datos o marcos equivalentes, o reforzar las ya existentes, para garantizar la seguridad total de los datos personales y los datos sensibles que, de ser divulgados, puedan causar daños, lesiones o dificultades excepcionales a las personas, por ejemplo, la información relativa a procesos pena­les y condenas, los datos biométricos, genéticos y de salud; la condición económica o social de nacimiento, la discapacidad o cualquier otra ca­racterística.

Como dejan entrever estas recomendaciones, son sugerencias para quienes diseñan, desarro­llan, entrenan y emplean la inteligencia artificial, no para los algoritmos como tal, ya que como han señalado diversos especialistas, esta tecnolo­gía es complicado que adquiera códigos de ética.

El doctor Raúl Rojas, especialista en inteli­gencia artificial y vehículos autónomos de la Uni­versidad Libre de Berlín, explicó en el artículo «Cuando la inteligencia artificial nos supere», publicado en 2018 en el portal CienciaMx, que no se le podrá enseñar un marco ético a la máquina, lo que determinará la aplicación serán las per­sonas, los ingenieros y programadores, quienes deben tener claro que deben construir máquinas inteligentes al servicio del ser humano y para su beneficio.

«Si la computadora va a tomar decisiones éticas, serán las que se le programen, entonces será la ética del programador. Hay que recordar que las máquinas son nuestros esclavos, porque el programador le dice lo que tiene que hacer, la máquina no tiene razonamiento ni libre albedrío, es decir, no está tomando decisiones por sí mis­ma», subraya Raúl Rojas.

ELECTORES MÁS CRÍTICOS

Ante este panorama sería importante que se con­tara con una regulación efectiva en el ámbito de las redes sociales e inteligencia artificial para garantizar un juego limpio y transparente en las campañas electorales. También sería convenien­te que el Instituto Nacional Electoral (INE) esta­bleciera acuerdos con empresas como Google, Facebook, Twitter y YouTube para garantizar la transparencia en la difusión de campañas y hacer un diagnóstico de los algoritmos que po­drían estar sesgados, como lo propone John Ac­kerman, director del Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad de la UNAM, en la nota «Urgente regular redes so­ciales rumbo a comicios 2024: John Ackerman», publicada el 9 de octubre de 2023 en El Sol de México.

Mientras eso sucede y si no se logran acuerdos antes de las elecciones de 2024, que es lo más se­guro, necesitamos que los electores sean más crí­ticos con el contenido electoral y de candidatos y candidatas que ven en redes sociales. Asimismo, que revisen más antes de compartir cualquier vi­deo, foto o audio de esta índole, por ejemplo, que vea si algún medio de comunicación menciona algo al respecto, ya que los medios y periodistas tienen la obligación de corroborar el contenido que difunden, porque si bien si es complicado de­terminar si una imagen o audio ha sido manipu­lado o creado con inteligencia artificial, existen ya algunas herramientas para verificar.

_________

Referencias

BBC Mundo (2018). «5 claves para entender el escándalo de Cam­bridge Analytica que hizo que Facebook perdiera US$37.000 millones en un día», BBC Mundo.

Gutiérrez-Rubi, Antoni (2023). «La inteligencia artificial entra a las campañas electorales: ¿cómo impactará en Latinoamé­rica», El País.

Jiménez, Alejandro (2023). «Urgente regular redes sociales rumbo a comicios 2024: John Ackerman», El Sol de México.

Johnson, Dave (2021). «¿Qué es un deepfake? Todo lo que nece­sitas saber sobre esta tecnología para hacer noticias falsas con IA», Business Insider México.

Klein, Ezra (2023). «El verdadero peligro inminente de la inteli­gencia artificial», The New York Times.

Ley General de Acceso de las Mujeres a una Vida Libre de Vio­lencia. Diario Oficial de la Federación del 8 de mayo de 2023.

Organización Mundial de la Salud (2021). Ética y gobernanza de la inteligencia artificial en el ámbito de la salud: orientaciones de la OMS: resumen. Ginebra: Organización Mundial de la Salud.

Sánchez, Verenise (2018). «Cuando la inteligencia artificial nos supere», Cienciamx Noticias.

SinEmbargo (2012). «Descubren a “Bots” de Peña manipulando redes para reventar #MarchaAntiEPN y simular apoyo en Tabasco», SinEmbargo.

Sosa Plata Gabriel (2016). «“Peñabots” y el fracaso de la comu­nicación política», SinEmbargo.

Suárez, Paula S. (2023). «La inteligencia artificial (IA) y las elec­ciones: breves y primeras reflexiones sobre el uso, el im­pacto y la influencia de la IA en los procesos electorales», Pensar en Derecho.

UNESCO(2022). Recomendación sobre la ética de la inteligencia artifi­cial. París: UNESCO.

Warzel, Charlie (2018). «Believable: The Terrifying Future Of Fake News», BuzzFeed News.


AUTORA

Verenise Sánchez

Maestra y periodista científica adscrita al Instituto de Cien­cias Nucleares de la UNAM, colaboradora con Fernanda Tapia en el programa Capital por cual, de Capital 21.

Audio narración: Melina García


Este artículo aparece en
Punto Dorsal #4
A un clic del futuro
Miradas políticas de la ciencia y la tecnología

Autor

Punto Dorsal
Punto Dorsal, Revista de cultura política es una publicación periódica de difusión de la cultura política y de la participación ciudadana de la Comisión Estatal Electoral Nuevo León.

Estos temas pueden interesarte

Las infancias tienen derecho al cuidado, ¿cómo son las políticas públicas que aseguran este derecho y qué se puede hacer para mejorarlo? La abogada Cristela Trejo Ortiz reflexiona al respecto.
Verifica siempre tus fuentes de información con pensamiento crítico y mirada científica, porque gracias al asombroso realismo de mucho del contenido generado con IA podrías estar difundiendo noticias falsas, como las de estas imágenes.