Ya arrancó la contienda electoral rumbo a los comicios que se celebrarán en México el próximo 2024, todos los partidos políticos están alistando a sus mejores candidatos y candidatas. Sin embargo, en estas elecciones la principal contendiente será la inteligencia artificial…
Es una rival fuerte, la cual puede usarse para mejorar las elecciones, la democracia y el Estado de derecho, aunque también para desprestigiar y dañar la imagen pública de las y los candidatos y modificar así la intención de votos. En estas elecciones hay que prestar mucha atención y cuidado a las llamadas deepfakes, una herramienta que utiliza inteligencia artificial para crear video-montajes que pueden engañar al espectador porque son casi imposibles de detectar.
INTELIGENCIA ARTIFICIAL EN LAS ELECCIONES
Desde hace ya varios años se ha utilizado a la inteligencia artificial en las elecciones de todo el mundo y México no ha sido la excepción. Se ha usado para el análisis de grandes volúmenes de datos y predecir resultados electorales basados en tendencias y patrones históricos. También se ha empleado para analizar y comprender el sentimiento expresado por los usuarios en redes sociales respecto a las y los candidatos y los temas del momento, lo que puede contribuir a modificar las estrategias y realizar campañas más exitosas. Por ejemplo, con ayuda de la inteligencia artificial se logran identificar de manera más precisa grupos específicos de votantes y personalizar mensajes, lo que maximiza el impacto y ayuda a optimizar la inversión en mercadotecnia.
La inteligencia artificial también ha contribuido en la seguridad de las elecciones al identificar patrones de comportamiento inusuales que pudieran interferir en el proceso electoral, como los ciberataques o intentos de manipulación de votos electrónicos. Asimismo, la inteligencia artificial ha facilitado el sufragio con el desarrollo de sistemas de votación electrónica más seguros y eficientes. Por otra parte, en un futuro podría ayudar a hacer más accesible la votación para personas con discapacidad, por ejemplo, mediante tecnologías de reconocimiento de voz o rostro.
Del mismo modo, esta herramienta se ha utilizado para insertar asistentes virtuales en sitios web y redes sociales para responder las preguntas más recurrentes de los votantes.
EL LADO OSCURO DE LA INTELIGENCIA ARTIFICIAL
Si bien la inteligencia artificial se puede usar para mejorar las elecciones como ya se expuso, también se ha utilizado para fines poco éticos que han modificado el resultado de las elecciones, tal es el caso de Cambridge Analytica en 2018. Esta consultora adquirió de forma indebida información de 50 millones de usuarios de la red social Facebook en Estados Unidos. Con dichos datos logró saber cuál debía ser el contenido, tema y tono de los mensajes para cambiar la forma de pensar de los votantes de una forma casi individualizada de tal suerte que resultara irresistible y así hiciera efecto.
La compañía no solo envió publicidad personalizada, sino que desarrolló noticias falsas que luego esparció a través de redes sociales, blogs y medios, para construir una hiperrealidad que trascendió mundo digital al offline y cambió el resultado de las elecciones. Esto prendió las alarmas en todo el mundo porque evidenció el uso deshonesto de la inteligencia artificial para beneficiar a ciertos actores políticos. Aunque fue en Estados Unidos, en México ya también se han registrado ciertos casos irregulares como los llamados «PeñaBots».
Los «PeñaBots» eran cuentas de «usuarios» automatizados en Twitter y Facebook que tenían como propósitos: enviar mensajes positivos a las publicaciones del entonces candidato Enrique Peña Nieto y «sepultar» comentarios negativos y noticias falsas.
Por desgracia los «Peñabots» abrieron «escuelita» para otros políticos y políticas. Como bien señala Gabriel Sosa Plata en su artículo «“Peñabots” y el fracaso de la comunicación política», publicado en 2016 en el portal SinEmbargo:
Los «Peñabots» no desaparecerán. Luego vendrán los «Osoriobots», los «Zavalabots» o los «Pejebots». Su uso parece ser una práctica frecuente de nuestra clase política, que busca ser un sustituto o complemento en la era infocomunicacional de los acarreos masivos a cualquier acto de campaña o de gobierno. Es una expresión de la calidad de nuestra democracia y de los enormes retos que tenemos como sociedad. Identificar, convivir y rechazar a estos usuarios virtuales y pagados es también parte de nuestros aprendizajes sobre el mundo digital
En la actualidad el reto es mayor, ya que no solo es identificar y rechazar usuarios falsos, sino detectar las noticias falsas, las cuales se vuelven cada vez más complejas, y los videos falsos creados con deepfakes.
DEEPFAKES, LAS NUEVAS JUGADORAS ELECTORALES
Las deepfakes utilizan inteligencia artificial para crear contenido falso, como videos, imágenes o grabaciones de audio, que parecen tan reales, pero han sido generados por algoritmos de aprendizaje profundo. Se basan en técnicas de inteligencia artificial conocidas como redes generativas antagónicas (GAN, por sus siglas en inglés). Estas son sistemas de aprendizaje profundo que pueden generar datos nuevos e increíblemente realistas después de ser entrenados con grandes conjuntos de datos.
Estas redes tienen dos elementos fundamentales: un generador de contenido falso y un discriminador que evalúa la autenticidad del contenido generado. Estas dos partes trabajan en conjunto para mejorar continuamente la calidad del contenido falso hasta que sea casi indistinguible del contenido real. Un ejemplo de ello son las fotos falsas del ex Presidente Donald Trump detenido por el FBI, las cuales se volvieron virales en redes. Esas imágenes parecían tan reales, pues mostraban gestos característicos del exmandatario. Otro ejemplo son las fotografías falsas del papa Francisco vestido con ropa deportiva, en particular una peculiar chamarra blanca; también están las representaciones pornográficas de cantantes y artistas de Hollywood; o la foto de una explosión en el Pentágono, entre muchas otras.
Si bien esta herramienta le favorece a industrias como la de entretenimiento para crear efectos especiales y para reemplazar a actores en escenas peligrosas, existe la preocupación de que pueda ser utilizada para cometer fraudes, como suplantación de identidad en videos o grabaciones de audio, además de que se use para manipulación electoral, al realizar y viralizar videos falsos de políticos o figuras públicas para dañar su imagen e impactar los resultados de la contienda.
Esto afectaría de manera crítica la llamada integridad electoral que plantea la abogada Paula S. Suárez, en el artículo «La inteligencia artificial (IA) y las elecciones: breves y primeras reflexiones sobre el uso, el impacto y la influencia de la IA en los procesos electorales», publicado en julio de 2023, en la revista Pensar en Derecho. Ella plantea que un aspecto central de cualquier sistema democrático constitucional es la integridad electoral, la cual se vuelve más vulnerable ante la inteligencia artificial, en particular ante las deepfakes:
El concepto de integridad electoral y su correlato negativo, el de mala práctica electoral, se han convertido en objeto de intenso debate y de investigaciones académicas en los últimos tiempos [porque] el control político está cambiando de mando aceleradamente, la esfera pública transita hacia su instalación en el mundo virtual, en el campo y ambiente originario de la Inteligencia Artificial.
¿ESTAMOS PREPARADOS PARA ENFRENTAR A LA INTELIGENCIA ARTIFICIAL?
Para algunos politólogos, sociólogos e incluso algunos abogados, la inteligencia artificial no inventa el hilo negro en el tema de «guerra sucia» en las elecciones, ya que la manipulación, corrupción, abuso y fraude electoral siempre han existido y hay reglamentos y sanciones para esos actos.
Para el doctor Jesús Manuel Niebla Zatarain, investigador de la Facultad de Derecho Mazatlán, de la Universidad Autónoma de Sinaloa (UAS) y especialista en derecho e inteligencia artificial, México sí está preparado jurídicamente para este tipo de guerra sucia electoral. En entrevista para este artículo, señaló que ante casos de deepfakes en procesos electorales el o la afectada deberán avisar al Tribunal Electoral del Poder Judicial de la Federación para que sea la instancia que reporte o dé aviso a las plataformas o redes que eliminen el contenido falso y que se identifique el usuario que comenzó la propagación.
No obstante, aquí hay dos cuestiones relevantes a tomar en cuenta: una que si el video se empieza a propagar por WhatsApp será imposible rastrear desde qué número se comenzó a esparcir. Además, el grave peligro de este tipo materiales falsos en las contiendas electorales es que una vez que causan el daño es difícil y tardado revertirlo.
ÉTICA PARA INTELIGENCIA ARTIFICIAL
Ante el uso faccioso de la inteligencia artificial, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó en 2022 el documento Recomendación sobre la ética de la inteligencia artificial. Este tiene como objetivo servir de base para poner los sistemas de inteligencia artificial al servicio de la humanidad, las sociedades y el medio ambiente, así como para prevenir daños. Asimismo, aspira también a estimular la utilización de dichos sistemas con fines pacíficos.
Por ejemplo, establece que
Ningún ser humano ni comunidad humana debería sufrir daños o sometimiento, ya sean de carácter físico, económico, social, político, cultural o mental, durante ninguna etapa del ciclo de vida de los sistemas de IA. A lo largo de su ciclo de vida, los sistemas de IA deberían mejorar la calidad de vida de los seres humanos, dejando a las personas o los grupos la tarea de definir el concepto de «calidad de vida», siempre que como resultado de esa definición no se produzca ninguna violación o abuso de los derechos humanos y las libertades fundamentales ni de la dignidad de las personas (p. 18).
También determina que
Los sistemas algorítmicos requieren evaluaciones adecuadas del impacto en la privacidad, que incluyan también consideraciones sociales y éticas de su utilización y un empleo innovador del enfoque de privacidad desde la etapa de concepción. Los actores de la IA deben asumir la responsabilidad de la concepción y la aplicación de los sistemas de UA, de manera que se garantice la protección de la información personal durante todo el ciclo de vida del sistema de ia (p. 22).
Además, subraya que los Gobiernos de los Estados miembros deberían establecer sus políticas de datos o marcos equivalentes, o reforzar las ya existentes, para garantizar la seguridad total de los datos personales y los datos sensibles que, de ser divulgados, puedan causar daños, lesiones o dificultades excepcionales a las personas, por ejemplo, la información relativa a procesos penales y condenas, los datos biométricos, genéticos y de salud; la condición económica o social de nacimiento, la discapacidad o cualquier otra característica.
Como dejan entrever estas recomendaciones, son sugerencias para quienes diseñan, desarrollan, entrenan y emplean la inteligencia artificial, no para los algoritmos como tal, ya que como han señalado diversos especialistas, esta tecnología es complicado que adquiera códigos de ética.
El doctor Raúl Rojas, especialista en inteligencia artificial y vehículos autónomos de la Universidad Libre de Berlín, explicó en el artículo «Cuando la inteligencia artificial nos supere», publicado en 2018 en el portal CienciaMx, que no se le podrá enseñar un marco ético a la máquina, lo que determinará la aplicación serán las personas, los ingenieros y programadores, quienes deben tener claro que deben construir máquinas inteligentes al servicio del ser humano y para su beneficio.
«Si la computadora va a tomar decisiones éticas, serán las que se le programen, entonces será la ética del programador. Hay que recordar que las máquinas son nuestros esclavos, porque el programador le dice lo que tiene que hacer, la máquina no tiene razonamiento ni libre albedrío, es decir, no está tomando decisiones por sí misma», subraya Raúl Rojas.
ELECTORES MÁS CRÍTICOS
Ante este panorama sería importante que se contara con una regulación efectiva en el ámbito de las redes sociales e inteligencia artificial para garantizar un juego limpio y transparente en las campañas electorales. También sería conveniente que el Instituto Nacional Electoral (INE) estableciera acuerdos con empresas como Google, Facebook, Twitter y YouTube para garantizar la transparencia en la difusión de campañas y hacer un diagnóstico de los algoritmos que podrían estar sesgados, como lo propone John Ackerman, director del Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad de la UNAM, en la nota «Urgente regular redes sociales rumbo a comicios 2024: John Ackerman», publicada el 9 de octubre de 2023 en El Sol de México.
Mientras eso sucede y si no se logran acuerdos antes de las elecciones de 2024, que es lo más seguro, necesitamos que los electores sean más críticos con el contenido electoral y de candidatos y candidatas que ven en redes sociales. Asimismo, que revisen más antes de compartir cualquier video, foto o audio de esta índole, por ejemplo, que vea si algún medio de comunicación menciona algo al respecto, ya que los medios y periodistas tienen la obligación de corroborar el contenido que difunden, porque si bien si es complicado determinar si una imagen o audio ha sido manipulado o creado con inteligencia artificial, existen ya algunas herramientas para verificar.
_________
Referencias
BBC Mundo (2018). «5 claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera US$37.000 millones en un día», BBC Mundo.
Gutiérrez-Rubi, Antoni (2023). «La inteligencia artificial entra a las campañas electorales: ¿cómo impactará en Latinoamérica», El País.
Jiménez, Alejandro (2023). «Urgente regular redes sociales rumbo a comicios 2024: John Ackerman», El Sol de México.
Johnson, Dave (2021). «¿Qué es un deepfake? Todo lo que necesitas saber sobre esta tecnología para hacer noticias falsas con IA», Business Insider México.
Klein, Ezra (2023). «El verdadero peligro inminente de la inteligencia artificial», The New York Times.
Ley General de Acceso de las Mujeres a una Vida Libre de Violencia. Diario Oficial de la Federación del 8 de mayo de 2023.
Organización Mundial de la Salud (2021). Ética y gobernanza de la inteligencia artificial en el ámbito de la salud: orientaciones de la OMS: resumen. Ginebra: Organización Mundial de la Salud.
Sánchez, Verenise (2018). «Cuando la inteligencia artificial nos supere», Cienciamx Noticias.
SinEmbargo (2012). «Descubren a “Bots” de Peña manipulando redes para reventar #MarchaAntiEPN y simular apoyo en Tabasco», SinEmbargo.
Sosa Plata Gabriel (2016). «“Peñabots” y el fracaso de la comunicación política», SinEmbargo.
Suárez, Paula S. (2023). «La inteligencia artificial (IA) y las elecciones: breves y primeras reflexiones sobre el uso, el impacto y la influencia de la IA en los procesos electorales», Pensar en Derecho.
UNESCO(2022). Recomendación sobre la ética de la inteligencia artificial. París: UNESCO.
Warzel, Charlie (2018). «Believable: The Terrifying Future Of Fake News», BuzzFeed News.
AUTORA
Verenise Sánchez
Maestra y periodista científica adscrita al Instituto de Ciencias Nucleares de la UNAM, colaboradora con Fernanda Tapia en el programa Capital por cual, de Capital 21.
Audio narración: Melina García
Este artículo aparece en
Punto Dorsal #4
A un clic del futuro
Miradas políticas de la ciencia y la tecnología