VERSIÓN ESTENOGRÁFICA DEL PANEL COMUNICACIÓN DIGITAL E INTELIGENCIA ARTIFICIAL: NUEVOS RETOS DE LAS AUTORIDADES ELECTORALES, EN EL MARCO DE LA II CUMBRE DE LA DEMOCRACIA ELECTORAL “LAS AUTORIDADES ELECTORALES ANTE LA DESINFORMACIÓN”, DEL INSTITUTO NACIONAL ELECTORAL
Presentadora: En este momento inicia el panel “Comunicación digital e inteligencia artificial: nuevos retos de las autoridades electorales”.
Agradecemos la presencia de participación como moderador de Alberto Guevara, experto electoral mexicano, a quien damos la palabra.
Experto electoral mexicano, Alberto Guevara: Muchísimas gracias.
Muy buenas tardes a quienes están el día de hoy presentes en el Auditorio del Instituto Nacional Electoral, y también a quienes nos acompañan en línea.
Me dieron únicamente tres minutos, entonces, voy a dedicar menos a agradecer, pero en general, por supuesto a la Coordinación de Asuntos Internacionales, por la invitación; a la Consejera Presidenta, a las consejeras y consejeros de este Instituto, por permitirme regresar al Instituto Nacional Electoral a hacer una de las cosas que más me gusta y es encontrarme con personas expertas que están pensando en los problemas de primea línea de las democracias contemporáneas.
Ya hemos hablado en las conferencias anteriores y en la inauguración, sobre los objetivos generales de este encuentro, de esta Cumbre y en este panel nos concentraremos específicamente en comunicación digital, en la intersección de la comunicación digital y la inteligencia artificial, planteado como un nuevo reto para las autoridades electorales.
Ya se decía que las campañas han cambiado muchísimo, si pensamos desde el inicio de la tercera ola democratizadora a la fecha, en 40 años ha cambiado l democracia en el mundo, al punto de que regímenes autoritarios son capaces de utilizar eficazmente, instrumentos tradicionalmente asociados a democracias plenas.
La incorporación de tecnologías digitales transforma la manera en la que procesamos información, cómo seleccionamos información, pasamos de una… vamos a decir, televisación de la democracia con las campañas electorales enfocadas en clips pequeños que se televisaban y transformaban la manera en la que conocemos el proceso político, a una comunidad digital en donde la cantidad de datos que están a disposición de las personas, es gigante, pero también ha crecido la capacidad de procesarlos y mostrarlos a las audiencias por parte de los actores políticos, llámense partidos, candidatos, pero también otros gobiernos que pueden tener intereses en otros países y que lo hacen de esta manera.
Así que, para discutir precisamente estos retos, no voy a leer las semblanzas de las personas panelistas porque las tienen a disposición ustedes, las pueden consultar también online y voy a pasar directamente a darle la palabra a nuestro primer expositor.
Cada quien tendrá 15 minutos para su presentación inicial, después haremos una pequeña ronda de comentarios y cada quien tendrá tres minutos más para intervenir antes de dar una conclusión final.
Así que me permito solicitarle a nuestro panelista que participa en línea, al doctor Jacques Coste, que haga uso de la voz por los siguientes 15 minutos.
Adelante, doctor.
Universidad de Stony Brook en Estados Unidos, Jacques Coste: Muchas gracias.
¿Me escucho bien?
Bueno, pues muy buenas tardes a todas y todos.
Muchas gracias al Instituto Nacional Electoral, por invitarme a platicar de este tema tan importante, es un gusto tener la oportunidad de conversar con todos ustedes sobre el tema que hoy nos convoca, y es que las redes sociales y ahora también la inteligencia artificial, se han vuelto elementos fundamentales de la discusión pública de las elecciones y de la democracia.
Por eso, hoy quiero compartir con ustedes algunas reflexiones al respecto.
En los últimos lustros, las redes sociales ocasionaron cinco grandes cambios en la democracia, en primer lugar pulverizaron la esfera pública, en los siglos XIX y XX los medios de comunicación se dirigían a un gran público, primero en los periódicos y las revistas y luego la radio y la televisión se encargaban de hacerles llegar información y análisis sobre el acontecer político a los ciudadanos; es cierto que esa información y ese análisis estaban mediados por las posiciones políticas y las decisiones editoriales de los medios de comunicación.
Pero también es verdad, que los medios ejercían ciertos controles sobre las noticias que se publicaban, las cuales debían tener al menos cierto sustento en la realidad.
Si bien cada elector elegía su periódico favorito o cada radio escucha a su estación preferida, la discusión pública se hacía en persona, en cafés, en cantinas, en parques o en la plaza pública, en ese sentido, los ciudadanos podían tener acceso a un abanico amplio de ideas y opiniones sobre los acontecimientos políticos y se veían obligados a intercambiar puntos de vista con persona que pensaban distinto.
En resumen y para recapitular, si bien existía una audiencia predilecta para cada medio, también existía un gran público que consumía información mediada por los grandes medios y las partes de ese gran público se veían obligadas a discutir entre sí aunque las personas pensaran distinto.
Con las redes sociales esto dejo de ocurrir, ya no existe un gran público, más bien hay muchos micro públicos, esto quiere decir que los algoritmos de las redes sociales, promueven que los usuarios solo consuman la información y los análisis que concuerdan con sus opiniones, por lo que los ciudadanos tan solo reafirman sus posturas políticas cada que ingresan a las redes sociales.
Esto me lleva al segundo cambio que ocasionaron las redes sociales en la democracia, la popularización, si los ciudadanos solo leen y escuchan contenidos que reafirman sus propias posturas políticas, entonces se vuelven más intolerantes y cerrados frente a otras ideas.
Más aún el ambiente de las redes sociales no promueven intercambio de ideas y el debate con argumentos, lejos de ello alienta los insultos, las burlas, o en el mejor de los casos los mensajes simples pero convincentes que refuerzan prejuicios o ideas preconcebidas.
El tercer gran cambio que ocasionaron las redes sociales en esfera pública y la democracia es la desinformación, como mencioné anteriormente, los medios de comunicación tradicionales, garantizaban cierto control sobre la información que se publicaba, en tanto que tenían que cumplir con determinados criterios de veracidad, si bien los medios narraban o analizaban los hechos de acuerdo con sus posiciones políticas o editoriales, al menos esos hechos tenían sustento en la realidad, hoy, esto no es así, es redes sociales cualquier usuario puede publicar información falsa o sin verificar y millones de otros usuarios pueden compartir y difundir esa información, para las personas el criterio de veracidad de la información ya no es si se trata de hechos verificados o análisis sustentados en argumentos sólidos y evidencia, más bien si las publicaciones embonan con las posiciones políticas de las personas, entonces eso basta para compartirlas y darlas por verdaderas.
El cuarto gran cambio que las redes sociales ocasionaron es la “post verdad”, que es un fenómeno contemporáneo en el que las opiniones pesas más que los hechos, es decir, la realidad concreta pasa a segundo plano y las subjetividades pasan a primer plano.
En el mundo de las redes sociales cada quien cree lo que quiere creer, así las cosas, si un partido político alega fraude electoral sin evidencia alguna, como lo hizo el Partido Republicano con Donald Trump a la cabeza en Estados Unidos, sus seguidores creen a pie juntillas que esto es cierto, no porque tengan evidencia para pensarlo, sino porque esa creencia está alineada a sus posiciones políticas.
Y el último gran cambio en la democracia que han alentado las redes sociales, es la política de las emociones, en las redes sociales no ganan las discusiones quienes mejores argumentos tienen, sino quienes más alzan la voz, quienes son más hábiles para el insulto, la calumnia y la burla o quienes tiene más destreza para reafirmar prejuicios y sentimientos arraigados en los ciudadanos.
Así las cosas, las redes sociales no fomentan la reflexión tranquila y mesurada, sino la impulsividad, el enojo, la indignación, el miedo y el descontento.
En ese sentido, el nivel del debate público ha caído considerablemente con las redes sociales, las emociones siempre han sido un factor fundamental en la política, es decir, nunca ha sido cierto que la política se rija por la razón.
La política, como los seres humanos, siempre ha estado compuesta por emoción y razón, por pasiones y por ideas, no obstante, la irrupción de las redes sociales ha disminuido el peso de las ideas y ha elevado la importancia de las emociones en la política.
Que las emociones tengan cierto peso en la democracia está bien, es natural y es saludable, pero siempre y cuando estén mediadas también por la razón; hoy hay mucho corazón, mucho hígado y muy poca cabeza en la discusión pública. El reciente triunfo de Javier Milei en Argentina, es buena muestra de ello.
En resumen, las redes sociales han dejado una esfera pública rota y dividida, con ciudadanos incapaces de dialogar y renuentes a escucharse los unos a los otros, es decir, una ciudadanía sin capacidad de deliberación, que se guía más por las emociones que por la razón y la ideología.
Esto a su vez ha fomentado que partidos políticos y candidatos irresponsables, aprovechen este contexto para ganar elecciones, prometiendo mucho y cumpliendo poco, reafirmando prejuicios de la personas, vilipendiando a sus contrincantes políticos y apelando a las emociones de los ciudadanos sin tener agendas programáticas claras.
Si las redes sociales han ocasionado todos estos cambios en la esfera pública, la inteligencia artificial tiene el potencial de intensificarlos.
Sin irnos más lejos y hablando solamente de los efectos latentes y reales hoy en día, la inteligencia artificial generativa, ya tiene la capacidad de producir contenidos falsos que imitan la voz de una persona; así como ya lo estamos viviendo en México, se pueden compartir audios que reproducen la voz de actores políticos diciendo cosas comprometedoras.
Cuando estos audios se difunden en redes sociales, los ciudadanos no tiene herramientas para diferenciar si son verdaderos o falsos, o peor aún, los ciudadanos que coinciden con cierta tendencia política los darán por buenos y quienes militan en otra corriente política, los desacreditaran sin pensarlo dos veces.
Esto trae consigo dos consecuencias, por una parte, cuando se difunden audios o videos reales de políticos cometiendo ilegalidades, los involucrados se podrán defender aduciendo que fueron creados con inteligencia artificial.
Por otra parte, cuando se difundan audios falsos los ciudadanos podrán creer que son ciertos se reafirman sus prejuicios respecto a determinada figura política. En otras palabras, el fenómeno de la posverdad se acentuará de manera importante, y los ciudadanos tendrán menos capacidades para distinguir lo real de lo falso.
En segundo lugar, la inteligencia artificial ha traído mayor sofisticación en los algoritmos y en las técnicas para la segmentación e identificación de públicos para las campañas políticas, las noticias falsas y la desinformación. Esto quiere decir, que la pulverización de la esfera púbica continuará, pues se reforzarán los micro públicos que solo dialogan entre sí y no escuchan perspectivas distintas a las propias.
Sé que mi diagnóstico es pesimista y sombrío, pero tengo la genuina convicción de que las redes sociales no han mejorado la democracia, más bien, pienso que la han empeorado.
En esta ocasión no podemos ser ingenuos. Recuerdo que en los años de irrupción de las redes sociales había una gran esperanza respecto a que éstas serían el vehículo para mejorar la democracia, pues acercarían a los ciudadanos con sus gobernantes y ampliarían la libertad de expresión.
Hoy no podemos cometer el mismo error. Estamos en un momento histórico y debemos actuar con la urgencia que esta coyuntura nos demanda.
Con esto en mente, regreso a la pregunta que hoy nos convoca, ¿Qué pueden hacer las autoridades electorales frente al enorme reto de las redes sociales y la inteligencia artificial?
Cierro mi ponencia con tres propuestas concretas para responder esta pregunta.
La primera acción que pueden llevar a cabo las autoridades electorales es la educación digital. De acuerdo con la UNESCO, una de las mejores vías para combatir la desinformación y la difusión de noticias falsas es la alfabetización digital.
El INE y las autoridades electorales en general pueden desempeñar un papel central en esta materia, organizando campañas que fomenten los buenos hábitos para consumir y difundir información en las redes sociales.
Algunas de estas buenas prácticas son: que los usuarios solo compartan información de medios de comunicación y periodistas serios y reconocidos; y que verifiquen, en dos o tres fuentes, la información que van a compartir. Es irreal pensar que todos los usuarios de redes sociales llevarán a cabo estas tareas, pero mientras más gente lo haga, mejor.
En México, el INE puede aprovechar que se ha consolidado como una de las instituciones que mayor confianza genera en la ciudadanía, para así ser quien encabece una gran campaña pedagógica para fomentar la educación digital, y para advertir sobre los nuevos riesgos que trae consigo la inteligencia artificial.
Esto último es importantísimo, los jóvenes pueden estar familiarizados con las capacidades de la inteligencia artificial, pero los adultos mayores difícilmente lo están, y es importante que, tan pronto como sea posible, sepan que la inteligencia artificial es capaz de producir audios o videos que parecen reales pero no lo son, para que así puedan evitar la difusión de contenidos falsos.
La segunda labor que pueden realizar las autoridades electorales para enfrentar los retos de la inteligencia artificial es, fomentar los esfuerzos de verificación. Alrededor del mundo han surgido iniciativas de distintos medios y organizaciones no gubernamentales que se dedican a verificar noticias y contenidos de dudosa veracidad difundidos en redes sociales.
En México, El Sabueso y Animal Político, realiza un estupendo trabajo en esta materia.
Lo que hacen estos centros de verificación es tomar las noticias que circulan en redes sociales, y las declaraciones de los políticos para después analizar si son ciertas o no, recurriendo a las herramientas del periodismo profesional.
Posteriormente, estos centros de verificación difunden en redes sociales los resultados de este esfuerzo de investigación; aclaran si las declaraciones políticas o las noticias en cuestión son verdaderas o no, y las ponen en contexto.
Las campañas de pedagogía de las que hable en el punto anterior deberían informar a los ciudadanos sobre este tipo de plataformas de verificación para así extender su alcance.
Por otra parte, en épocas de elecciones, las autoridades electorales pueden firmar convenios de colaboración con este tipo de plataformas para realizar un esfuerzo conjunto adicional, para checar la información que se difunde, el material propagandístico y las declaraciones de los políticos en campaña. Eso contribuiría a que el electorado esté mejor informado y a contener los flujos de desinformación electorales.
Por último, y con esto concluyo mi intervención, la tercera acción concreta que las autoridades electorales podrían realizar es unirse a los esfuerzos trasnacionales para regular la inteligencia artificial.
Una lección que nos dejaron las redes sociales es que no podemos permitir que las grandes empresas digitales crezcan y se desarrollen libremente, sin intervención alguna del Estado, y con esto me refiero a que ahora que los gobiernos están intentando regular a las empresas de redes sociales, resulta muy complicado, porque ya son demasiados grandes y poderosas.
Por otro lado, yo soy un firme convencido de que no existen soluciones nacionales para problemas globales, como es el caso de la inteligencia artificial.
Por eso es importante que México participe en los esfuerzos internacionales que se están llevando a cabo para regular a las empresas de inteligencia artificial, y para lidiar de manera conjunta con los retos que la inteligencia artificial implica para la democracia, las elecciones y la Seguridad Nacional.
Lo ideal sería que para participar en estos foros, México formará una comisión especial, en la que se incluyeran miembros de distintas dependencias del gobierno, del Congreso y también a organismos públicos autónomos, principalmente al INE por las implicaciones de la inteligencia artificial para la democracia y las elecciones.
México tendría la oportunidad de convertirse en punto de lanza en América Latina en esta materia, y la participación del INE en esta labor abonaría muchísimo.
Esperemos que el próximo gobierno, sea quien sea, entienda el enorme reto que la inteligencia artificial implica para la democracia y la seguridad nacional, y participa en los foros internacionales para lidiar con este desafío.
Y esperemos también, que el INE sea tomado en cuenta en esta labor, su participación resultará fundamental para el futuro de la democracia mexicana.
Muchas gracias nuevamente.
Experto electoral mexicano, Alberto Guevara: Muchísimas gracias por esta primera presentación, con incluso propuestas concretas.
Recuerden que nos pueden hacer llegar sus preguntas para que la discutan las personas panelistas.
Y ahora me permito solicitarle a Angélica Contreras que haga el uso de la palabra por los siguientes 15 minutos para continuar con la…
Directora de Cultivando Género A.C., Angélica Contreras: Muchas gracias, y gracias por la invitación.
Antes que nada, pues sí me gustaría resaltar que además yo vengo de Aguascalientes, y es importante para mí nombrarlo porque el lugar donde habito, donde acciono, también es un espacio político.
Y en estos momentos, donde acciono, también es un espacio político y en estos momentos donde constantemente, no solamente en lo digital, sino también en lo físico, estamos en constante resistencia, pues también hablar de estos temas desde lo digital y lleno de este tipo de espacios, pues entonces es importante salir también de las centralidades.
Y yo quisiera empezar, primero, con dos reflexiones.
Hay una autora, Florencia Goldman, a un artículo que escribió que se llama Ocupar las Redes Sociales, ella hace esta pregunta, dice: “¿recuerdan aquella promesa de que Internet sería clave fundamental para la democratización de nuestras sociedades?”, yo ahí agregaría ésta… hackearía un poquito esa pregunta y podía decir: “¿recordamos también aquella promesa de que la democracia sería la herramienta o la alternativa para sociedades más justas?”.
Y en este mismo texto, otra persona, Paz Peña, también menciona: “…las redes, en las redes sociales circulan voces que redistribuyen el poder y mantienen estos sesgos…”.
Si entonces, con estas reflexiones nos dicen que las redes sociales o las redes socio digitales y el espacio digital se mostraba como esta alternativa para las voces principalmente, que no tenían espacio dentro de los medios tradicionales, ¿qué pasa cuando agregamos ésta otra intersección de las elecciones?, ¿qué sucede entonces?, y además como lo que nos invita el día de hoy a hablar, ¿qué pasa cuando además estamos ya hablando de estos gestores de inteligencia artificial?
Y en un contexto electoral para México, donde entonces cómo acordamos y cómo empezamos a dialogar para que tengamos, justamente, una participación ciudadana.
Y aquí entonces, siguiendo con esta reflexión, hay una pregunta que se ha escuchado bastante en estas horas, son nuevos retos, son viejos retos, ¿qué son?
El hablar ahora de las comunicaciones desde los espacios socio digitales y la inteligencia artificial, ¿qué son?, ¿son nuevos retos?, me parece que son los retos que ya teníamos antes, son estas mismas lógicas pero ahora sí es importante que destacamos estas estructuras que también tenemos que comprender.
¿Cómo estamos comprendiendo el espacio digital?, porque no es como que de repente está ahí ya, no.
¿Cómo comprendemos el espacio digital y la naturaleza propia del espacio digital?, ¿y cómo entonces se da esta comunicación, pero al mismo tiempo cómo estamos comunicando y cómo estamos llamando a las personas al voto?, ¿cómo estamos proponiendo agendas y propuestas políticas?, ¿cómo estamos entonces combinando todos estos temas dentro del espacio que estamos habitando?, porque además, una de las comprensiones que quisiera también aclarar es que no hay que pensar que habitamos dos espacios y ya, la realidad es que lo digital se ha vuelo más real y lo real se ha vuelto también digital.
¿Estamos frente a elecciones digitales? Claro que lo estamos, el tiempo es, la pregunta es: ¿cómo entonces vamos a hacer estos acuerdos para comunicar y desde dónde?, ¿a quiénes estamos invitando para hacer estos acuerdos?
Y una de las preguntas que planteaban y que me planteaban para este panel es: ¿cómo le hacemos para que desde los institutos, pero también con las empresas que las redes sociales no dejan de ser empresas, se hacen estos acuerdos.
¿Qué podemos hacer? Mi apuesta, yo soy una fiel creyente que tenemos que apostar hacia los modelos de múltiples partes interesadas o el famosísimo modelo de multi (…) holer; pero además es y en éste y que justamente comentaban en el panel anterior, es, somos actores, implica el modelo de múltiples partes que las personas, cómo se construye la Internet, cómo se gobierna que diríamos, pues a partir de la participación de los diferentes actores que conforman Internet, es decir las empresas, es decir los gobiernos, es decir el sector técnico, es decir toda la parte de los cables, es también decir sociedad civil.
Pero además, hay que tropicalizarlo a la parte electoral, cómo estamos involucrando a las y los periodistas, cómo estamos involucrando a los partidos políticos, porque también tienen responsabilidad dentro de este tema; cómo estamos involucrando a, por ejemplo, organizaciones de verificación de los datos y, en su momento también, a organizaciones.
Cómo estamos agrupando, coordinando y trabajando con estos múltiples actores, para entonces empezar a generar estas reflexiones.
Pero, no estoy dejando atrás, y esta es la reflexión con la que yo quiero cerrar, ¿qué pasa con las personas usuarias?, y no les menciono qué pasa porque esa es una de las propuestas que se las voy a dejar para el final.
Pero además, también, me parece que es algo muy importante y es, ¿cómo estamos en la comprensión de lo digital?
Siempre yo pongo este ejemplo, y ahí me tachan de informal, pero me parece que es muy práctico.
En la comprensión de lo digital, ¿cómo estamos entendiendo cómo funciona lo digital?
Aquí, la mejor referencia es que ustedes piensen en una torre de hot cakes. Van a decir, por qué está hablando de una torre de hot cakes. Pues porque las personas usuarias estamos en la parte donde ustedes colocan la mermelada, la miel o la mantequilla, en la parte de arriba de ese hot cake; pero debajo hay otros pisos, hay otras capas, y cada capa tiene un objetivo en la función de Internet.
Esta idea medio noventera de que Internet era una telaraña, pues no, Internet es una torre, y cada capa tiene un objetivo.
¿Por qué entonces acciones, reformas, propuestas, no están funcionando? Porque seguimos en la capa de arriba.
Entonces, cómo comprendemos lo digital. Y comprender lo digital entonces es, cómo comprendemos la arquitectura de Internet. Es decir, hot cake la palabra correcta es la arquitectura de Internet.
Cómo estamos desde esta comprensión de la arquitectura de Internet, pero también, ojo, la moderación de los contenidos.
Si estamos hablando de cómo se está comunicando y cómo esa comunicación atraviesa lo digital, tenemos que entender la lógica de la moderación de los contenidos. Es que por qué no se bajó por qué sí se bajó, por qué cerraron esta cuenta.
¿Cuál es la lógica de cómo se construye y se entiende la moderación de los contenidos?, y la moderación de los contenidos no es neutral. ¿Quién está construyendo, y bajo qué lógica se construye esta moderación?
Y luego nos frustramos de, es que por qué no se bajó ese Tweet, por qué no se bajó ese post, ah, ¿qué hay detrás?, y entonces lo junto con mi respuesta pasada.
La articulación que se necesita para la comprensión de cómo se está compartiendo este contenido, y además la importancia de que necesitamos tener regulaciones específicas para cada una de las capas. Pero yo no creo que la regulación tenga que ser por parte del gobierno, sino que la regulación tiene que ser justo desde ese trabajo coordinado con los múltiples actores, por la comprensión y la importancia de cada una de estas capas.
Y también entender cómo, entender y preocuparnos también de ésta, de cómo funciona lo digital, nos trae también estos retos, muchos de estos, y espero no ser redundante, ya lo han mencionado los compañeros que me han antecedido, implica hablar, y a mí me preocupa el cómo, qué está pasando con el uso de nuestros datos, que también lo están haciendo desde los partidos políticos.
Implica hablar de la desinformación que ya se ha mencionado, implica hablar también de la violencia.
La semana pasada compartí espacio en un evento que hicieron desde el Tribunal Electoral Federal, y justamente, se hablaba de cómo también dentro de estos espacios están maximizando estos discursos de violencia.
Y también no es que esta violencia de repente haya surgido de la nada, ¿cómo se está dando esta violencia también desde estos espacios?
Pero también tenemos este efecto burbuja. Necesitamos también salir de la burbuja para entonces ver cómo se está entendiendo lo que está pasando afuera.
El tema del autocensura. El año pasado, junto con Artículo 19 y el Instituto de Jurídicas hicimos una investigación para ver cómo esta moderación de los contenidos tiene efectos en los grupos que, sobre todo, prioritarios: mujeres, personas LGBT+, periodistas…
Y uno de los temas es la autocensura.
Todo esto, entonces, que está pasando en lo digital tiene efecto de autocensura, “yo no voy mejor a decir, por qué va a pasar”.
¿Cuántas y cuántos de aquí hemos decidido tal vez no hacer opiniones o no comentar ciertas cosas, porque entonces va a haber un efecto de qué, de sanción por opinar?
En los discursos de odio, que hay todo un debate sobre qué significa odio, me parece que para tener un código común podemos hablar de estos discursos de violencia y de discriminación, que también siendo aprendidos por los algoritmos.
Y eso viene de la mano con el sesgo algorítmico.
¿Qué está y cómo está conviniéndose, y cómo se está además?, no solamente era compresión, sino la codificación y recolección de esta información, y que está, entonces, llevando a que, burdamente decirlo, estas máquinas están aprendiendo ¿de qué? Pues de lo que todas y todos estamos también sumando a lo digital.
Y también el monitoreo, el monitoreo también entendido como una forma de violencia, pero, ojo, no desde esta propuesta de monitoreo es igual a seguridad, sino ¿cómo se está monitoreando, por ejemplo, actores políticos?, ¿cómo se está monitoreando a personas periodistas?, ¿y qué se está haciendo con esa información?, ¿cómo se está almacenando esta información?, ¿qué se está haciendo con este monitoreo?
Y además, reciente nombrar también cómo se está promoviendo este odio para justificar el odio, “no votes por cierta persona”, pero hay una justificación también desde el odio, desde un discurso violento, que te está diciendo por qué no votes por esta persona, no te sumes a esto, no salgas a votar, por ejemplo.
Y además esta comprensión de lo digital, entender las características…
Ustedes están aquí presentes, o quienes están siguiendo la transmisión en línea, conocen el electoral, trabajan desde lo electoral, pero entender las características propias de lo digital entonces implica pensar también en cómo se amplifican los discursos desde lo digital.
Estas múltiples plataformas que existen, ¿qué tan rápido, por ejemplo, se puede publicar un mensaje en alguna red social?, éste es retomado desde WhatsApp, se hace una captura de pantalla y se publica en otro lado, ¿cómo se da además esta amplificación?, ¿cómo controlas aquello?, ¿cómo cortas este círculo de?
Pero además también hay un tema desde la, bueno, de lenguaje, compresión del lenguaje, el contexto, que eso es muy importante, sobre todo para la parte de la moderación de los contenidos.
Esta parte de la transjuridiccionalidad, sobre todo desde la no existencia de las fronteras en lo digital, como por ejemplo puede haber y lo hemos visto con la desinformación, tal vez alguna campaña de desinformación de otro país, es replicado y actualizado para el contexto mexicano.
Y la disminución de las barreras, el efecto que tiene memoria y además también esta parte de recordar que hay un factor económico, esto no es porque sean un factor de, ah todo lo hacemos porque queremos contribuir en algo, hay un factor económico también de por medio, con quién y cómo se transparenta el uso de estas plataformas y cuánto se está invirtiendo entonces también dentro de él.
Y el tema del anonimato, yo creo que el anonimato es necesario, sobre todo para el contexto mexicano, el anonimato se puede utilizar de dos formas, desde la forma violenta que se crean cuentas para la desinformación y para la difusión de discursos violentos pero también el anonimato en un contexto mexicano donde se asesinan a periodistas y activistas también es necesario y cómo jugamos entonces con este dinero.
Y justamente esta misma comprensión nos implica entonces también pensar en cómo se está comunicando hoy en día, cómo se utilizan los medios desde los medios tradicionales pero también estos medios digitales cómo se utilizan para comunicar; las generaciones más jóvenes o como dicen las personas primero votantes, no están comunicándose de la misma forma que generaciones más adultas y entonces dónde están estas generaciones, cómo se están comunicando y qué por ejemplo plataformas o formas de comunicación están teniendo también, por qué ahora utilizan ciertas plataformas como buscadores o porque no ven por ejemplo los debates pero sí ven los resúmenes que se comparten desde otras plataformas y cómo entonces estamos generando una postura crítica del contenido que se está observando.
Ya un poco también yéndome al cierre, creo que es importante justamente lo que decía, cuando pensamos en este modelo desde la participación de los múltiples actores, también entra de por medio las personas usuarias pero se les nombra así desde la persona usuaria. Yo creo y ahí sí es mi parte esperanzadora, de que tendremos que apostar hacía un empoderamiento digital de las personas; para pasar de ser usuarias o usuarios a empezar a construir una ciudadanía digital y una ciudadanía digital que entonces no solamente te va a consumir contenido, que va a tener una postura crítica de conversación, de debate, pero también de exigencia porque pareciera que entonces de quién es la responsabilidad, la responsabilidad es, cada una de las personas que integran este grupo tienen una responsabilidad, pero nos toca entonces a la ciudadanía digital exigir que tengan reglas claras de moderación de contenido.
Que los partidos políticos tengan una transparencia en el uso de que estás haciendo de nuestros datos y nos solamente a nivel partido sino a quienes estás contratando como agencias de todo tipo para usar esos datos, porque desde hace, no sé meses seguramente, las personas empezamos a recibir por ejemplo de texto proponiéndonos que nos interesemos por alguna persona que tiene aspiraciones a la candidatura y cuando hacemos este ejercicio ya lo he hecho de transparencia con los partidos de Oye, yo quiero ejercer mis derechos ARCO, dicen, ah, sabes qué a mí no me corresponde porque eso lo contraté por otro lado, dónde está esta responsabilidad.
Y en estos ratos, porque ya vi que se me pasó el tiempo, hay que tener también ésta… empezar a tener un planteamiento ético de cómo entonces se va a utilizar las gestores de inteligencia artificial dentro de los procesos electorales.
La transparencia que también ya lo mencioné.
Y también hablemos de quiénes y cómo estamos entonces construyendo y apostando a tener una ciudadanía digital empoderada y no empoderada desde este punto del sí se puede, sino el empoderamiento como el reconocimiento de nuestros derechos.
Si hablamos de nuestra participación político electoral como un derecho, también ésta se puede llevar a lo digital y forma parte de nuestros derechos digitales.
Un empoderamiento digital participativo que también ayudaría entonces a empezar a hablar, al menos por el inicio de estos temas.
Gracias.
Experto electoral mexicano, Alberto Guevara: Muchísimas gracias, Angélica, también por esta visión al mismo tiempo panorámica del problema y de las distintas capas del hot cake, y los distintos ángulos para solucionarlo.
Paso rápidamente con Rafael Rubio, quien hablará por 15 minutos, igualmente que los otros panelistas, para después pasara a una discusión colectiva.
Adelante, Rafael, por favor.
Rafael Rubio, Experto de la Comisión de Venecia del Consejo de Europa: Pues, muchísimas gracias, Alberto.
Muchas gracias al INE, por la invitación.
Creo que para empezar la intervención, es bueno recordar una cosa de las que decía Nathan, que nos pone en contexto, por decir, lo hago de alguna manera especialmente cuando vamos a hablar o voy a hablar de inteligencia artificial y elecciones.
Y es este salto que los que llevábamos 25 años trabajando en este tema, hemos visto de una forma muy, muy directa y quizá nos sorprende aún más, de la visión utópica donde como decía Nathan, la democracia la iba a salgar la tecnología en una situación de crisis a finales de los 90, habíamos puesto todas nuestras esperanzas en la tecnología, por la transparencia, la participación, la colaboración, elementos que venían a fortalecer la democracia y cómo en estos 25 años hemos pasado especialmente a partir del año 2016, a una visión apocalíptica donde no solo la democracia no va a ser salvada por la tecnología, sino que parece que es la tecnología la que va a destrozar la democracia y este discurso lo escuchamos con frecuencia en planteamientos como el que realiza la Premio Nobel de la Paz, María Reza, para explicar el peso de la desinformación y sus peligros para la democracia.
Yo creo que esto que es real y Frederico lo explicaba muy bien, a la hora de poner el contexto y Nathan, como hay dos, o sea, hay ventajas, hay inconvenientes y es verdad que tendemos a sentarnos en los inconvenientes, pero yo creo que al centrarnos en los inconvenientes, es muy importante que el susto no nos deje paralizados, no sé si me explico.
O sea, cuando nos cuentan lo que nos va a pasar, la reacción de casi todos es decir: “virgencita, virgencita, que me quede como estoy”, o sea, nos entra tal agobio que dejamos, de alguna manera, de trata de buscar soluciones, ¿no?
O sea, creo que corremos el peligro, llevamos ya unos años corriendo este peligro de regodearnos en las amenazas y me parece que tendríamos que llegar todos a un acuerdo, o sea, asumimos que la cosa está muy chunga, como decimos en España, pero a partir de ahí vamos a empezar a tratar de concretar.
Y en ese sentido, bueno, la idea sería hablar un poco de inteligencia artificial que es evidente que en este contexto, por su complejidad y por su opacidad, especialmente pueden o están de hecho, está de hecho, alimentando esta sensación de rechazo o alimentando todavía más en la línea que también decía Nathan, esta sensación de ciencia ficción de ver el mundo y especialmente o entre otras cosas las elecciones, como una especie de episodio de episodio de una serie futurista, en la cual todo lo que pensábamos que era ficción ha pasado a ser realidad.
Esto además se desenvolvió en un contexto donde es evidente que la confianza general, la integridad de los procesos electorales se ha debilitado, y vemos cómo la integridad de los procesos y el papel de los organismos electorales se ha convertido, y esto no era lo habitual, y eso importante resaltarlo, en un issue central de todos los procesos electorales.
No hay proceso electoral en cualquier país del mundo, por muy consolidada que esté la democracia, o sus sistemas y sus procedimientos, donde no se ponga en cuestión con más o menos fuerza el funcionamiento del proceso.
Esto que tiene distintas causas pues alimenta todavía más esta, o sea, esta sospecha sobre la inteligencia artificial, a través de un proceso que se ha señalado aquí de otra manera, pero que creo que es interesante reflexionar sobre él, de duda inicial, sospechas secundarias, indignación y protesta.
Cuando seguimos el ciclo de la duda a la sospecha, de la sospecha a la indignación, y la indignación a la protesta, creo que empezamos a tener un mapa de cómo se van alimentando esos procesos.
Cuando a esto le añadimos el uso de la inteligencia artificial en las distintas fases de estos procesos, creo que tenemos como el cuadro entero.
Por eso el Comité de Ministros del Consejo de Europa señalaba hace ya tiempo que el uso de las tecnologías, como el uso de cualquier otra tecnología a los procesos electorales, perdón, el uso de cualquier otra tecnología a los procesos electorales debe cumplir con los principios de elecciones y referéndums democráticos y otros principios pertinentes.
Debe equilibrarse, y ya después la parte interesante con otras consideraciones fundamentales, como la seguridad y la agilidad para los usuarios.
O sea, creo que el contexto es éste, vamos a hablar de tecnología, pero vamos a hablar en el contexto general de qué son los procesos electorales, y lo mismo deberíamos aplicar en mi opinión a la inteligencia artificial.
Sin embargo, vemos cómo en esta materia específica ha habido un boom de publicaciones, de análisis relacionados con el impacto social, económico y cultural de la inteligencia artificial. Y sin embargo, son muy pocos los teóricos que analizan a fondo este impacto de la inteligencia artificial, específicamente en el ámbito electoral.
Y a eso es a lo que de alguna manera quiero contribuir.
Creo que al análisis no es tanto ver nuevos instrumentos que la inteligencia artificial incorpora a los procesos electorales, sino hasta qué punto, cómo la introducción a la inteligencia artificial afecta a procesos ya existentes, y de alguna manera acaba cambiando las garantías de instrumentos ya existentes.
No es tanto hablar de una nueva área, la de la inteligencia artificial, sino ver cómo es esta inteligencia artificial afecta a todas las partes del proceso.
En ese sentido, voy a pasar un poco por encima de algunas de las utilidades que se han hecho de la inteligencia artificial en procesos electorales en general, para centrarme más específicamente en el objeto de esta Cumbre que entiendo que son especialmente las campañas electorales.
El uso de inteligencia artificial en distintas fases del proceso electoral es evidente, se han empleado ya en la fijación de circunscripciones electorales en aquellos países donde se revisan de manera periódica, se han utilizado también para purificar, pero no sé si es la palabra, para limpiar el censo y ajustarlo a la realidad de, a la realidad del país de manera periódica.
Se han utilizado para promover el voto, pero también para garantizar que el voto es personal, estableciendo sistemas de inteligencia artificial, para verificar la persona o la firma cuando el voto se realiza a través de otros medios, como el correo, y se ha utilizado también para realizar recuentos.
En todos estos casos se plantean una serie de problemas, pero de alguna manera podemos ver que las utilizaciones que se han hecho en estas fases de procedimiento electoral mejoran o buscan dar una solución, quizá no del todo acertada, pero buscan una solución a problemas realmente existentes, de los que si quieren podemos hablar más adelante, pero que, ahora en estos ocho minutos.
Cuando hablamos de campaña electoral el problema se complica, porque vemos que el uso de la campaña electoral se ha convertido ya en, no en algo que a lo mejor pasa y que tendría que pillarnos preparados, sino en algo que se ha normalizado absolutamente en nuestras campañas electorales. Creo que en el último año y medio no hay ninguna campaña electoral, y creo que no exagero, en el mundo donde no se hayan utilizado técnicas de inteligencia artificial.
Y esto es bueno que lo asumamos porque si no, pensamos que estamos dando excepcional de ciencia ficción, como decía antes.
¿Para qué se usa la inteligencia artificial?, porque creo que el problema muchas veces es que no nos damos cuenta que se está usando, ¿no?
Se utiliza para automatizar algunos de los procesos tradicionales de la campaña,.
¿En qué procesos la inteligencia artificial es más eficaz? Pues en la integración de sistemas de creación de contenido, que ha salido ya y lo hablaremos más, en la distribución masiva de los mismos, en el perfilado del público objetivo de esos mensajes, normalmente, o sea, el votante.
Y en torno a esos tres elementos nos encontramos con una serie de deformaciones, ¿no?
Es evidente que, para no caer en el propio pecado que he anunciado inicialmente, también podemos ver usos inteligentes de la inteligencia artificial, los que contribuyen de una manera directa también en campaña electoral, la democracia, ¿no?, vemos como mensajes como el candidato de Paraguay en las últimas elecciones, donde consiguió trasladar su propio mensaje en 14 idiomas distintos a 14 pueblos originarios que vivían en Paraguay, y que recibieron de su propia voz, gracias a la inteligencia artificial, su mensaje originario.
Sistemas que evitan otros mecanismos de personalización míticos en el mundo de las campañas electorales, como el de Sergio Maza en su primera campaña electoral en las que aspiró a la presidencia, que no sé si recuerdan que se hizo famosa por el tajaí, ¿no?, una cosa en la cual trató de imitar él mismo con su voz el tono y las palabras que se utilizaban en cada una de las regiones de Argentina.
El resultado fue absolutamente dantesco porque era un actor tratando de personalizar, pensaba, o sea, repensando eso ahora, y con la inteligencia artificial, hubiera sido pensando adaptar el mensaje a cada una de esas provincias de Argentina, incluso el todo de voz con la voz del candidato; pero en ese momento no era posible y el resultado fue absolutamente ridículo, ¿no?
O también hemos visto, como aquí en México, momentos históricos, o no sé, o quizá un poco bizarros, como la conversación de Ricardo Monreal con Benjamín Franklin, ¿no?, que hay gente a la que a lo mejor les sorprendió un poco más como instrumento de campaña.
Corremos el peligro, por tanto, de que, de vivir en una especie de distopía banal, donde el contenido manipulable es tan barato de hacer y tan fácil de producir a gran escala, que se vuelve omnipresente.
Yo creo que este es el gran peligro, o sea, el gran peligro de inteligencia artificial no es su uso, es su normalización, porque cambia de una forma radical las reglas del juego y las reglas de las formas en las que nosotros de interpretarlo, ¿no?
Cuando intentamos analizar hasta qué punto esto tiene un impacto directo en la libertad del votante y en el clima en el que se desarrollan las campañas electorales, podemos acudir a las fuentes, fuentes interesadas como Sam Altman, que en su comparecencia ante el Senado de los Estados Unidos, en mayo de 2023, cuando le preguntaron si pensaban que se podían utilizar los modelos de lenguaje basados en inteligencia artificial para hacer que los votantes se comportaran de determinada manera frente a lo que podría parecer que iba a defender su sector, mostró claramente su preocupación y las posibilidades que estos mecanismos tenían para persuadir, involucrar y manipular las relaciones personales con los votantes.
En la misma línea, dos académicos de Harvard como (…), llegaron a construir una historia poniéndole un nombre a este uso de la inteligencia artificial en campañas al que denominaron clauger, y analizando sus posibles utilidades, en un ejercicio que tiene… que les recomiendo.
El punto de partida es el nuevo orden algorítmico, del que forma parte la inteligencia artificial y que condiciona de manera determinante nuestro acceso a la información, predeterminándolas selectivamente.
A partir de ese punto de partida y en la línea de lo que se decía aquí antes del incremento gradual del impacto, empezamos a ver cómo se pudo utilizar la inteligencia artificial gracias a su condición personalizada, dinámica y adaptativa, a la generación de mensajes en distintos formatos realmente personalizados, sin un límite real en todo lo que tiene que ver con la segmentación, la creación y la distribución del mensaje.
Esto hace dos años y medio, hace tres años, eran servicios que ya estaban en el mercado y que valían en torno a los 5, 6 millones de dólares, cuando te los ofrecían en el mercado de las campañas electorales te decían: “esto lo podemos hacer por este precio, por este coste”.
Hoy en día el coste se ha reducido por debajo del millón de dólares y por tanto, empieza a ser asequible y empieza a ser algo posible para que cualquiera, no sé si cualquiera, pero cualquiera que entre enserio en una campaña electoral, lo pueda usar.
En segundo lugar, el uso de técnicas de aprendizaje reforzado bajada en el machine learning y la prueba y el error, permite que estos mensajes, en función de las respuestas, vayan aumentando su nivel de persuasión y esto es muy relativo, o sea, tú puedes empezar a persuadir, ir mejorando tu capacidad de persuasión gracias a que estás utilizando la inteligencia artificial.
Y en tercer lugar, este aprendizaje que inicialmente se basa en tus respuestas, acaba generalizándose a tu comunidad.
Y aprende, la inteligencia artificial aprende no solo de tus respuestas, sino la respuesta del resto de los votantes, en las que se va afinando la capacidad de persuasión y aplicando esa capacidad de persuasión aumentaba o mejoraba, en el resto de los votantes.
Esto, además, puede sacarse del ámbito político para volver a lo político y de alguna manera se puede tratar, gracias a la inteligencia artificial, de persuadir al votante través de mecanismos de no votantes.
Ya hace tiempo cuando intentabas contratar publicidad en plataformas sociales, te decían que la mejor forma no era hacerlo por la identidad política o partidista del, votante, sino que muchas veces era mucho mejor por gustos de consumo, por gustos musicales, y que a la hora de la verdad resultaba mucho más eficaces para llegar para llegar a públicos no convencidos y además no prevenidos parara que esta persuasión fuera más eficaz.
Si además a través de esa persuasión de grupos de confianza, o sea, y además esta persuasión de grupos de confianza permitían llegar al votante y acabar convenciendo a tu objetivo final, por lo que el proceso íntegro era espectacular.
A este primer problema de cómo se generalizan estas tácticas y se convierten en un sistema que se retroalimenta, yo añadiría cinco más, o sea, esta primera teoría que es bastante obvia, pero es de (…)
Yo le añadiría cinco cosas más.
La primera, que estas técnicas están desvinculadas de categorías de verdadero o falso, las máquinas cuando aprenden, no aprenden en función de la verdad o la mentira de lo que están aprendiendo, aprenden en función de la credibilidad que es radicalmente distinto de lo que están haciendo.
Y además, lo hacen muchas veces en función del público con el que están dialogando de alguna manera, esto es una cosa muy curiosa, ¿no?, hace unos días, en España tenemos una gran polémica en torno a la Ley de Amnistía.
Hice un experimento muy peculiar en el cual distintos profesores universitarios de derecho constitucional, dialogaban con ChatGPT en torno a la Ley de Amnistía, y cada uno consiguió un resultado distinto en función de capacidad de persuasión a la máquina, lo que era espectacular, porque todos acababan muy contentos diciendo: ya le he enseñado derecho constitucional a la máquina, y todos decíamos: ya, pero le has enseñado derecho constitucional a tu máquina, pero qué ha pasado con el resto de las cinco máquinas a las que no les has enseñado, o de las cinco mil, 50 mil o 500 mil, ¿no?
Esto es una cosa muy sorprendente porque te acaba generando una cierta autosatisfacción el decir cuando la máquina no responde a este tipo de categorías.
En tercer lugar y perdón porque empiezo hacer mal de tiempo, que los afectados no tendrían forma de saber las estrategias utilizadas en este ejercicio de persuasión, la opacidad que es determinante.
Decía C.S. Lewis, en Cartas del Dominio a su Sobrino, que el gran truco del diablo era que todo el mundo hubiera creído que no existía, ¿no?, esta frase que luego se apropió una película que en mi opinión es mítica “Sospechosos habituales”, para hablar de Keyser Söze, no sé si recuerdan esa película, pero decía: en el gran truco de Keyser Söze era hacer pensar a las personas que ya no existía, que se había muerto.
¿Y qué? Cuando se aplica la inteligencia artificial, es absolutamente destructiva.
En cuarto lugar, nos encontramos con la participación de terceros, Frederico lo ha señalado de una forma muy clara, ¿no?, lo que pensamos que son plataformas neutras son realmente actores, pero además esos actores no son las plataformas sociales, sino todos aquellos que pueden participar en la conversación y la inteligencia artificial o los mecanismos de inteligencia artificial son determinantes, suelen volar por debajo del radar de la regulación.
Aquí lo han visto con Xóchitl y con las respuestas que generaron, la respuesta a Claudia Sheinbaum con el “no cualquier mujer puede ser Presidenta”.
Todas esas reacciones o todas esas respuestas que salieron no venían directamente de la campaña de Xóchitl, al menos oficialmente, eran respuestas que utilizaba la inteligencia artificial, pero que estaban promovidas inicialmente por particulares, introduciendo un nuevo campo en el que en principio la regulación no tendría mucho que decir.
En esta línea y perdonen la cuña publicitaria, pero les recomiendo un libro que acabo de publicar en la Escuela Judicial del Tribunal Electoral, sobre la participación de terceros en campañas electorales con redes sociales, que trata de abordar este problema que creo que es uno de los problemas que menos se trabajan y que más impactan o que más están transformando las campañas electorales.
El quinto serían los tiempos y la ausencia de recursos, la falta de preparación, esto te lo dice todo el mundo que ha sufrido este tipo de incidentes en sus campañas relativamente, Argentina, Eslovaquia, todos te dicen lo mismo, cuando sucedió no estábamos preparados, si no estábamos preparados ni las autoridades electorales ni las plataformas de verificación, porque una plataforma de verificación normalmente para verificar y eso que cuentan con medios, el uso de la inteligencia artificial necesitan horas o incluso días, cuando esto ocurre a menos de 48 horas de la elección como pasó en Eslovaquia, no hay una verificación posible y las plataformas son muy reacias a retirar ese tipo de contenido cuando no hay una verificación clara y contundente de que se ha utilizado inteligencia artificial y de hecho se limitan a etiquetar diciendo: creo, parece o alguien ha dicho que utilizaron inteligencia artificial.
El sexto y el último, y creo que en mi opinión el más importante, es la creación de un clima de desconfianza que acaba afectando, como se ha señalado aquí en la intervención previa, a los contenidos reales, ¿no?, que nos devuelve a ese mundo de la post verdad del que hablaba Jacques al principio.
Cuando todo es susceptible de haber sido creado con inteligencia artificial, el peligro que corremos es brutal, y les voy a poner un… aquí lo han vivido con Brugada y con Batres, que fueron acusados de determinados casos y en ambos casos la respuesta fue siempre la misma, “no hemos sido nosotros, ha sido la inteligencia artificial”.
Sin entrar al fondo de si fue o no, pero quiero decir que se ha convertido en un motivo o en una excusa habitual.
A mí me está pasando, y para que vean el nivel de neurosis que se adquiere, con el traductor a lengua de signos. Yo no, como está integrado a la pantalla de una forma perfecta, la estoy mirando con mucha fijación, pero es real o es inteligencia artificial.
Para que se hagan una idea de hasta qué punto se crea ese clima en el que uno acaba interpretando la realidad en función de las posibilidades de que todo sea creado artificialmente.
Y por último, y acabo ya el efecto imitación, el problema de las tecnologías en campaña, y esto lo explica Federico cuando ha explicado la historia, es que siempre que alguien innova y crea, y empieza a utilizar de manera inteligente y eficaz una tecnología electoral, todos los demás van detrás, y deja de ser un valor competitivo.
Por eso la tecnología solo es valor competitivo, la primera que se utiliza. El resto se normaliza, y con la inteligencia artificial ha pasado eso.
Hubo veces, o sea, al principio, hace dos años o un año y medio, que solo utilizaban algunos, pero ahora todo el mundo está copiando lo que hacen, y por tanto, se normaliza el uso de inteligencia artificial, y se crea esta distopía global de la que hablaba antes.
Yo lo dejaría aquí, porque alguna respuesta tengo, pero no son muy animantes, y creo que de alguna manera se ha mencionado hasta aquí.
Perdón por haberme pasado en el uso del tiempo.
Muchísimas gracias.
Experto electoral mexicano, Alberto Guevara: Muchas gracias a las tres personas panelistas que intervinieron en los minutos pasados.
Creo que han sido muy buenas exposiciones para entender el tamaño del problema, y es difícil no sucumbir a lo que ya decía Rafa, al rendirnos y decir “bueno, ya se acaba el mundo, cerremos, nos vamos”.
Y creo que una estrategia interesante, desde el punto de vista operativo, pragmático de las autoridades electorales, del público que está participando aquí es pensar cómo hacemos, si esta división entre lo real y lo digital que ya se difuminó al punto en donde la percepción puede ser la misma.
Rafael estaba muy confundido con el lenguaje de señas.
Creo que nos pasa a todos, de alguna manera ya a la hora de exponernos a las campañas electorales, a la hora de tomar una decisión sobre quién va a gobernar, cómo va a gobernar y qué va a hacer, qué es de lo que está sucediendo es real de la realidad anterior, y qué es lo que está sucediendo es real de la realidad nueva, y cómo la construcción de los argumentos políticos de largo alcance de estado están mediados también por la forma en la que nos obliga a conocer la realidad la inteligencia artificial.
Si lo planteamos en esos términos, creo que nos vamos a agobiar, y no vamos a llegar a algo concreto, porque es demasiado grande.
Entonces, creo que conviene subdividirlo, y entrarle, por ejemplo, desde este concepto que Angélica nos decía de la ciudadanía digital, ¿qué significa ser un ciudadano, una ciudadana digital?, ¿qué significa construir las herramientas para entrarle a este nuevo entorno?, ¿de quién es obligación? Todos somos corresponsables de la construcción de la realidad política, pero por algún lado hay que empezar.
¿Qué aportación pueden hacer las autoridades electorales?, que por cierto, el INE lo hace de maravilla, hay una responsabilidad porque además forma parte de su mandato, de construir ciudadanía.
¿Pero qué significa eso ahora? No es solamente mantenernos informados, porque también tenemos un problema de saturación de información.
En la primera exposición Jacques nos decía “los políticos están prometiendo mucho y cumpliendo poco”, cuando se plantean estas grandes campañas desde el mundo digital y creo que podemos enfrentar un problema más grandes cuando los políticos prometen mucho y cumplen mucho pero de maneras no democráticas, utilizando también los mecanismos de inteligencia artificial para la distribución de mensajes, para la construcción de mensaje y dar la impresión de que están dando grandes resultados, no necesariamente, gracias a un proceso democrático.
Tenemos una pregunta que creo que nos fuimos por otro lado en cuanto a la especificidad porque habla específicamente de la veda electoral mexicana y no me gustaría dejar a Rafa afuera de la respuesta pero creo que sí nos podrían permitir pensar en formas de entrarle a esta gran problemática por pasos, es decir, quizá podríamos pensar qué pueden hacer las autoridades electorales para responder a esta nueva realidad previo a la Jornada Electoral que es cuando hay que hacer mucho, mucho trabajo, decía un ex jefe cuyo nombre no voy a rebelar porque sería descortés pero me decía que en las elecciones, los tramposos no ganan las elecciones el día de la elección, ganan un año antes, dos años antes, a través de la definición de las reglas, de la construcción de narrativas.
Entonces, qué puede hacer la autoridad electoral con el mandato que tiene, con los recursos que tiene para prepararse rumbo a la decisión de elegir gobernantes, qué pueden hacer, aquí habla den de la aplicación de la ley sobre propaganda en tiempos de veda que es un poco o que decía Rafa, cómo controlas esa distribución y generación de contenido, el día anterior a la elección, sigue teniendo sentido por ejemplo que exista una veda, pueda haber distintas opiniones al respeto, pero vamos, o sea creo que hay que pensar qué pasa a los 15 minutos antes de que inicie la Jornada Electoral, qué pasa durante la Jornada Electoral, puede generar por ejemplo episodios de violencia, puede descarrilar por completo un proceso electoral, tenemos colegas de otros países que lo han vivido en carne propia y que también nos pueden compartir su experiencia pero es muy difícil gobernar el día de la Jornada Electoral el proceso.
Y luego qué hacemos después, qué hacemos después porque no es como que se acabó la elección hay una persona ganadora, y nos vamos todos a casa, no solo cuando hay resultados cerrados, sino también cuáles fueron las consecuencias de haber vivido un proceso de determinada naturaleza para la gobernabilidad y la construcción del próximo ciclo electoral.
Entonces me gustaría que revisáramos un poco en esas tres etapas grandes de las otras subetapas del ciclo electoral, qué opciones tienen las autoridades electorales, más allá de lo que ya plantearon ahora, las alianzas transnacionales, las alianzas multi(inaudible)cómo se ve eso en la cotidianidad para la autoridad electoral.
Jacques si te parece bien en tres minutos nos podrías compartir tu perspectiva.
Universidad de Stony Brook en Estados Unidos, Jacques Coste: Muchas gracias, qué buenas ponencias acabamos de escuchar, me dejan reflexionando mucho y también qué buenas preguntas Alberto.
Yo quisiera centrarme en dos cosas bien concretas ya aterrizando por completo el tema de qué pueden hacer las autoridades electorales, qué puede hacer particularmente el INE en esta jornada electoral, digamos ya en la realidad pues con el proceso electoral ya en marcha.
Creo que una cosa que todavía es tiempo de hacer es estos esfuerzos de pedagogía ciudadana.
Tú bien lo decías, es una de las labores del INE construir ciudadanía, y creo que además ha hecho un estupendo labor el INE en esta materia desde hace ya varios años. Y creo que es momento de que con esa presencia territorial que tiene, con esa legitimidad entre la ciudadanía que tiene, puede empezar a crear distintos mecanismos, desde difundir contenidos en las propias redes sociales, hasta utilizar personal territorial para tal cual acercar información a la ciudadanía; que las personas estén conscientes al menos de los riesgos que implica la inteligencia artificial de cómo están cambiando las dinámicas electorales, estas nuevas tecnologías.
E insisto, sobre todo, por ejemplo, de la posibilidad de crear contenidos falsos que parecen verdaderos.
Eso es algo que muchos adultos mayores todavía no saben que se puede hacer, y que sería positivo que lo supieran.
Y también insisto que traten de fomentar estos buenos hábitos en las redes sociales.
Como dije, la verdad sería poco realista pensar que todas las personas van a seguir estas buenas prácticas en redes sociales, pero creo que mientras más personas lo hagan, mejor, y nos acercaremos más a la construcción de esta ciudadanía digital que muy bien proponía Angélica.
Por otra parte, ya el día de la Jornada Electoral, y un día antes, el día de la veda, creo que es importantísimo que el Instituto Nacional Electoral siga ya con su bien establecida tradición de lograr que fluya la información confiable, verificable sobre la Jornada Electoral, sobre qué sí se puede y qué no se puede.
Y que de esta manera brinde la mayor cantidad de certidumbre posible a la ciudadanía, es decir, el INE tiene el reto, pero a la vez creo que ha demostrado que está a la altura de este reto, de erigirse en el máximo referente respecto a la información el día de la Jornada Electoral.
Y mientras mayores condiciones de certidumbre genere, mientras más información brinde a la ciudadanía de cómo va el proceso de que se está desarrollando de manera correcta, menos espacio dejarán las dudas, y sobre todo, a las campañas de desinformación y a las noticias falsas.
Ésas serían mis dos propuestas muy concretas y particulares.
Muchas gracias, Alberto.
Experto electoral mexicano, Alberto Guevara: No, muchas gracias, gracias a ti.
Nuevamente, construir sobre este idea de la pedagogía ciudadana y fomentarla, lo que podemos llamar una especie de higiene digital en nuestra interacción con este mundo virtual.
Angélica, ¿qué nos puedes decir?
Directora de Cultivando Género A.C., Angélica Contreras: Yo quisiera que nos quedamos, justamente, como decían, con esta idea de que todo está mal, es terrorífico, vamos a cerrarlo todo y quemarlo todo.
No, al contrario, yo sí soy una creyente de la esperanza que tenemos desde las redes socio digitales y la importancia de su uso, pero, justamente, creo que tenemos que empezar a reflexionar en cómo este uso está teniendo, va a generar riesgos más bien, en lo que estamos también decidiendo para nuestros futuros.
Y aquí yo también plantearía otra pregunta, más bien, como un ejercicio de reflexión, de la importancia, seguramente recordarán aquel proceso electoral en México, donde un domingo amanecimos con personas del espectáculo que estaban promoviendo el voto, disfrazadamente desde su…
Y ahí hubo una sanción a estas personas.
Pues qué va a pasar si el próximo año en lugar de que salgan personas del espectáculo identificadas claramente, pues ahora sean avatars generados, ¿a quién vamos a multar?, no creo que le puedan emitir una multa a la inteligencia artificial, ¿no?, digo, a dónde se la mandarían.
Creo que invita esta reflexión, qué haríamos, y por eso la importancia.
A ver, yo, para no irme por las nubes literalmente.
Primero, creo que hay que empezar a ya creernos el tema, es decir, no son nuevas tecnologías, ésas ya existen, ya están aquí presentes, más bien estamos viendo cómo se generan nuevas prácticas con la tecnología ya existente, y cómo deberíamos entonces ya a empezar a poner estas conversaciones, tan no solamente a nivel de discusión, sino qué adecuaciones tenemos que hacer para que sea operativo; y el mejor ejemplo es los reglamentos en las escuelas.
En los reglamentos en las escuelas se condicionaba, por ejemplo, cómo tenía que ir el alumno o la alumna en cuanto a higiene, y ahora ya se permite que entren con el cabello en el corte que decidan, y ahora entonces, pero lo que no consideraron es el uso de los teléfonos dentro de clases.
Y entonces, ahí tenemos que cada escuela hace lo que se le antoja, y ahí tenemos problemas por la privacidad, la intimidad, de las niñas y niños en las escuelas.
Lo mismo está pasando ahora, ya es una realidad.
¿Cómo estamos, entonces, hablando de estos temas?
Pero me parece que es importante que reconozcamos que existen brechas en cuanto al acceso a la tecnología.
Pensando a nivel México, pues hay todavía comunidades que no tienen este acceso, que no cuentan con esas habilidades.
Cómo, entonces, se va a hablar de, no solamente desde la parte pedagógica de la importancia, que comentaba justamente ya hace un momento, sino cómo estos efectos tienen, cómo afecta a ti persona este uso que no tenga un principio ético, cómo te afecta a ti, por qué me afectaría, no es solamente porque se va a ver más bonito o no, cómo me está afectando.
Y tenemos también que pasar hacia lo normal, eso está generando una normalización pero también una personalización y una individualización.
Prácticamente nos llegan mensajes adecuados a lo que queremos nosotras y nosotros escuchar. Cómo estamos también cuestionando este contenido, y eso implica entonces el replanteo también desde las instituciones, y la participación sí o sí de los partidos, y como ciudadanía esta exigencia.
Experto electoral mexicano, Alberto Guevara: Muchas gracias, Angélica.
Creo que señalas, otra vez, muchas cosas muy importantes, por ejemplo, imaginando un escenario de violación a las disposiciones actualmente aplicables, donde el sujeto de la sanción no es evidente, creo que se podría buscar, no quién está detrás del avatar del que tú hablabas, pero en todo caso, también pensar si como está diseñado actualmente la identificación del sujeto, el efecto de la sanción, las dimensiones de las sanciones, en realidad están cumpliendo con la función que nosotros pensamos.
Nuevamente, hace años que diseñamos este sistema para una realidad que cambia todos los días, en fin.
Rafael, tu intervención en tres minutos.
Rafael Rubio, Experto de la Comisión de Venecia del Consejo de Europa: Muchas gracias.
Tres ideas y una broma.
La primera. El día, o sea, creo que la primera idea que se nos tiene que quedar es, que para los organismos electorales, y esto lo saben perfectamente pero a veces no lo vemos así, el día de la elección es irrelevante, o sea, pensemos, por ejemplo, en los sistemas de observación electoral, donde todo está concentrado en dos días en los que realmente cuando uno llega ya está, o sea, es como llegar tarde a una cena donde uno va a coger las sobras del postre o el café.
Pues esto es un poco lo mismo, o sea.
Y voy a la segunda idea.
El objetivo de la desinformación no es ganar las elecciones que es lo que a veces pensamos porque es lo más obvio, sino es generar desconfianza, muchísimas veces las campañas de comunicación no buscan apoyar un candidato a otro, las propias investigaciones en el congreso nacional norteamericano de 2016, lo que demostraban es que Rusia no tenía un candidato claro lo que quería era desestabilizar el país y, por tanto, el objetivo fundamental de las campañas de desinformación es acabar con la confianza y, por tanto, el objetivo fundamental de los organismos electorales es ganar la confianza, pero ganar la confianza requiere muchísimo tiempo, yo no sé si ustedes alguna vez han tenido que devolver la confianza a alguien pero es una cosa complicadísima, entonces, lo que no podemos pensar es que nosotros el día de la elección como somos organismo electoral vamos a tener la confianza que no nos hemos ganado durante los meses o años anteriores.
Entonces, ganar la confianza requiere palabras y sobre todo requiere hechos y ganar la confianza requiere tiempo, creo que son los tres elementos esenciales para entender esto.
Y por último, cómo se gana la confianza y luego hago la broma, cómo se gana la confianza, la confianza se gana a largo plazo, pero se gana con políticas integrales donde el marco jurídico es esencial pero es irrelevante o es secundario, hace falta, el derecho y la confianza no necesariamente van unidos, el derecho pone el marco donde se desenvuelve la confianza, pero para ganar la confianza hace falta planes integrales que tengan en cuenta las distintas problemáticas, la comunicación, el derecho, la educación, la tecnología y muchas veces nos centramos cada uno en nuestra área y no nos salimos de ahí no, planes estratégicos que piensen en función de los objetivos, no en función de, vamos a cortar de raíz la desinformación porque es imposible, vamos a cortar aquella desinformación que afecta de una manera directa y trascendental al proceso electoral, no cualquier, nuestra desinformación como a veces acaba resultando imposible y además acaba aumentando la desconfianza en lugar de reducirla.
Con planes como decía Angélica, que para recuperar la confianza el Tribunal o el INE es insuficiente, es incapaz, lo siento, necesita ir de la mano con la sociedad civil, con infinidad de organismos que son mucho más creídos por la sociedad que los propios organismos electorales, entonces creo que hace falta un poco de humildad, el sentido de que mi capacidad es “x” pero mi capacidad si la multiplico por todos estos acaba siendo enorme, pero claro, eso tampoco se contribuye el día de la elección diciendo, oye que yo digo la verdad, coge lo que yo digo y distribúyelo, sino que tienes que estar meses o años convenciendo a la gente que tú eres el que dice la verdad y luego esa gente pues cogerá tu verdad, pero si no va a decir, oye pero qué me estás contando, tú quién eres.
Y por tanto, yo creo que uno de los grandes retos y donde menos se trabaja o donde creo que hay que empezar a trabajar más es en la comunicación estratégica, o sea creo que todos los organismos estamos más obsesionados por la regulación que por la comunicación y creo que el problema es el control, el problema es, vamos a hacer comunicación estratégica a largo plazo y evidentemente así hacer una regulación.
La broma es por la veda, ya me lo han chafeado un poco por del Partido Verde que no pasó una vez sino dos, o sea que ya estábamos preparados y nos dio igual, en principio como decía Alberto, la solución podría pasar por tratar de buscar quién está detrás, pero cuando entran los terceros nos metemos en un charco enorme en el que el Tribunal se ha metido de manera equivocada en mi opinión varias veces, que tiene que ver con como defino si el tercer es interesado o no, cómo defino si el tercero está, no, defino si el tercero es interesado, claro si está casado con el candidato en el caso de Mariana, no podemos decir que sea un tercero interesado, pero qué pasa si tiene otra relación que no sea la del matrimonio y la de noviazgo, lo excluimos de la capacidad del tercero y de su libertad de expresión.
O sea me parece que es un tema muy profundo.
Pero quizá aquí en México han encontrado la solución, y ésta es la broma por si acaso alguien lo interpreta mal, que es la personalización.
O sea, yo no sé si ustedes habían pensado alguna vez que era posible lanzar mensajes en radio, determinando quién lo va a escuchar.
Entonces, hemos visto, estamos viendo esta precampaña de una manera brutal, que los mensajes se lanzan diciendo “esto es solo para los afiliados y militantes del partido”, el resto nos tapamos los oídos vayamos donde vayamos, y con esto solucionamos la veda, porque la veda podemos hacer campaña solo para los candidatos, hacemos publicidad, decimos “este mensaje es solo para los candidatos, que todo el mundo se tape los oídos, y así no se rompe la veda”.
Es evidentemente una estupidez que trata de significar otra cosa, pero me parece que a la hora de plantearnos la veda, la única solución posible es eliminarla.
Experto electoral mexicano, Alberto Guevara: Gracias, Rafael.
Pues en realidad tenemos un poco más de tiempo, si alguna de las personas ponentes quiere agregar algo que se le haya quedado en el tintero, porque si no, no queremos interponernos entre el almuerzo y ustedes.
Pero sí quiero decirles que, bueno, en primer lugar, reiterar mi agradecimiento por la oportunidad de moderar este panel porque yo no solo lo he disfrutado mucho, sino porque agradezco que se haya terminado la pandemia para ofrecer estos nuevos mecanismos de interacción en donde Jacques nos acompaña a distancia, participa de esta discusión.
Pero también estamos aquí en vivo con el valor que significa interactuar como personas en la construcción de soluciones a problemas compartidos.
Hablaba Rafael de un elemento importantísimo: la confianza. Yo les pregunto si podríamos construir el mismo nivel de confianza, únicamente a través de pantallas.
A mí me parece por lo menos complicado, pero vernos en persona y participar en esta discusión aquí creo que tiene un valor en sí mismo.
Por supuesto, gran iniciativa, grandes perfiles que están combinando respuestas diversas, no solamente, por supuesto, la perspectiva académica, con la experiencia práctica que también Rafael tiene como con las 80 cachuchas que se pone.
Angélica también desde el activismo, pero también sobre una usuaria y activista que utiliza las redes sociales también como un instrumento de trabajo, en fin.
Y ustedes también que nos están ayudando pensamientos, soluciones, partidas para los retos que plantea el uso de la inteligencia artificial.
Decía Harari, quizá ya es demasiado tarde, y la inteligencia artificial ha hackeado a la humanidad porque hackeó su sistema operativo, que es la capacidad de construir cultura.
Lo que distingue a los seres humanos es lo que nosotros llamamos en términos generales cultura.
Creo que si nos ayudamos desde las distintas trincheras a defender la cultura, construyendo confianza, pensando en nuevos mecanismos para que esto no sea una guerra sin ley, creo que vamos a hacer mucho por salvar nuestra democracia.
Muchísimas gracias a todas y a todos.
Presentadora: Muchas gracias a las personas participantes en este panel.
Para continuar, haremos un receso para regresar en punto de las 03:00 de la tarde, y continuar con nuestro siguiente panel.
Gracias a todas y a todos.
-o0o-