
Presentadora: Observatorio de Participación Política de las Mujeres en México y con motivo de la conmemoración del Día Internacional de las Mujeres. » La Inteligencia Artificial, Lecciones Aprendidas con Perspectiva de Género.
Este espacio forma parte de los trabajos impulsados por el Observatorio de Participación Política de las Mujeres en México y del compromiso del Instituto Nacional Electoral para fortalecer la participación política de las mujeres y promover, sobre todo, entornos digitales libres de violencia.
Mi nombre es Cristina Retana, voz del INE, y tengo el gusto de acompañarles como maestra de ceremonias de este panel, y para abordar este tema tan importante contamos con la participación de distinguidas personalidades.
Así que a continuación me permitiré leer brevemente la semblanza de cada una de nuestras panelistas y moderador.
Nos acompaña la Maestra Cecilia Calderón Ortega, Directora de Seguridad y Control Informático del INE.
Cecilia Calderón Ortega es Licenciada en informática por la Universidad Nacional Autónoma de México, titulada con mención honorífica, cuenta con una maestría en Dirección Estratégica de Tecnologías de la Información y Comunicaciones por IMPOTEC, con colaboración con la Universidad de Texas.
Tiene una amplia trayectoria en el sector público y privado en áreas de tecnología y seguridad de la información.
Ha ocupado cargos directivos en instituciones como la Secretaría de Relaciones Exteriores, la Secretaría de Hacienda y Crédito Público y Banco del Ahorro Nacional, entre otros, donde lideró proyectos de transformación digital, seguridad de la información e innovación tecnológica.
También ha colaborado con empresas del sector privado y se ha desempeñado como profesora en la UNAM.
En el 2012 fue reconocida como una de las 100 mejores CEO del año, y actualmente es directora de Seguridad y Control Informático del INE.
Así que le damos la más cordial bienvenida a Cecilia Calderón Ortega.
Bienvenida, Maestra.
Muchísimas gracias por acompañarnos.
Saludamos también a la Ingeniera Sinia Álvarez Ramos, Vocal Ejecutiva de la Junta Local Ejecutiva del INE en Baja California Sur. Ingeniera en sistemas computacionales por el Instituto Tecnológico Zacatepec.
Cuenta con una especialidad en política y gestión educativa en la Facultad Latinoamericana de Ciencias Sociales, y actualmente cursa la maestría en Derecho Electoral en el Instituto Iberoamericano de Derecho Electoral.
Cursó el Diplomado en Derecho Electoral en el Tribunal Electoral del Poder Judicial de la Federación y el Diplomado de Presupuesto Basado en Resultados en la Universidad Nacional Autónoma de México.
Ingresó en el año 2011 al Servicio Profesional Electoral Nacional como jefa de Departamento de Control y Apoyo Logístico de la Dirección de Estadística y Documentación Electoral de la Dirección Ejecutiva de Organización Electoral.
Participó en los procesos electorales 2011-2012, 2014-2015 y el proceso constituyente de la Ciudad de México, esto en el año 2016.
Fue vocal ejecutiva de la 04 Junta Distrital Ejecutiva en Guerrero. Posteriormente se desempeñó como vocal de organización electoral en la Junta Local Ejecutiva, esto en el estado de Morelos.
Participó en los procesos electorales 2017-2018, 2020-2021 y en la Consulta Popular 2021 y revocación de mandato en el año 2022.
Participó en el primer certamen interno de Ascensos 2023 para la ocupación de plazas vacantes y cargos del Servicio Profesional Electoral Nacional del sistema del Instituto Nacional Electoral, donde resultó ganadora del cargo de Vocal Ejecutiva de la Junta Local Ejecutiva en el estado de Baja California Sur, la cual actualmente ocupa desde el 1 de abril del 2023.
Participó en el Proceso Electoral 2023-2024 y también en el Proceso Extraordinario para la Elección de Diversos Cargos del Poder Judicial de la Federación 2024-2025.
Ella es Sinia Álvarez Ramos, así que, bienvenida.
Asimismo, contamos con la participación de la Maestra Claudia Rodríguez Sánchez, Vocal Ejecutiva de la Junta Local Ejecutiva del INE en Puebla.
Licenciada en Derecho por la Universidad Autónoma Metropolitana y Maestra en Amparo. Cuenta con especialidades en estudios electorales y justicia electoral.
Ha realizado diplomados en Derecho Electoral, Sistema Electoral y Partidos Políticos en México, Representación también Política y Gobernanza Electoral, Derechos Políticos y su Tutela.
Además, cuenta con diversos cursos de actualización en Derecho Electoral, de Género, Violencia Política contra las Mujeres, Negociación, Liderazgo, Habilidades Directivas, entre otros.
Ha participado en diversas actividades en materia electoral, Observadora Internacional en la segunda vuelta de las Elecciones Presidenciales de Perú, esto en el año 2016; expositora en diversos diplomados y cursos.
Tiene experiencia en 14 procesos electorales, tanto locales como federales, en la organización de las elecciones de integrantes del Consejo Nacional y Congreso Nacional del PRD, en la consulta popular, revocación de mandato 2022 y la pasada Elección Extraordinaria del Poder Judicial de la Federación.
Además, es integrante del Servicio Profesional Electoral del Instituto Nacional Electoral desde el año 2008 y se ha desempeñado como Vocal de Organización Electoral Distrital y Local, Vocal Secretarial Local y Vocal Ejecutiva Distrital y Local.
A partir del 1º de marzo del 2026, actualmente es Vocal Ejecutiva de la Junta Local Ejecutiva en Puebla.
Ella es Claudia Rodríguez Sánchez.
Bienvenida.
Muchísimas gracias por acompañarnos.
Y para conducir el diálogo de este panel, contamos con la moderación de la Maestra Elizabeth Tapia Quiñones, Vocal Ejecutiva de la Junta Local Ejecutiva del INE en Nayarit.
Egresó de la Universidad de California con sede en Santa Bárbara, con una doble licenciatura en Ciencias Políticas y Comunicación.
Estudió una Maestría en Gobierno y Políticas Públicas en la Facultad de Economía de la Universidad Autónoma de Yucatán.
Cursó, entre otros cursos y talleres en materia electoral, un Diplomado en Derecho Electoral ofertado por el Tribunal Electoral del Poder Judicial de la Federación.
Ingresó al Servicio Profesional Electoral Nacional del INE, esto en el año 2014, como Vocal de Capacitación Electoral y Educación Cívica en la 01 Junta Distrital en Palenque, Chiapas.
Posteriormente se desempeñó como Encargada de Despacho de la Vocalía Ejecutiva de la 09 y 06 Junta Distrital, con sedes en Oaxaca.
A la conclusión de estas encomiendas, ocupó el cargo de Vocal de Capacitación Electoral y Educación Cívica en la 01 Junta Distrital de Valladolid, esto en Yucatán y, posteriormente se desempeñó como Vocal Ejecutiva en la 10 Junta Distrital en Porfirio Díaz, Oaxaca.
En marzo del 2019 llega a Campeche como Vocal de Capacitación Electoral y Educación Cívica y en la Junta Local del INE estuvo en el estado de Campeche, donde en enero de 2020 asciende a Vocal Ejecutiva en esta misma entidad.
En enero de 2022, pasaron dos años por cambio de adscripción, arriba al estado de Tabasco en el mismo cargo, para finalmente el 1 de marzo de este año asumir la delegación en el estado de Nayarit, cargo en el que se desempeña actualmente, ella es Elizabeth Tapia Quiñones.
Muchísimas gracias por acompañarnos.
Agradecemos a toda su presencia, disposición por compartir sus reflexiones y experiencias sobre este tema tan importante.
Antes de iniciar la conversación de este panel vamos a hacer una fotografía oficial, así que les pido, por favor, a todas y a todos que están conectados mantener su cámara encendida para hacer esta fotografía, vamos a dar unos segunditos para que se coloque enfrente a la cámara y hacer esta fotografía iniciando este panel, así que esperamos poquito, y a la cuenta de tres: uno, dos, tres.
Muchísimas gracias, esta es la fotografía oficial de este panel, ahora cedo el uso de la palabra a la Maestra Elizabeth Tapia, quien dará inicio a este diálogo, junto con nuestras panelistas.
Así que, adelante, Maestra, y bienvenidos todos. Disfruten de este panel.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias, Cristina, muy buenas tardes a todas las personas.
Mi nombre es Elizabeth Tapia, y el día de hoy tengo el gusto de moderar este panel número dos que, como ya dijo Cristina, nuestra voz INE, se denomina la inteligencia artificial: lecciones aprendidas con perspectiva de género, y se desarrolla en el marco de actividades de reflexión para la erradicación de la violencia política contra las mujeres por razones de género.
El día de hoy en este panel vamos a centrar la reflexión en la inteligencia artificial, que es una herramienta que ha cobrado mayor relevancia por el incremento en su uso y en su accesibilidad. Hoy en día tenemos diversas plataformas que nos permiten hacer uso de ella para diferentes propósitos.
En esta ocasión, particularmente, nos vamos a centrar en el impacto o riesgo que la IA puede tener en la violencia digital contra las mujeres y cómo puede reproducir o amplificar desigualdades de género.
También vamos a reflexionar sobre cómo la IA puede ser una herramienta para prevenir riesgos y fortalecer la protección de derechos políticos-electorales, para ello tendremos tres rondas con nuestras tres panelistas, en cada ronda yo plantearé una pregunta detonadora para guiar la discusión: la primera ronda constará de cinco minutos para cada intervención de cada panelista, en esta habrá una pregunta detonadora genérica; en la ronda número dos tendrán hasta seis minutos para responder, y en esta segunda ronda les voy a plantear preguntas específicas a cada una de nuestras panelistas; y, finalmente, cada una tendrá la oportunidad de dirigir un mensaje de cierre de hasta dos minutos.
Empezamos entonces con nuestra primera ronda que nuevamente tendrán hasta cinco minutos para responder, en pantalla van a tener un cronómetro el cual podrán ir siguiendo durante su intervención, pero yo también estaré muy atenta para poder indicarles, una vez que se haya agotado su tiempo.
Entonces, les repito, en esta primera ronda yo les voy a plantear una pregunta inicial, que será la misma para las tres. Empezamos con la Maestra Cecilia Calderón, y la pregunta es: desde su experiencia institucional, ¿cuáles son los principales retos y riesgos que plantea la inteligencia artificial en el entorno digital, particularmente en relación con la violencia digital contra las mujeres?
Adelante, Maestra.
Directora de Seguridad y Control Informático, Cecilia Calderón Ortega: Muchas gracias.
De nueva cuenta, buena tarde a todas y a todos.
Y a mí me gustaría hablar del tema de sesgo de género e inteligencia artificial. Un sesgo de género ocurre cuando un sistema de inteligencia artificial trata de manera diferente y generalmente desventajosa a las personas según su género.
Si partimos de que tenemos una sociedad desigual, esas desigualdades históricas en trabajo, en educación y en diferentes ámbitos pueden generar datos sesgados a través de información histórica.
Hay que recordar que los datos que alimentan la inteligencia artificial, dependiendo de la calidad de los mismos, es como vamos a obtener los resultados; entonces, si un modelo de inteligencia artificial se aprende a través de patrones de discriminación, por lo tanto, se van a generar decisiones injustas.
Voy a poner algunos ejemplos.
Uno muy sonado fue en Amazon, cuando en 2014 generaron un modelo de inteligencia artificial para proceso de selección y reclutamiento de personal.
El sistema fue entrenado con 10 años de historia a través de contrataciones que tuvieron en Amazon, en esa época, la gran mayoría de los contratados en temas de tecnología eran hombres, más del 90 por ciento.
El sistema aprendió que hombre es igual a candidato ideal, por lo tanto, pues ahí se generó un patrón del pasado. El resultado es que este modelo de inteligencia artificial penalizaba automáticamente los currículos que decían “mujer” o venían de colegios de característica femenina.
Después, varios tiempos se dieron cuenta que este sistema estaba generando este tipo de discriminación, entonces lo descontinuaron, pero el daño ya estaba realizado, o sea, se generaron muchas desigualdades en términos de contratación.
Otro caso también que quiero poner en la mesa es en cuanto al reconocimiento facial, también por ahí se tiene alguna historia donde el MIT identificó que existían ciertos patrones de reconocimiento facial para sistemas de tipo biométrico en donde la precisión que había reconocer hombres blancos era mucho mayor, iba disminuyendo si eran hombres de color, si eran mujeres de color. También era mínimo el porcentaje que se estaba reconociendo en cuanto a ese tipo de patrones.
Volvemos a lo mismo, la tecnología por sí sola pues no tiene criterio, depende mucho de los datos con lo que es alimentada y no con lo que es entrenada.
Y otro caso que también me gusta poner en la mesa es en cuanto a los sistemas de reconocimiento de voz, los típicos que utilizamos. Hay también estadísticas donde se tiene claro que reconocen más fácilmente una voz masculina que una voz femenina.
Entonces en ese sentido, es importante que se cuiden los datos con los que se alimenta un modelo de inteligencia artificial para que no tenga estos patrones discriminatorios.
Y aquí también me gustaría mencionar que muchos de estos patrones discriminatorios con los que se llegan a programar los modelos de inteligencia artificial tienen que ver mucho porque las personas que intervienen en el desarrollo de los mismos son típicamente hombres.
Es histórico y lo sabemos que habemos muy pocas mujeres que nos dedicamos a los temas de desarrollo de tecnología.
Entonces, eso es lo que tenemos que buscar equilibrar, porque si hay mayor cantidad de hombres en desarrollos tecnológicos, pues de manera, digamos, natural se pueden dar estos sesgos.
Entonces, también ahí es importante que se considere la importancia de mayor participación de mujeres en el desarrollo de este tipo de modelos.
Es cuanto de mi parte.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias, Maestra Cecilia.
Me gusta mucho esto que dice que la tecnología no tiene criterio, pero reproduce justo los estereotipos que tenemos las personas que nos encargamos de crearlos, y me parece que ahí es donde tendríamos también que estar poniendo atención justo como usted refiere.
En esta primera ronda tiene ahora el uso de la palabra la Ingeniera Sinia Álvarez Ramos, quien es Vocal Ejecutiva del INE en Baja California Sur.
Adelante, Ingeniera.
Vocal Ejecutiva de Junta Local Ejecutiva de Baja California Sur, Sinia Álvarez Ramos: Muchísimas gracias, Elizabeth.
Buenas tardes a todas y a todos.
Agradezco a la Licenciada Guadalupe Taddei Zavala, Consejera Presidente del INE y quien preside también la presidencia del Observatorio de Participación Política de las Mujeres en México por la apertura de estos espacios de diálogo.
También es un placer para mí compartir este panel con mis compañeras delegadas Claudia y Elizabeth y con la Maestra Cecilia Calderón Ortega.
Bueno, considero que uno de los retos que se puede identificar claramente, como lo comentó Cecilia, es el sesgo algorítmico.
Los sistemas aprenden de grandes volúmenes de datos históricos y esos datos reflejan las desigualdades y estereotipos existentes en la sociedad. Esto se traduce a algoritmos que pueden discriminar, invisibilizar o incluso estigmatizar a las mujeres, tal como se menciona en el texto de Rivas y Espinoza, Sesgo de género, inteligencia artificial, una perspectiva de derechos humanos.
Ellos señalan que el sesgo en la inteligencia artificial proviene principalmente del sesgo inherente a los propios seres humanos.
Los modelos y los sistemas que se crean y entrenan son un reflejo de la característica de la sociedad misma. Así que no es de extrañar que la inteligencia artificial esté aprendiendo del sesgo de género de los propios seres humanos.
La ONU-Mujeres señala que vivimos en un mundo en el que al menos una de cada tres mujeres experimenta violencia física o sexual, mientras que la violencia contra las mujeres y niñas, facilitada por la inteligencia, se intensifica.
Según los estudios, entre el 16 y el 58 por ciento de las mujeres en todo el mundo se han visto afectadas. La inteligencia artificial está creando nuevas formas de abuso y amplificando las disponibles a tasas alarmantes, por lo que un riesgo clave es la amplificación de la violencia digital.
Hay herramientas basadas en inteligencia que están siendo utilizadas para generar contenidos dañinos, como los llamados deepfakes, donde se manipulan imágenes o videos de personas reales diciendo o haciendo cosas que nunca ocurrieron, o para crear contenido sexual no consentido.
Este fenómeno afecta de manera desproporcionada a mujeres y niñas, convirtiéndolos en una forma de violencia sexual digital que vulnera la dignidad, la privacidad y la seguridad.
De acuerdo con los resultados del análisis realizado por Claudia May y Daniela Rojas durante el ciclo electoral de México de 2023-2024, el uso de la IA generativa fue identificado al menos dos casos, donde se crearon y distribuyeron materiales íntimos no consensuados de candidatas mujeres.
Otro reto importante es la falta de regulación efectiva.
La velocidad con la que avanza la inteligencia artificial supera con creces la capacidad de los marcos legales para adaptarse. Esto genera vacíos que dificultan la protección de las víctimas.
En muchos países la violencia digital, incluyendo la violencia con inteligencia no está claramente tipificada o, en su caso, la persecución enfrenta obstáculos técnicos y jurídicos, a esto se suma la opacidad de los sistemas algorítmicos, que dificulta la rendición de cuentas de las empresas tecnológicas.
Entonces, creo que estos son retos muy importantes que tenemos con autoridades de identificar, ¿qué se está haciendo para ampliar esta violencia digital en las mujeres?
Es cuanto, Elizabeth.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias, Ingeniera Sinia.
Es muy relevante lo que refieres sobre estas nuevas formas de abuso que afectan particularmente a las mujeres y cómo la rapidez con las que se van creando estas nuevas tecnologías y se van generando estas nuevas formas de abuso, van a un ritmo mucho más acelerado que nuestros marcos legales y nos deja, en muchos casos, en una situación de indefensión.
Continuamos ahora, en la primera ronda, con nuestro tercer panelista, que es la Maestra Claudia Rodríguez Sánchez, ella es Vocal Ejecutiva de la Junta Local de Puebla.
Adelante, Maestra Claudia, hasta por cinco minutos.
Vocal Ejecutiva de Junta Local Ejecutiva de Puebla, Claudia Rodríguez Sánchez: Muchas gracias, Elizabeth.
Pues, agradezco a la Consejera Presidenta Guadalupe Taddei por la oportunidad de participar en estos paneles, así como a la Secretaria Ejecutiva, la Doctora Claudia Arlett Espino y para mí es un gusto compartir esta mesa con Cecilia, con Sinia, con Elizabet.
La violencia política en razón de género se ha incrementado considerablemente con el aumento del número de candidatas mujeres y el avance hacia una paridad política.
Las redes sociales y plataformas de contenido a través de bots y trolls se han convertido en los canales principales de difusión de contenido violento y despectivo con el objetivo de menospreciar y desacreditar a las candidatas.
Entre más participación de las mujeres en la vida política, más violencia.
Los criterios y sanciones no son suficientes porque se suman a los desafíos de la comunicación en la era de las redes sociales. La inteligencia artificial, las noticias falsas, los deepfake y el anonimato que a la par hacen crecer el miedo de las mujeres y esto afecta su participación.
Las mujeres en la vida política experimentan o experimentamos formas de violencia que al manifestarse en el ámbito digital constituyen violencia política digital. Esta violencia se presenta de manera simultánea y se entrelaza con otras modalidades, la cual afecta profundamente su participación.
Así la violencia digital se puede intensificar y sumar otras formas de violencia política que limitan sus derechos, su participación y su ejercicio en la esfera pública.
Las redes sociales también han abierto oportunidades para la creación de contenido multimedia y experiencias interactivas que se perciben y se comprenden desde la información visual que en ciertos momentos se torna violenta, en particular contra las mujeres y produce conductas y hechos políticos sociales que afectan el terreno del derecho electoral, pues van en contra de las normas y las disposiciones jurídicas en la materia.
Es importante, por ejemplo, que el Foro Económico Mundial publicó su reporte de riesgos globales del 2024, el cual destacó la desinformación generada por la inteligencia artificial como uno de los cinco principales riesgos para los próximos dos años y, evidentemente, esta desinformación generada por la IA afectará de manera directa a las mujeres.
Si bien es cierto, la Ley General de Acceso a las Mujeres de una Vida Libre de Violencia, en el inciso 10) del artículo 20-TERS, señala explícitamente la vía virtual como un canal de expresión de la violencia política contra las mujeres, como divulgar imágenes, mensajes o información privada de una mujer candidata o en funciones por cualquier medio físico o virtual, con el propósito de desacreditarla, difamarla, denigrarla y poner en entredichos capacidad o habilidades para la política, con base en estereotipos de género, la violencia política contra las mujeres sigue creciendo.
Bueno, derivado de esto considero de vital relevancia los siguientes retos. Primero, reconocer y enfrentar la violencia ejercida contra las mujeres en los espacios digitales para el ejercicio pleno de sus derechos político-electorales en la era digital.
Segundo, creación y desarrollo de normas jurídicas específicas en las cuales se incluyan definiciones, conductas, sujetos activos, sujetos pasivos, violaciones normativas, estándar probatorio, medidas cautelares, medidas de protección y sanciones para casos de violencia digital en específico contra las mujeres en materia político-electoral.
Tercero, contar con protocolos, y esto habría que trabajarlo, especializados para atender la violencia política en línea y/o digital.
Y dentro de los riesgos que yo logro apreciar, creo que es necesario establecer límites claros en donde se garantice la libertad de expresión, pero que so-pretexto de esta, no se violente a las mujeres que participen en la vida política de nuestro país. Y creo que ahí hay una línea muy delgada entre la libertad de expresión y las manifestaciones que se puedan hacer que violenten a las mujeres.
Entonces, creo que es un riesgo, pero hay que tenerlo de manera muy clara para, en su caso, hacer la normativa correspondiente, pero también que, en su momento, si se presenta alguna situación de este tipo, no sea el pretexto para censurar la libre expresión.
Hasta aquí dejaría mi participación. Muchas gracias.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias, Maestra Claudia.
Creo que aquí en el cierre nos plantea una atención que, además, ha estado mucho en el discurso público últimamente, que tiene que ver con la libertad de expresión y el marco regulatorio que debe estar claramente definido para poder ir sorteando esta tensión natural entre la regulación del discurso y la libertad de expresión, que me parece da para mucho análisis.
Y por eso pasamos ahora a una segunda ronda, donde tendrán la oportunidad de responder a una pregunta que en esta ocasión será específica. Tendrá cada una de ustedes hasta seis minutos para responder la pregunta que les será planteada. Iremos en el mismo orden de intervención.
Empezamos con la Maestra Cecilia Calderón, seis minutos, y su pregunta, Maestra, es: la inteligencia artificial permite generar contenidos manipulados, como imágenes o videos falsos, ¿cómo deberían prepararse las instituciones electorales para enfrentar estos nuevos riesgos en el debate público?
Nuevamente, hasta seis minutos.
Directora de Seguridad y Control Informático, Cecilia Calderón Ortega: Sí, muchas gracias.
Bueno, en los últimos años el uso de herramientas de inteligencia artificial ha crecido rápidamente y también en las instituciones públicas.
En el caso del Instituto Nacional Electoral, surgió la necesidad de establecer reglas claras para un uso responsable. Un ejemplo distractivo fue el incidente relacionado con el uso de voces sintéticas generadas por inteligencia artificial en la cuenta institucional del INE, en TikTok, que eso ocurrió el año pasado, después de la jornada del proceso judicial, y aunque se comprobó que no existió infracción legal, el caso generó demasiada polémica pública respecto a la clonación de voces y a la posible vulneración de derechos de autor.
Este episodio evidenció, tanto los vacíos normativos frente a tecnologías emergentes, como la necesidad de establecer principios institucionales claros para el desarrollo y uso responsable de la inteligencia artificial, especialmente en contextos electorales.
A partir de ese contexto, el Instituto decidió avanzar hacia un modelo de gobernanza tecnológica que incluyera la regulación del uso de inteligencia artificial.
Y bueno, así fue como el año pasado se aprobaron en Junta General Ejecutiva los lineamientos para gobernar el uso de inteligencia artificial, con el principal objetivo de alinear las decisiones tecnológicas con los objetivos institucionales, establecer lineamientos y mecanismos de supervisión, gestionar riesgos tecnológicos y se tomaron como componentes clavos: estrategia de tecnología, marco tecnológico institucional, evaluación y mejora de las tecnologías y el gobierno de tecnologías emergentes.
Dentro de este modelo se incorporó también un programa muy, la verdad atinado, en cuanto a inteligencia artificial y este curso fue llevado a cabo del 26 de enero al 20 de febrero, con la participación de 16 mil 932 personas, integrantes de la comunidad INE, tomaron el curso “La inteligencia artificial, usos y criterios en el Instituto Nacional Electoral «, en donde prácticamente se abordaron temas como la introducción a la inteligencia artificial en el INE, políticas de uso de la inteligencia artificial, protección de datos y seguridad, transparencia y rendición de cuentas.
Además, estos lineamientos están acompañados con un programa institucional que, además de incluir el tema de capacitación, también incluye un tema de sensibilización institucional denominado “INE a la vanguardia, resalto IA”.
Soluciones también internas de inteligencia artificial, toda solución o desarrollo que incluye algún componente de inteligencia artificial, tiene que presentarse ante el grupo de gobierno de tecnologías institucional, que a la vez cuenta con un grupo de expertos en inteligencia artificial, quienes hacen la valoración y, pues, identifican riesgos, cuestiones justo de sesgos y algunas otras consideraciones para ver si se autoriza o no el desarrollo de este tema de inteligencia artificial.
Asimismo, también se ha trabajado en la definición desde el punto de vista institucional para ver, definir cuáles son las plataformas externas que son permitidas utilizarse al interior del Instituto Nacional Electoral. Éstas ya han sido definidas y a través de este programa de sensibilización se les va a hacer de su conocimiento.
Y, bueno, entonces, en conclusión, la tecnología por más novedosa que sea, no sólo se desarrolla, también se tiene que gobernar.
Y en cuanto a lo que tiene que ver con perspectiva de género, tenemos que ser muy cuidadosos que estos modelos de gobernanza tecnológica nos permitan identificar riesgos de discriminación, incorporar principios éticos, evaluar impactos desde el punto de vista social en los sistemas y promover una tecnología inclusiva.
Esto es bastante relevante, por lo que nosotros estamos también muy complacidos en anunciar que somos de las primeras instituciones a nivel del gobierno que regulamos el uso de la inteligencia artificial, y que vamos a continuar con los programas de capacitación para que toda la comunidad del INE pueda aprender los principios básicos de cómo sacar el mejor provecho posible a estas plataformas de inteligencia artificial que previamente ya fueron analizadas y definidas por el grupo de expertos de inteligencia artificial.
Y, por otra parte, también comentar que ahorita ya estamos en proceso de desarrollar varios proyectos que van a tener componentes de inteligencia artificial y que también se darán a conocer a toda la comunidad.
Y, por último, señalar que este curso de inteligencia artificial también ha sido puesto a disposición de los OPL para que también podamos extender esta red de conocimiento, que consideramos es fundamental para que todos tengamos un uso ético regulado de la inteligencia artificial.
Muchas gracias.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias, Maestra Cecilia.
La Maestra Cecilia nos remite a la propia experiencia institucional. Fue un hecho público el incidente que se dio con la plataforma TikTok y el uso de la inteligencia artificial para la creación de un video que fue publicado en esa plataforma, y cómo fue la evolución institucional para poder responder a esa experiencia y generar este grupo de gobierno de las tecnologías, donde se han ido sentando las directrices para no abandonar la inteligencia artificial, sino regular su uso, de tal manera que se pueda seguir aprovechando como una herramienta que facilite los propios trabajos institucionales.
Ahora es turno de la Ingeniera Sinia Álvarez, tiene su propia pregunta y esta dice: desde el ámbito local, ¿qué retos se enfrentan las autoridades electorales para identificar o reaccionar frente a contenidos generados con inteligencia artificial que pueda dañar la reputación de mujeres en la vida pública?
Adelante, Maestra Sinia, seis minutos.
Vocal Ejecutiva de Junta Local Ejecutiva de Baja California Sur, Sinia Álvarez Ramos: Gracias, Elizabeth.
Bueno, creo que tenemos grandes, retos porque hemos visto que en las últimas elecciones pues la generación de mayor desinformación o información falsa dentro y fuera de los periodos electorales es en cada momento.
Entonces, las tendencias globales, como el uso del deepfake generados con IA en otras elecciones, muestran una creciente tendencia del uso de la IA para crear desinformación más sofisticada y creíble. Cada vez es más difícil revisar si es o no hecha por la IA.
Esto supone una amenaza importante, porque debilita la confianza pública en las instituciones democráticas y en las fuentes confiables de información.
Recuerdo que en el INE ya tenemos más de dos procesos electorales que tenemos por ahí Certeza, donde la aplicación es toda un institucional para revisar aquella información que es falsa. Se da a conocer, se revisa, se estudia y se determina si es una información falsa.
Pero a veces viaja tan rápido la información que cuando estamos diciendo que es una información falsa pues ya tuvo un impacto muy grave. Pues creo que el desafío es verificar que el contenido es falso, creo que es uno de los desafíos más grandes.
Si bien hasta ahorita es posible detectar la autenticidad del contenido visual, hasta cierto punto todavía el ojo humano detecta cuando está hecho por la inteligencia y cuando no, pero cada vez es más complicado y va a ser más complicado en medida que la IA evolucione.
Entonces, distinguir entre un audio y texto falso plantea retos aún mayores, ya que la veracidad es más difícil de distinguir y el público en general tiende a percibirlos como auténticos, entonces ya tiene el impacto la ciudadanía y creen que es real.
Entonces esta parte creo que es un reto importante, primero, verificar que es falso y convencer a la ciudadanía de que es falso.
Entonces también la generación de contenido supera la verificación en tiempo real, como dice Cecilia, ya en el Instituto ya tomó cartas, ya hay un grupo de expertos en esta materia, sin embargo, el reto es la velocidad que se va a generar y distribuir la desinformación o información falsa exceden por mucho la capacidad de verificación que tenemos como institución.
Asimismo, las herramientas de verificación automatizadas actuales todavía carecen de la sofisticación necesaria para identificar de manera confiable todas las formas de falsificación, especialmente con materiales de audio y texto.
Entonces podemos creer que es falso, pero tenemos que verificar, entonces, el impacto visual y auditivo es muy grande, sobre todo en las redes sociales.
Entonces, el aumento de la violencia política en razón de géneros con los deepfake íntimos y otras formas de violencia en línea representan una amenaza para la seguridad, la dignidad, el éxito y el bienestar de las mujeres dentro de la esfera política.
A medida que las herramientas de IA generativas se hacen más accesibles, aumenta potencialmente para crear y difundir con contenido dañino, entonces, entre más gente conoce cómo utilizar la IA, más contenido, más desinformación tenemos.
Entonces, esto complica el esfuerzo para combatir la misoginia y el acoso, este fenómeno no sólo afecta a las mujeres en lo individual, sino también perpetua una cultura de violencia que desalienta la participación femenina en la esfera política.
Entonces, cada vez menos mujeres quieren participar en política porque se sienten vulneradas, sobre todo en temas digitales, entonces, eso debilita la democracia al disuadir la participación activa de las mujeres, porque vamos a tener falta de representación y las mujeres somos más del 50 por ciento del padrón electoral.
Entonces, sí es importante esta parte y sobre todas las instituciones nos ha pasado en algunos casos, en algunas entidades donde de pronto, por ejemplo, por mencionar algunas de que hay información falsa o que hacen citas, algunos sitios del INE ofrecen citas, por ejemplo, los módulos de atención ciudadana y tenemos que verificar esos sitios, tenemos que reportarlo y en lo que se reportan siguen generando impactos.
Entonces, creo que uno de esos principales retos es eso, la velocidad con que viaja la información y la verificación, entonces ya estamos capacitados, ya inició el INE, como bien dicen, tomamos todos el curso, ya tenemos el marco legal.
Sin embargo, tendríamos que capacitarnos para poder identificar y en algún momento poder monitorear tanto las redes sociales, detectar si es o no algo falso y sobre todo las complicaciones en los audios y en el texto.
Entonces, creo que tenemos grandes retos como instituciones y, sin embargo, creo que ya, como dice Cecilia, ya tenemos el marco, ya tenemos la autoridad, ya tenemos nuestros expertos. Entonces tenemos que seguir avanzando y sobre todo seguir capacitando a toda la comunidad INE para detectar estos sesgos de información que se dan, y sobre todo en las redes sociales.
Y creo que es importante también salir a capacitar a la ciudadanía para que aprenda a identificar qué es contenido hecho con inteligencia y cuál es el contenido que no es real, y sobre todo obligar a los entes que la publicidad que se haga en un proceso electoral refiera que fue hecho con inteligencia artificial. Creo que es muy importante que tenga esa referencia para que sea más fácil que nosotros lo podamos detectar en los metadatos.
De mi parte sería cuánto en este momento.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias. La Ingeniera Sinia nos remite a otra de las experiencias institucionales que es certeza a través del cual se dan respuestas a noticias falsas que suelen correr, particularmente durante los procesos electorales, pero ahora ya también en periodo ordinario.
Sin embargo, ella misma plantea cómo cada vez es más difícil poder distinguir un audio, una imagen, un video que se ha generado con inteligencia artificial, y que ese es un reto que enfrentaremos en conjunto como sociedad, pero enfrentaremos también las autoridades electorales y que impactará en el monitoreo y supervisión que hacemos de la propaganda electoral nuevamente, particularmente durante los procesos electorales.
Toca el turno ahora de la Maestra Claudia Rodríguez Sánchez. La pregunta para ella es, ¿de qué manera se puede incorporar una perspectiva de género en el análisis y uso institucional de herramientas basadas en inteligencia artificial?
Maestra Claudia, tiene seis minutos.
Vocal Ejecutiva de Junta Local Ejecutiva de Puebla, Claudia Rodríguez Sánchez: Muchas gracias, Eli.
Bueno, yo detecto dos. Primero, acciones o implementar acciones coordinadas y cooperativas entre organismos electorales, partidos y candidaturas con las plataformas, que son buenas prácticas para diseñar e implementar estrategias efectivas de protección de la violencia de género en la esfera digital.
Y una segunda es el uso de técnicas de ciencias de datos para medir la violencia política en razón de género de manera más amplia. Y aquí, bueno, ya hay algunos estudios y creo que habría que considerar estas experiencias de instituciones académicas.
Y dentro de las primeras acciones coordinadas con distintos actores, creo que es de resaltar una experiencia exitosa, el establecimiento voluntario de colaboración entre el Instituto Nacional Electoral y la plataforma Meta para proteger la integridad de las elecciones.
Recordemos que en las elecciones de 2024 Meta desarrolló cursos para prevenir la violencia política contra las mujeres y acciones estratégicas junto con el INE a través de la Unidad Técnica de lo Contencioso Electoral, identificando y retirando contenido contrario a las normativas vigentes para la protección de las candidaturas.
Por ejemplo, en Instagram se implementó un sistema con inteligencia artificial para advertir a un posible agresor que está por publicar un comentario abusivo u ofensivo generando una alerta instantánea.
Facebook además creó un sistema especial de protección de cuentas de candidatos o candidatas con medidas de seguridad más estricta.
Existe además un número importante de casos que no son denunciados, la cifra negra, o que no cumplen con las características necesarias para iniciar una investigación por violencia política de género.
Por eso es importante estas acciones coordinadas y cooperativas entre todos los actores políticos.
Y en cuanto a la inteligencia artificial para medir la violencia política de género, Fernanda Sobrino hizo un estudio ante esta problemática y a través de una institución académica se desarrolló una investigación donde se usó una técnica de ciencia de datos, aquí seguramente en la UTSI, Cecilia lo tendrá muy presente, se utilizaron estas ciencias de datos para medir la violencia política en razón de género de manera más amplia, utilizando notas periodísticas sobre las elecciones, utilizando bots que buscan en internet todas las noticias relacionadas con las candidatas que se inscriben para contender algún puesto público en las elecciones y, posteriormente, mediante algoritmos de inteligencia artificial se diferencia la violencia política de género contra otros tipos de violencia que pueden ser experimentados por las candidatas.
Finalmente, se utilizó otro algoritmo para asignar estas notas relacionadas con la violencia política de género a un municipio, cargo y partido político. Entonces con el uso de algoritmos de inteligencia artificial para distinguir violencias políticas de género de otros tipos de violencia es una herramienta muy prometedora para mejorar la precisión y eficiencia en la medición de este tipo de violencia.
Además, la asignación de las notas relacionadas con la violencia política de género a un municipio, a un cargo, a un partido político en particular, ya nos puede proporcionar mayor información y muy valiosa para que se puedan diseñar políticas públicas específicas e implementación de medidas preventivas en las áreas y en los partidos políticos más afectados, que hemos de reconocer que cuando una candidatura, una candidata mujer presenta un alto porcentaje de ganar una elección, la violencia política se incrementa contra ella y evidentemente a través de las tecnologías o de las tecnologías de la información y comunicación, se acrecientan de manera muy importante.
Entonces, bueno, también ya lo comentó Cecilia y Sinia, si bien es cierto, ya en el INE contamos con lineamientos, con un órgano que da seguimiento, que nosotros nos hemos capacitado, creo que, considero que la violencia política en la era digital va a pasos agigantados y va por encima de la capacidad de reacción que tenemos institucional y personalmente.
Muchas gracias.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias, Maestra Claudia.
La Maestra Claudia en esta segunda intervención, nos cambia un poco el enfoque y ahora hablamos de la IA no como los retos o las problemáticas que puede traer en la competencia electoral particularmente enfocado hacia la participación de las mujeres, sino como la herramienta que es y cómo podemos utilizarla justo para fortalecer la protección de los derechos políticos electorales.
Ahora, ya vamos dirigiéndonos hacia el cierre, pasamos a la tercera ronda de intervenciones.
Nuevamente plantearé una pregunta que será genérica para las tres panelistas y en esta ocasión tendrán dos minutos para un mensaje de cierre.
La pregunta es, ¿qué elecciones deberían considerar las instituciones electorales para enfrentar los retos que plantea la inteligencia artificial en la protección de los derechos políticos electorales de las mujeres?
Tiene nuevamente el uso de la palabra la Maestra Cristina.
Adelante.
Cecilia, perdón, la Maestra Cecilia.
Adelante, Maestra.
Directora de Seguridad y Control Informático, Maestra Cecilia Calderón Ortega: O. K.
Bueno, aquí quiero volver a resaltar lo que ya comenté previamente
La participación de mujeres en decisiones tecnológicas es fundamental. ¿Por qué? Porque mejora el análisis de riesgos, amplía la perspectiva, fortalece las decisiones institucionales y la diversidad contribuye a una tecnología más justa.
Entonces, yo, como mensajes clave ya de cierre, plantearía tres: uno, la tecnología no es neutral, como ya lo comenté; dos, gobernar la inteligencia artificial es una responsabilidad institucional; y, tres, la participación de las mujeres fortalece la gobernanza tecnológica.
Y, bueno, ya, por último, mencionar que la inteligencia artificial puede transformar la forma en que trabajamos y tomamos decisiones, pero su impacto depende de cómo decidimos utilizarla.
El futuro de la tecnología no solo se programa, también se gobierna. Gobernar la inteligencia artificial significa establecer reglas y principios para que la tecnología se utilice de manera responsable, transparente y en beneficio de las personas.
Gracias.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias, Maestra Cecilia.
Ahora pasamos con el mensaje de cierre de la Ingeniera Sinia.
Vocal Ejecutiva de Junta Local Ejecutiva de Baja California Sur, Sinia Álvarez Ramos: Gracias, Elizabeth.
Bueno, yo creo que debemos aprender de la propia IA, entonces debemos de aprovecharla para poder combatir la violencia política en razón de género en los procesos electorales. Significa hacer sistemas impulsados por IA para supervisar las plataformas de contenido, redes sociales, foros políticos y otros espacios digitales para detectar en tiempo real la violencia de género, el discurso de odio y el acoso dirigido a las mujeres en la vida política.
Fomentar el conocimiento público sobre los contenidos electorales generados por IA a diferentes asociaciones, agrupaciones, los propios partidos políticos. Creo que es un ente importante que esté capacitado y que sepa cuál es la regulación de la inteligencia.
Entonces, creo que es muy importante y, sobre todo, dirigirnos al electorado primerizo porque ellos son los que más utilizan la inteligencia y saben las consecuencias de esa inteligencia.
Entonces, creo que es importante esta capacitación a la ciudadanía y sobre todo debemos fortalecer los marcos regulatorios electorales para abordar los desafíos específicos de la inteligencia.
Ampliar las capacidades del INE para monitorear, rastrear y sancionar el uso indebido de tecnologías de IA durante las elecciones.
Desarrollar herramientas de transparencia impulsadas por IA para mejorar la supervisión del financiamiento de las campañas, la publicidad electoral y la comunicación política.
Estas herramientas pueden ayudar a detectar desinformación, rastrear el gasto digital y garantizar el cumplimiento de la normatividad electoral.
Debemos de fomentar una mayor responsabilidad y confianza en el proceso electoral. Entonces, el proceso electoral no solamente son las instituciones, son varios entes.
Entonces, creo que las candidaturas, los propios partidos políticos y la ciudadanía es necesario que sepa cuál es el riesgo que tenemos con esta inteligencia artificial y, sobre todo, fomentar esta diferenciación, saber cuándo es con inteligencia, que creo que se me está acabando el tiempo.
De mi parte sería todo.
Muchísimas gracias a todos los que están aquí presentes. Gracias.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias, Ingeniera Sinia.
Ahora para el mensaje de cierre tiene el uso de la palabra la Maestra Claudia Rodríguez Sánchez.
Vocal Ejecutiva de Junta Local Ejecutiva de Puebla, Claudia Rodríguez Sánchez: Gracias. Bueno, las lecciones creo que debemos de considerar siempre son la prevención.
Creo que es en el primer término lo que debemos de saber y cómo se hace la prevención.
Pues, yo creo que podríamos compartir, como lo estamos haciendo hoy, conocer experiencias locales, nacionales, internacionales, fortalecer las relaciones interinstitucionales en la materia con los OPL, el INE, los tribunales electorales, tanto locales como federales y todas aquellas instituciones que nos puedan aportar información respecto a cómo hacer frente a este tipo de retos.
Por otro lado, sensibilizar a las estructuras de las distintas instituciones a fin de que puedan identificar, canalizar y ejercer sus atribuciones contra la violencia política en razón de género digital y entre todas estas instituciones o estructuras, pues me refiero a las autoridades electorales, partidos políticos, autoridades administrativas, jurisdiccionales y evidentemente penales, pero también, partidos políticos, a la ciudadanía, a las candidaturas, que todos estemos involucrados e involucradas en el tema.
También me parece importante difundir y conocer las resoluciones emitidas por órganos administrativos, como el INE y los OPL y sentencias de órganos jurisdiccionales en materia de violencia política contra las mujeres en razón de género.
Por ejemplo, la sentencia SUP-REP456/2022, que se trata del uso de recursos gráficos en plataformas digitales en contra de una candidata.
El SUP-REP154/2020, donde una candidata también es agredida a través de redes sociales.
Y una sentencia de la Sala Xalapa, el JDC303/2023, a través de redes sociales se ejerce violencia política en el actuar de una candidata ya electa, una persona ya en ejercicio de su cargo.
Y, entonces, si conocemos lo que nos dicen estas sentencias, también podemos ir aprendiendo cómo evitarlas y las medidas que se pueden utilizar para resarcirla.
Entonces, hasta aquí dejo mi participación.
Muchísimas gracias.
Vocal Ejecutiva de Junta Local Ejecutiva de Nayarit, Elizabeth Tapia Quiñones: Muchas gracias a las tres panelistas por sus reflexiones y también por ajustarse al tiempo que teníamos programado para este panel.
Yo les agradezco sus reflexiones en torno a los riesgos que trae la inteligencia artificial en cuanto tiene que ver con la comunicación política, particularmente el impacto en la violencia política digital contra las mujeres, pero también, la reflexión que hicieron en torno a la utilidad que podemos darle a la IA como herramienta para fortalecer el ejercicio de los derechos políticos electorales.
Y particularmente destaco también las reflexiones sobre la propia experiencia institucional y cómo el Instituto Nacional Electoral ha ido tomando determinaciones para ir evolucionando en conjunto con estas tecnologías, siempre priorizando el ejercicio de los derechos políticos electorales de la ciudadanía.
Con eso concluimos este panel.
Agradezco a todas y todos su atención.
Y regreso el uso de la voz a nuestra voz INE.
Muchas gracias.
Presentadora: Muchas gracias.
Gracias por esta enriquecedora conversación.
A nombre del Instituto Nacional Electoral agradecemos profundamente la participación de nuestras panelistas y de nuestra moderadora.
Extendemos también nuestro agradecimiento a todas las personas que siguieron esta transmisión a través de los canales institucionales del INE; muchísimas gracias.
Y les invitamos a continuar pendientes de las actividades y espacios de reflexión impulsados por el Observatorio de Participación Política de las Mujeres en México.
Recuerden, están orientados a fortalecer la participación política de las mujeres y prevenir la violencia en los entornos digitales.
Es así como damos por concluido el Panel número 2: La Inteligencia Artificial, lecciones aprendidas con perspectiva de género.
Muchísimas gracias por su atención y que tengan muy buena etapa.
Hasta luego.
-o0o-