
Presentadora: El Instituto Nacional Electoral les da la más cordial bienvenida al evento “Inteligencia Artificial: Participación Política y Retos para regular su aplicación y uso”.
Presiden este evento, Directora de Seguridad y Control Informático en el Instituto Nacional Electoral, Maestra Cecilia Calderón Ortega.
El Conferencista, Doctor Jorge Francisco Aguirre Sala.
Rector de la Universidad Autónoma de Chiapas, Doctor Oswaldo Chacón Rojas.
Agradecemos la presencia de las y los integrantes de la Junta General Ejecutiva.
Gracias también a quienes nos siguen a través de los medios digitales.
En esta ocasión, la moderación del evento estará a cargo de la Maestra Cecilia Calderón Ortega, de la cual me permitiré leer una breve semblanza.
Licenciada en Informática por la UNAM, con mención honorífica. Cuenta con una maestría en Dirección Estratégica de Tecnologías de la Información y Comunicaciones.
Ha complementado su información y formación con estudios en Liderazgo y Gobierno Electrónico en el Tecnológico de Monterrey.
Cuenta con más de 25 años de experiencia en el ámbito de las TIC, tanto en el sector público, judicial y privado.
Actualmente se desempeña como Directora de Seguridad y Control Informático en el INE.
A lo largo de su trayectoria ha ocupado cargos de alta responsabilidad en instituciones como la Secretaría de Relaciones Exteriores, la Secretaría de Hacienda y Crédito Público, la Secretaría de Desarrollo Social, el Poder Judicial, así como en empresas privadas.
Ha sido reconocida como una de las 100 mejores CEO y distinguida por su innovación tecnológica en el año 2024.
Ella es Cecilia Calderón Ortega.
Adelante, Maestra.
Directora de Seguridad y Control Informático del INE, Cecilia Calderón Ortega: Muchas gracias.
Muy buenos días a todas y todos los presentes, así como a quienes nos siguen a través de las plataformas digitales del Instituto Nacional Electoral.
Es un gusto darles la bienvenida para este foro de vital trascendencia titulado “Inteligencia Artificial. Participación política y retos para regular su aplicación y uso”.
En un momento donde la tecnología redefine nuestra democracia, nos reuniremos para analizar cómo los algoritmos y la política convergen, el futuro de la tecnología no solo se programa, también se gobierna.
Para dar inicio, es un honor presentar a nuestro conferencista Magistral, el Doctor Jorge Francisco Aguirre Sala, a quien le doy de nuevo cuenta la bienvenida, y a nuestro comentarista el Doctor Oswaldo Chacón Rojas, también de nueva cuenta le doy la bienvenida.
Para el desarrollo de este foro, seguiremos una dinámica de tres tiempos que nos permitirá profundizar en la materia.
El primer tiempo es la conferencia magistral. Iniciaremos con la exposición del doctor Jorge Francisco Aguirre Sala, quien contará con un tiempo de hasta 45 minutos para presentarnos su visión sobre la inteligencia artificial y los retos en la participación política.
El segundo bloque es el de comentario y análisis. Ahí cederemos el uso de la voz al doctor Oswaldo Chacón Rojas, quien destacará los aspectos centrales de la ponencia y compartirá sus aportaciones desde su perspectiva académica y técnica.
Y el tercer bloque es la interacción con el público. Allí abriremos un espacio de aproximadamente 20 minutos para el diálogo. Para seguir el orden y la fluidez, nuestro equipo les hará llegar papeletas en las que podrán escribir sus dudas o comentarios y, posteriormente, me las harán llegar.
Entonces, esa va a ser la dinámica.
Y ahora, me permitiré dar lectura a la síntesis curricular del Doctor Jorge Francisco Aguirre Sala.
Estudió la Licenciatura en Filosofía en la Universidad Iberoamericana en 1982, posteriormente, realizó una Maestría en Filosofía en la Universidad Nacional Autónoma de México en 1987 y un Doctorado en Filosofía en la Universidad Iberoamericana en 1989, bajo la supervisión de Roberto Cruz Fuentes y Mauricio Beauchamp.
Realizó dos especializaciones postdoctorales en Psicología Terapéutica y Psicología Comunitaria.
Se desempeña como profesor e investigador en la Universidad Autónoma de Nuevo León, donde está adscrito al Instituto de Investigaciones Sociales y es Líder del cuerpo académico, Democracia y Sustentabilidad.
Es parte del Sistema Nacional de Investigadoras e Investigadores Nivel 2, sus principales líneas de investigación son la calidad de la democracia y la participación ciudadana a través de las democracias líquidas y electrónicas, las candidaturas independientes, las iniciativas legislativas, la rendición de cuenta societal, la capacidad de respuesta del Estado e indicadores de gobernanza, gobierno abierto y digital, así como los efectos sociales y políticos de la eclosión de la tecnología digital contemporánea.
Dentro del ámbito literario, se ha desempeñado como miembro revisor del Consejo Editorial de Transdisciplinar, una revista de ciencias sociales de la Universidad Autónoma de Nuevo León, es autor de múltiples libros sobre democracia, entre los que se destacan: “La democracia líquida”, “Los nuevos modelos políticos en la era digital de 2016”, “La capacidad de respuesta total en la voluntad ciudadana como indicador de gobernanza en la calidad de la democracia participativa de 2020” y “¿Qué es la democracia electrónica? La transición política por la transformación digital de la democracia de 2021”.
Cuenta con más de 300 citas por autores y tesistas en sus artículos y libros publicados en México, Chile, Argentina, Uruguay, Brasil, Colombia, España, Alemania, Austria y Estados Unidos.
A continuación, le cedo el uso de la voz, Doctor Aguirre.
Por favor. Gracias.
Investigador de la UANL, Jorge Francisco Aguirre Sala: Muchas gracias por tan amable presentación.
Nada más faltó decir que nació en 1960, entonces el currículum ya no acaba.
Muchas gracias a todas y todos ustedes por estar aquí en esta conferencia denominada Magistral.
Por supuesto que voy a intentar dar lo mejor de mí, me vengo preparando para esta conferencia desde septiembre del año pasado.
Y, por supuesto, agradecer al Instituto Nacional Electoral; a la Dirección Ejecutiva de Capacitación Electoral y Educación Cívica, a través de la persona, de la Licenciada Iliana Araceli Hernández Gómez; a la Dirección de Seguridad y Control Informática del INE, la Maestra Cecilia Calderón y, por supuesto, a quien espero sea mi caustico comentarista, el Doctor Oswaldo Chacón Rojas, Rector de la Universidad de Chiapas y, otra vez, a toda la amable audiencia.
Bien, “Inteligencia Artificial. Participación política, retos para regular su aplicación y su uso”. A mí nunca me han gustado los títulos tan generales, porque puede ser que abarquen todo, pero no provoquen el interés particular de la audiencia o de los lectores.
Y, entonces, me permití, para estar en el Instituto Nacional Electoral, ponerle un subtítulo también largo, que nos lleve finalmente a lo que sería la conjetura del título inicial, que hay que consolidar la normatividad de la inteligencia artificial y democratizar los derechos digitales.
¿Y cómo podríamos lograr esto? Bueno, vamos a ver si la propuesta de un modelo de gobernanza holístico nos permite ir consolidando esta normatividad y democratizar los derechos digitales.
En una presentación, por un defecto docente, siempre le gusta a uno decir: miren, vamos a ver la introducción, la promesa de la bella época para una vida en rosa, del internet y la inteligencia artificial. Por supuesto, después el lado opaco de la inteligencia artificial y sus algoritmos.
Y luego, le puse un capítulo cuatro: de las decisiones y usos políticos electorales de la inteligencia artificial, donde la inteligencia artificial define políticas públicas, certifica candidatos, el voto lo orienta o lo realiza en vez del elector o la electora, la verificación del escrutinio electoral; y un tema que es fascinante, el de las campañas electorales con la intervención de la inteligencia artificial, la inteligencia artificial para inducir al electorado, los hackeos en las votaciones, las candidaturas virtuales, que es un tema que va tomando relevancia cada vez más en las ocasiones en que hay campañas electorales; y, por supuesto, los avatares y hologramas en campañas.
Pero luego todo esto lo sombré en amarillo, porque dije: no, 45 minutos no me va a dar tiempo, lo dejo en la presentación, lo dejo en el texto que estará a su disposición, si nos da tiempo elegimos alguno de estos y comentamos, pero vamos a la parte quinta: la participación política para regular la inteligencia artificial en México, que fue el tema de la invitación en particular; y luego la gran conjetura, conclusión: la gobernanza de la inteligencia artificial, ese desafío de tipo holístico para hablar también de los desafíos y las aportaciones que cada sector de la sociedad deben de tener.
Muy bien, las tecnologías digitales con su desarrollo generaron la necesidad de una cuarta generación de derechos humanos, en particular los derechos digitales, entonces aquella vieja declaración de los derechos humanos o la Declaración Universal de los Derechos Humanos ya va en la cuarta o quinta generación y ahora necesitamos los derechos digitales. Sin embargo, quiero empezar con una advertencia, esta es mi tesis de entrada: la absoluta soberanía de los estados no debe depositarse en una autonomía sin límites de la inteligencia artificial que se ejerce con autoaprendizaje y que va a ejercer funciones de gobernabilidad.
Cuando le dicen a uno: no, es que el sistema, el algoritmo le asignó la primaria a tu hijo del otro lado de la ciudad o del otro lado del municipio, o: es que el sistema del algoritmo asignó que el servicio de salud donde tú necesitas la intervención quirúrgica va a ser dentro de ocho semanas o el sistema del algoritmo designó que tu crédito hipotecario de índole social va a tener que esperar y para cuando tú tengas que esperar o te lo asignó cuando no debía haberlo asignado.
Entonces, creo que la tesis fundamental es que esa absoluta soberanía de los Estados no se puede depositar en una administración pública donde la inteligencia artificial autónoma, generativa, activa, etcétera, quede sin regulación y ejerza funciones de gobernabilidad.
Tenemos que atender cuatro problemas:
El problema número uno, es la interoperabilidad gubernamental.
El número dos, son las evaluaciones de impactos algorítmicos. Todos nosotros escuchamos sobre las evaluaciones de impacto ambiental o las evaluaciones de impacto ecológico, pero también existen evaluaciones de impacto algorítmicos, los beneficios y perjuicios en los procesos electorales y, por supuesto, la participación de los actores públicos y privados en la gobernanza algorítmica con sus respectivas responsabilidades y atribuciones.
Bien, sobre el primer tema, la interoperabilidad gubernamental, el Instituto Electoral del Estado de México, ahora a fines del 2025 me ha hecho favor de publicar este texto, “La interoperabilidad en la gobernanza digitalizada. Las tecnologías digitales en la relación gobierno-ciudadanía”. Este es un volumen completo donde al final viene un manual de usuario para el ciudadano y viene un manual de usuario para el funcionario público.
Traje dos ejemplares para dejarlos aquí en el INE, para mí va a ser un honor que dos ejemplares de este texto queden en la biblioteca del INE, pero si ustedes se meten al website del Instituto Electoral del Estado de México, ahí van a tener el acceso digital al texto.
Sobre las evaluaciones de impacto algorítmico, el análisis de los modelos y las buenas prácticas evaluativas para detectar sus impactos, riesgos, daños e inteligencia artificial, en un momento más les voy a compartir un link de acceso, porque no existe físicamente, existe solo digitalmente.
Y respecto a las ventajas y los daños en los procesos democráticos, pues tenemos este texto del 2023, “La digitalización electoral”, es decir, el uso de la inteligencia artificial en el dominio, ya no “.gob” sino “.com”, como digo yo, editado por el Instituto Electoral y de Participación Ciudadana de Nuevo León.
También voy a dejar un ejemplar, de este no me traje más porque pesan mucho, pero yo sé que además tienen acceso a él de manera digital en la página del Instituto Estatal Electoral y de Participación Ciudadana de Nuevo León, para ir ampliando las cosas.
En la revista que se edita en la Universidad de Guadalajara, la revista PAAKAT, ahí está el artículo sobre modelos y buenas prácticas evaluativas para detectar los impactos, riesgos y daños de la inteligencia artificial, donde hay una propuesta de un modelo de evaluación de impacto algorítmico, así como existen las de impacto ambiental, hay que hacer las de impacto algorítmico.
Bueno, el reto mexicano para regular la inteligencia artificial, ¿cuál es nuestro reto como Nación? Es complementar y subsanar las seis disposiciones globales de mayor jerarquía y de reciente regulación.
Esas seis disposiciones aludidas son: la regulación de la inteligencia artificial, la Ley de la Unión Europea emitida en 2024.
El marco de gestión de la inteligencia artificial del National Institute of Standards and Technology, conocido como NIST, de 2024, que tiene la intención de hacer operativa la orden ejecutiva 14110 del entonces presidente de Estados Unidos, que emitió en el 2023.
Después se junta Europa y los Estados Unidos y elaboran la terminología y taxonomía de la inteligencia artificial en el Trade and Technology Council de la Unión Europea y los Estados Unidos en 2024.
Tenemos aparte el primer estándar internacional de sistemas de gestión de inteligencia artificial, el ISO 42001, es decir, así como hay certificaciones ISO para otros productos industriales, hay una certificación ISO para la inteligencia artificial, que se emitió en 2023.
Ya más regionalmente tenemos la ley Modelo de Inteligencia Artificial para América Latina y el Caribe, dada por el Parlamento Latinoamericano y Caribeño de 2024, y el marco para la gobernanza anticipatoria de las tecnologías emergentes de la Organización para la Cooperación y Desarrollo Económico también de 2024.
Estas son las seis disposiciones globales de mayor alcance mundial, obviamente, y de mayor reciente emisión, a excepción de la Orden Ejecutiva.
La Orden Ejecutiva 14011, que dio Biden el 23, denominada Desarrollo y Uso Seguro y Confiable y Fidedigno de la Inteligencia Artificial, su marco para la gestión de riesgos de inteligencia artificial en el 2024 por el NIST, inmediatamente en la nueva administración del presidente Trump, el 23 de enero del 2025, estamos hablando hace un año recientemente, da la Orden Ejecutiva 14179, donde la titula “Eliminando barreras para el liderazgo estadounidense de la inteligencia artificial”.
La tesis neoliberal puesta en su máxima expresión: le se faire le se passer. Déjame hacer, déjame pasar. Elimino todas las barreras para que el liderazgo estadounidense sea el prioritario a nivel mundial, y no solamente eso, el 11 de febrero del 2025, en la Cumbre de París sobre Inteligencia Artificial, JC Vance dice: y esto lo hacemos contra la excesiva regulación de la inteligencia artificial en represalia a los europeos.
Este es nuestro contexto internacional y el reto mexicano es la complementación y la subsanación de estas normativas que tienen altos déficits democratizadores.
Empecemos con un poquito de historia: la promesa de la bella época para la vida en rosa.
Cuando surgió la red, el empoderamiento ciudadano a través de la que entonces se denominó Sociedad de la Información y el Conocimiento, prometió una nueva utopía con carácter emancipatorio, y surgieron muchas obras de carácter emancipatorio, entre ellas la de Lessing desde 1999, titulada “El código y otras leyes del ciberespacio”, conocida sintéticamente como “El código es la ley”, donde precisamente sostenía que el código es la ley.
Surgieron muchas obras.
En 1999, Tim Berners-Lee, que es el creador de la web, ni más ni menos, publica un texto que se titula “Tejiendo la red”.
Tim Berners-Lee año con año, en el aniversario de la web, publica un texto para trabajar año con año contra la monopolización de internet y contra la monopolización de la web. Incluso hace dos años el texto del aniversario fue una carta pacto que pedía que las iniciativas privadas: Microsoft, Google, Meta, etcétera, los gobiernos y las organizaciones de la sociedad civil firmaran este pacto para proteger de la monopolización a la red y sigue él en su lucha.
La red emergió como una oportunidad de crear la democracia perfecta en la que los individuos podrían expresarse con total libertad en el ciberespacio, de hecho, las redes sociales nos dan esta sensación ¿no? aquí podemos expresarnos con total libertad, es un buen espacio para discutir lo que no se ha podido resolver, donde los ciudadanos nos podemos encontrar para discutir y proponer lo que los gobiernos no nos alcanzan a satisfacer.
Para autorregular la sociedad civil también. Para construir un mercado global antagonista al capitalismo, ¡qué curioso! La emergencia de la red tenía este sueño, sí, la globalización, pero con un mercado contra el capitalismo y, por supuesto, para propagar sin cortapisas el interés individual.
Los que somos allá de los sesentas tenemos muy presentes algunas consignas de fines de los sesentas, de mayo del 68, de octubre del 68; cuando decíamos: “la imaginación al poder”, porque lo que señalábamos es, el interés individual está siendo aplastado por lo que en ese entonces denominábamos “el sistema”, hoy le llaman “el algoritmo”. El algoritmo le dio el sostén, ¿verdad? Y parece que no hay para dónde hacerse, ya no hay para dónde hacerse.
Toda esta ideología de la vida en rosa, de la bella época, se le conoce como la ideología californiana porque se ubicó en San Francisco desde 1993 con la Revista WIRED, que profetizó la vida de libertad y bienestar a los cambios tecnológicos.
Aquí tenemos una de las recientes portadas de la Revista WIRED, preguntando si Amazon es el dueño de Internet.
Aquí tenemos otras de las portadas del 2026 de la Revista WIRED, la portada de la izquierda es interesante, ¿cuáles son los secretos del proyecto artificial, de la inteligencia artificial de Google?
Y el 3 de marzo del 2026, la Revista WIRED publica un artículo que se titula “El gobierno mexicano ya usa la inteligencia artificial, pero no hay normas ni estrategia” y hace una pequeña revisión de cuáles son las instancias del gobierno en México que no tienen ni normas ni estrategias, pero que sí utiliza la inteligencia artificial.
Aquí voy a hacer un alto y tengo que señalar, no es porque esté en el INE y no es porque el INE me haya invitado, pero el INE ya tiene un programa institucional 2025-2026 de gobernanza y uso responsable de la inteligencia artificial.
Ustedes lo pueden ver en el website del INE, desde agosto 20 de 2025, en esta parte que se llama la central electoral, donde se señalaron los seis ejes y los lineamientos que se dieron por el Grupo de Gobierno de Tecnologías de la Información y Comunicación.
Y en el artículo de WIRED no está el INE. Entonces, el score va a 1-0 por lo pronto.
Para los ciberoptimistas, y confieso que yo cuando inicié mis derroteros en estos temas, yo era un ciberoptimista, hoy en absoluto. La IA llega a cumplir la promesa de la bella época y la vida en rosa.
La IA hace las actividades más estresantes, recaba un cúmulo de datos desorganizados, descubre múltiples criterios posibles para estructurarlos de variados modos, con diversas fórmulas y esquemas, los organiza, identifica y discrimina los datos deseados, ya que se encuentran de antemano en un enorme registro, obtiene nuevos datos en función de metas o propósitos ajenos al sentido original de los registros iniciales y, lo que más nos gusta a todos, libera y exenta a los humanos de una de las actividades más abrumadoras y de mayor responsabilidad, la de tomar decisiones.
El 8 de marzo pasado hubo la primera vuelta de elecciones en Colombia para el Congreso Legislativo de Senadores. El Comité Nacional Electoral decidió hacer tres papeletas: en una papeleta venían todos los de izquierda, todos los de derecha y todos los del centro, en las tres papeletas distintas, y en cada una de las papeletas venían como 60 candidatos, sin hablar de las papeletas que correspondían a las respectivas circunscripciones indígenas, esas eran otras papeletas aparte.
Entonces, se imagina usted tener que estar tomando la decisión entre la boleta de la derecha, la izquierda, la del centro, así lo clasificaron ellos ideológicamente, y luego que aquí hay 200 gentes, aquí hay 215, aquí hay 218, tú métele tu perfil personal al algoritmo y que el algoritmo decida, para eso está la inteligencia artificial, tú llenas tu encuesta previa y el algoritmo que te llene tu papeleta, y si te lo dan en una urna electrónica, mucho mejor, y si te lo dan en una App en tu dispositivo móvil, mucho mejor.
Las decisiones que puede orientar o tomar la inteligencia artificial tiene un espectro tan amplio como todas las necesidades humanas, desde los aspectos románticos, los que son más jovencitos conocen estas plataformas para encontrar amigos, amigas, novios, pretendientes, pretendientas, crush, como dicen ahora también; aspectos sentimentales, según el perfil de un registro, según el perfil de otro; aspectos eróticos, por supuesto, y hay cantidad de compañías que a las antiguas muñecas de plástico eróticas le pusieron un algoritmo de inteligencia artificial, y por eso vemos nosotros en Corea, en China que tienen que intervenir, porque una serie de adolescentes se enamoran de su asistente, algunos se suicidan porque el asistente finalmente no les concede matrimonio. Todos los aspectos, hasta los aspectos eróticos.
Alguien podrá decir: “bueno, es cultura digital”, otros podrán decir: “son perversiones”, otros podrán decir: “me solucionan la vida” y de ahí hasta la ejecución de políticas públicas en cualquier campo o dominio.
Puede decirse entonces, parafraseando la frase clásica de Publio Terencio: “Para la inteligencia artificial nada de lo humano le es ajeno”.
Desde una perspectiva del desplazamiento parece que con la inteligencia artificial ya no van a ser necesarios los sabios, ni los maestros, ni los inventores, ni los ingenieros con ingenio, tampoco vamos a ser necesarios los investigadores.
Los investigadores que estamos en el mundo académico hace año y medio bajaron de la red mundial 16 mil artículos porque habían sido realizados con inteligencia artificial en vez de los profesores, profesoras o investigadores.
Tampoco van a ser necesarios los policías, ni los ministerios públicos, ni los jueces, ni los magistrados, ni los ministros.
No crean que estoy exagerando, el Poder Judicial del Estado de Querétaro lanzó en septiembre del año pasado una convocatoria para incorporar sistemas de inteligencia artificial precisamente para agilizar la toma de decisiones de jueces, magistrados y ministros en el estado de Querétaro y ya tienen su inteligencia artificial que se llama Josefa, muy ad hoc con Querétaro, ¿verdad? Por supuesto, Josefa que les va a resolver el trabajo.
Para la inteligencia artificial nada de lo humano le es ajeno.
Bueno, se acabó la bella época, se acabó la vida en rosa, ¿cuál es el lado opaco de la inteligencia artificial y sus algoritmos? Hay un montón de lados opacos, muchísimos lados opacos. Yo los tuve que resumir solamente al sector electoral en algunas tablas y de estas tablas no me puedo dedicar a desarrollar todas en razón de la promesa.
Pero la tabla 1, dice ¿cuál es el impacto de la tecnología digital en los derechos electorales? En la primera columna señalé una serie de prácticas de tecnología digital, en la segunda un impacto benéfico y en la tercera un impacto perjudicial.
A todas y a todos ustedes les quiero pedir una disculpa, porque voy a utilizar vocablos, términos que hemos incorporado de la lengua inglesa, siendo nuestro castellano tan rico, tan vasto, tan enormemente ilustrativo, un día la inteligencia artificial va a contar el número de vocablos en la obra de Shakespeare y el número de vocablos en la obra de Cervantes y el resultado fue que nuestro castellano es muy superior al del idioma de Shakespeare, que por cierto está lleno de irregularidades. Todos los verbos de mayor uso, cuando ustedes los aplican en pasado, qué casualidad que son verbos irregulares.
Bueno, disculpen por utilizar esta terminología, pero así generalmente es como se usa, no vamos a ver todas, nada más vamos a ver dos o tres por tabla.
El microtargeting, es decir, la microsegmentación de la audiencia de electoras y electores, si es cierto que promueve el interés de un segmento, pero excluye a grupos estereotipados del bien general, es decir, inmediatamente ahí hay un sesgo discriminatorio.
Los fandoms o netroots, es decir, los fanáticos y aquellos que desde la raíz están influyendo al resto de las comunidades de electores y electoras, enrola adeptos y logra participantes no militantes, pero genera gran polarización y genera discurso del odio, que es un problema que también hay que regular.
La Agenda Setting destaca temas de importancia social, pero además oculta otras problemáticas de interés general.
Y así hay muchas prácticas de la tecnología digital que tienen doble impacto. El astroturfing, es cierto, posibilita la conciencia social alternativa, pero también, engaña con la psicología de masas.
La Presidenta Sheinbaum en su actual reforma electoral, cuando quiere que el artículo 41 constitucional, sección 3, etiquete si fueron realizados total o parcialmente los mensajes con inteligencia artificial, tiene la intención de evitar el astroturfing, de engañar con la psicología de masas.
Por supuesto, los bots que deforman las percepciones, los gaping, puppetings, que mienten y cooptan bajo el efecto burbuja, no solamente lo crean, sino que cooptan al usuario dentro del efecto burbuja.
Y uno que es terrible, el Black Hat CEO; es decir, esa primera página que el servidor, llámese Yahoo, llámese Google, etcétera, donde te arrojan los resultados y te los arroja ya con sesgos para que tú no puedas ver los resultados de la 3, de la 4, de la 5, etcétera.
Y es cierto, por un lado, facilita la selección informativa, pero por el otro sesga la percepción y altera la toma de decisiones.
Tenemos una tabla 2, correlación entre derechos digitales y la vulneración tecnológica. Por ejemplo, un derecho digital es la neutralidad de la red y la igualdad personal.
¿Y cuál es el acto de vulneración? La censura algorítmica, el llamado framing, los sesgos, la libertad de expresión e información es un derecho digital, y frente a esa libertad somos atacados con trolls, con cobots, con algobots. Toda esta serie de programas que están hechos para asustarnos, para alterar nuestra decisión, para alterar nuestra capacidad cognitiva.
Ni qué decir de la protección de datos y privacidad.
¿Y quién lo vulnera? Los dark post, es decir, esos post que son tan oscuros que no se puede rastrear su origen, utilizados en la campaña electoral de la segunda reelección de Trump.
Las cuentas falsas, la cantidad de granjas bots con cuentas falsas, los hackers y, por supuesto, la no creación de perfiles, ni ser el sujeto de decisiones automatizadas. Y el derecho digital vulnerado es la vigilancia, el monitoreo y estamos sujetos a las falsedades que vienen de la red profunda.
Tenemos también una tabla 3, posibilidades de transgresiones digitales ante el derecho procesal electoral y el derecho penal electoral.
La secrecía protegida por la integridad de la urna. El INE, en mi concepto y no lo digo, porque estoy en el INE, lo he publicado ya con anterioridad a la invitación, ha sido pionero mundial en el voto electrónico, no nada más a través de la urna electrónica, también a través del dispositivo remoto para las y los con nacionales que radican en el extranjero.
Vean las cifras de cómo han sido las elecciones intermedias y las elecciones presidenciales del voto electrónico de los connacionales en el extranjero y las pruebas de simulación que hizo el INE y es un derecho electoral esa secrecía perfectamente protegida pero siempre existe la posibilidad del hackeo.
La definitividad del voto contra la posibilidad del delito de que el derecho humano y el derecho digital al olvido y también a la rectificación sean olvidados.
Se imaginan ustedes un régimen muchísimo más autoritario que tenga el registro y diga: “es que tú en el año tal, aquí tu voto electrónico votaste por aquellos que son de la contra, etcétera, y no tienes derecho a la rectificación y no tienes derecho al olvido y estás en la lista negra del actual régimen”. No estamos hablando fantasías, estamos hablando realidades, el lado opaco.
Imagínense ustedes la decisión de un sistema algorítmico que le niega la candidatura a un puesto de elección popular a una o a un postulante porque asoció su apellido con un criminal o porque no asoció su apellido a candidatos previamente bien calificados.
Bueno, esto que no ha sucedido en México sí sucede cuando le negamos a postulantes migrantes un permiso de ingreso, una visa a postulantes migrantes que la merecen o se les otorga en falsos positivos a los que no la merecen.
A los becarios, cuando se le niega una beca a un becario de la SECIHTI o cuando se le otorga la beca a un becario que en comparación con el resto de los postulantes no la merece.
A las personas que solicitaron un trabajo, los actualmente llamados contratos inteligentes, ¿qué contestó Amazon? “No, no, no, yo no discriminaba por género, yo contraté una compañía subcontratada que es la que discriminó la contratación de las mujeres, pero ya ahora que se hizo un escándalo público, no, yo ya cancelé el contrato con este proveedor, yo no tengo nada que ver”.
En el antiguo Infonavit, los puntos para una hipoteca “No, pues es que el algoritmo no te dio o el algoritmo no te calculó”.
O el Servicio de Salud Estatal.
Todas estas cosas están documentadísimas con hechos concretos, por no hablar de estas inducciones que les comentaba, de jóvenes que se inducen al suicidio, jóvenes que se inducen a la delincuencia organizada, simple y sencillamente para pertenecer a grupos donde ellos, valga la redundancia, su sentido de pertenencia les es satisfactorio en estos años de definición personal que es propio de la adolescencia.
Este es el lado opaco de la inteligencia artificial, cuando toma decisiones sin intervención humana, sin la revisión humana.
Estas dificultades cognitivas, cuando los ciudadanos son afectados por un dato o una decisión, vulneran en concreto los siguientes derechos humanos: el derecho a la transparencia; el derecho a la rendición de cuentas.
En el caso de los algoritmos a la auditabilidad, a la explicabilidad, que también lo vemos un poco en la rendición de cuentas y en la transparencia porque a veces nos dan el dato simbólico que dice uno: “pues, sólo los que tienen expertise entienden”, el ciudadano común, aquel que decía Ortega y Gasset, el ciudadano de a pie puede recibir el dato, pero no está en una narrativa hermenéutica traducida al lenguaje ciudadano. La necesidad, estamos haciendo una invitación aquí al rector y a la maestra Marisol, la necesidad de una narrativa hermenéutica de traducción del funcionario público al ciudadano: “Es que vengo a tramitar mi jubilación”. No, no, aquí no hay jubilaciones, aquí hay pensiones. Bueno, es que el ciudadano quiere tramitar su pensión, pero él pensó en jubilación.
“Es que vengo a tramitar mi finiquito”. No, no, aquí no hay finiquitos. Por supuesto que el funcionario público necesita esa auditabilidad y esa explicabilidad para las nuevas relaciones tecnológicas, y ahí está uno luchando contra el bot, que no le entiende, no le entiende. Me quiero comunicar con un humano para que me entienda. No, es que no se puede, porque usted ya le puso la palomita a la casilla de: leí, entendí –bueno, supuestamente–, entendí y acepté los términos de uso.
Bueno, y cómo quiere que avance, porque si no le pongo la palomita a la casilla, no me deja avanzar. Oye, ¿y a qué oficina puedo ir? No, ya estamos digitalizados, le tienen que poner la palomita a la casilla. Mi derecho a la auditabilidad, a la explicabilidad. Los algoritmos deben someterse a estos derechos ciudadanos y no al revés.
La laceración de estos derechos impacta significativamente.
¿Cuál derecho? El de la construcción democrática de sistemas de inteligencia artificial. Los sistemas de inteligencia artificial no se construyen solos, hay personas que los construyen, y esa puede ser una co-construcción democrática y en consecuencia al derecho de apelación ante el resultado de nuevos datos o las decisiones tomadas sin intervención humana.
La verdad, aquí me quise ver leve, puse derecho de apelación, por no decir: derecho de amparo, por no meterme en problemas con las reformas para la ley de amparo, bueno, derecho de apelación.
Estos derechos deben ser privilegio del ciudadano ante el algoritmo y no dejar el mundo de cabeza, porque facilita a la inteligencia artificial las decisiones que vulneran estos derechos.
Digo: el mundo de cabeza, porque el pasado 8 de marzo en las elecciones colombianas, como les decía, una circunscripción indígena propuso como candidata a un avatar de inteligencia artificial, llamado Gaitiana, se hizo un revuelo, obviamente no sacó votos significativos Gaitiana, pero en un medio de comunicación el entrevistador le decía a Carlos Redondo, el ingeniero de esta comunidad indígena que creó y logró registrar, la logró registrar como candidata, le decía: Bueno, pero entonces, los electores de Gaitiana se van a adherir a ella, pero ella les tiene que decir qué posición va a tomar ante la nueva regla o ley de portación de armas y qué dice ella ante la nueva regla de portación de armas.
Entonces, el desarrollador de Gaitiana le contestaba: Gaitiana va a tomar la opinión de sus electores y entonces va a tomar una posición frente a eso. Entonces, le decía: no, no, pero eso es confuso, ella tiene que declararse para que el elector se adhiera a su propuesta.
Yo me quedé pensando, ¿este entrevistador está poniendo la democracia de cabeza? El electorado se tiene que adherir a su representante, según la declaración de su representante por un tema, en vez de que el representante se adhiera a la opinión, al censo de su electorado, para que con ese criterio vaya al Congreso y legisle.
No nos pongan de cabeza la democracia. Inteligencia artificial y algoritmos al servicio de los derechos, no al revés. Bueno, esta parte es la que nos vamos a pasar y si nos da tiempo regresamos sobre ella.
Ahí está doña Josefa y la inteligencia artificial para el Poder Judicial en Querétaro, los casos de Cambridge Analytica que seguramente son conocidos por ustedes; el caso de Roman Zaripov que puso un candidato virtual compitiendo contra la primera reelección de Vladimir Putin en 2018, pues ya sabemos cuál fue el resultado; ahí está Gaitiana, este avatar de rasgos indígenas, hermosísima, preciosa, eso sí, de piel azul, no sé por qué le hizo así Carlos Redondo, pero en fin; ahí estaba lo que quería ser su curul en el Congreso.
Esta parte nos la vamos a saltar, la de los avatares y vamos directo al tema medular en el INE.
El derrotero de México para regular la inteligencia artificial inicia en 2018 con propuestas de enfoque ético que lamentablemente, como sabemos, no han derivado en la esfera jurídica.
La intención de instaurar dentro de la Carta Magna la figura de una ley de inteligencia artificial ha tenido varios proyectos, todos ellos se han ceñido a la reforma o añadidos de la fracción XVII del artículo 73 de nuestra Carta Magna.
En 2023 la Senadora Martha Cecilia Márquez del PT propuso dictar leyes sobre IA, después la Senadora Alejandra Lagunes Soto Ruiz del Verde Ecologista añadía conceptos del IA en aplicaciones, en ciberseguridad, neuroderechos.
En 2024 el Diputado Jesús Alberto Vázquez Flores del PRD también hizo una propuesta para expedir leyes.
Estos proyectos y como muchos otros contemporáneos ahora en 2025 y 2026, sólo inciden en las TIC y en la radiodifusión, no tienen la perspectiva para la inteligencia artificial, tampoco imponen normas al supercómputo cuando éste ya se utiliza para tomar decisiones complejas.
Aquí tenemos una pequeña tabla de atingencia a los proyectos de leyes sólo de nivel federal, no de niveles estatales o locales, de iniciativas de la regulación de la inteligencia artificial.
En 2023 el Diputado Loyola, cuya aportación era crear un Consejo Mexicano de Inteligencia Artificial.
En el mismo año el Senador Gustavo Enrique Madero, cuya aportación era prohibir la manipulación, la discriminación, el monitoreo biométrico y la alteración de contenidos digitales.
En ese mismo año el Diputado Bueno Zertuche, la creación de una agencia mexicana para el desarrollo de inteligencia artificial.
En 2024, en ese entonces senador, actual diputado, Ricardo Monreal Ávila, propone la categorización de aplicaciones, valga la redundancia, categorizadas en riesgos, en inaceptables altos o bajos para los efectos algorítmicos.
En 2025, diputadas de Morena y del Verde Ecologista, la soberanía tecnológica con abatimiento a la brecha digital, a excepción, según mi análisis de la propuesta del Doctor Ricardo Monreal, todas son propuestas sectoriales; es decir, van a regular un aspecto de la inteligencia artificial, porque previamente detectaron un fenómeno que parecía inaceptable, que si violencia de género, que si medición biométrica, que si discriminación laboral, que si discriminación escolar.
Entonces, es un poco como darle paracetamol al que está sufriendo cáncer, que el paracetamol le bloquee la parte, le bloquee la parte intelectual, no le llegue el dato al cerebro del dolor y hasta ahí se acabó.
Me quedan cinco minutos nada más. No, no, esto es terrible.
Bueno, regulaciones de la inteligencia artificial en México de 2025 a 2026.
¿Qué ha sucedido a la fecha? 11 y 12 de junio de 2025 se establece por CECET y Secretaría de Economía y la Agencia de Transformación Digital el Foro Interinstitucional de Inteligencia Artificial y Supercómputo.
El segundo intento, publicado en julio del 2025, las publicaciones y conversatorios del Senado y su respectiva propuesta.
Y, como les decía yo, en 2025, y ahora siendo diputado el Doctor Ricardo Monreal Ávila, su propuesta de inicio.
Bueno, ¿quiénes han participado en el foro? Prácticamente todos los sectores: sector gubernamental, sector privado, y sus aportaciones son una serie de intervenciones explícitas, pero no son sistemáticas, proyectos aislados.
¿Qué retos tienen? Un equilibrio entre la normatividad y la libertad para el desarrollo tecnológico, la salvaguarda de la soberanía tecnológica, el respeto a los intereses de los desarrolladores con respecto a los derechos humanos, porque ahí hay un tema de derechos de autor que hay que proteger, y la educación y formación digital de acceso a las tecnologías.
¿Cuál es el dilema a nivel nacional? El dilema que enfrenta México en las regulaciones, o me inclino por el espíritu de la normatividad de la Unión Europea, el cual promueve el respeto a los derechos humanos por encima del interés del desarrollo tecnológico, o me doy la alineación, alineación y alineación a la tendencia de los Estados Unidos de Norteamérica que privilegie el desarrollo y la competitividad con menos o casi nulas consideraciones a otros inconvenientes en el uso irrestricto de la inteligencia artificial, o los derechos, o laissez faire, laissez passer, por eso era importante platicar de la orden ejecutiva del Presidente Trump.
Y en este momento las discusiones que están enmarcadas por la actual y necesaria negociación del T-MEC, dicen: pues vámonos a la tendencia norteamericana. Este es el gran desafío a nivel nacional.
¿Cuáles son las aportaciones de este foro? El doctor Pruneda, que es coordinador de la línea de investigación de Derecho en inteligencia artificial en el Instituto de Investigaciones Jurídicas de la UNAM, dice: ninguna legislación de modalidad tradicional o regulación sectorial va a ser efectiva sin la gobernanza de la inteligencia artificial.
Después vinieron los conversatorios del 2024 y 2025 del Senado, la propuesta de su marco normativo está accesible en la web.
Participaron todos los sectores básicamente, yo aquí subrayo al Tribunal Electoral del Poder Judicial de la Federación, donde participó el colega, el Magistrado Sergio Gutiérrez Olvera, Magistrado de la Sala Regional de Guadalajara, con quien tuve el privilegio de inaugurar el Diplomado en Ciberdemocracia en la Escuela Judicial Electoral.
Participaron del sector privado, por eso los puse en rojo, obviamente YouTube, Google México, Amazon, Microsoft y de Meta participó la Maestra Glenda Mitchell. La Maestra Glenda Mitchell actualmente está en Meta, pero hace dos administraciones se encontraba en la entonces denominada Secretaría de la Función Pública y estaba desarrollando un sistema de evaluación de impacto algorítmico.
He tenido varias entrevistas con ella a partir de Meta y reconoce que el propio Meta, y eso está en las publicaciones del OpenLab de Meta, no alcanza a tener dominio de la gobernanza de la inteligencia artificial de sus propios sistemas; lo digo con conocimiento de causa y puedo dar evidencias.
Y, por supuesto, participó la UNAM y una serie de organizaciones de la sociedad civil, la Comisión de la Propiedad Industrial y muchas de las embajadas que hay en México, sobre todo la embajada norteamericana y la embajada de la Gran Bretaña.
Y una serie de senadoras y senadores donde, curiosamente, en ese grupo y en esa comisión, para mí es curioso, no estaba el Doctor Monreal Ávila.
¿Cuáles son las aportaciones? Miren ustedes, una de las aportaciones, ahí la puse en rojo, que quedemos alineados a los estándares del ISO42001 y del NIST, ¡ah caray!
Otra de las aportaciones, que se aguarden los derechos humanos, pero que se tipifiquen delitos; correcto.
Que se haga un registro nacional, una agencia nacional o ministerio especializado en IA. Esa es una buena aportación, pero nunca dijeron ¿qué instancia gubernamental? ¿dónde va a radicar?
Y esas aportaciones del marco normativo solamente tienen seis sectores: las autoridades, los desarrolladores, los usuarios, la comunidad académica, la sociedad civil organizada y no organizada, los no gubernamentales y las comunidades directamente impactadas por el uso.
Una de las propuestas de los aportes son mecanismos de gobernanza; está muy bien, esa es una gran conclusión a la que todos estamos coincidiendo. Pero dice, que se completen sanciones únicamente ante violaciones graves, ¿y dónde están las herramientas de evaluación de impacto para decidir cuáles son las graves y cuáles no? Una evaluación de riesgos, ¿y dónde está la herramienta de evaluación de impacto algorítmico para evaluar el modelo de riesgos? Y que sea compatible con la visión regulatoria de América del Norte, no hay visión regulatoria en América del Norte. Pero bueno, así está.
Luego viene la del Doctor Monreal, sus aportaciones, otra vez la reforma, revisión quincenal. Él propone que la SECIHTIsea la que emita los lineamientos, sea encargada del registro nacional y que le den facultades para conceder o negar autorizaciones.
Y en vez de seis, enlista siete actores responsables: desarrolladores, proveedores, implementadores, usuarios, fabricantes, importadores, distribuidores y representantes extranjeros.
Y en mi humilde opinión tiene un gran acierto, que los sistemas de inteligencia artificial se consideren mercantilizados, comercializados bajo el uso de una marca. Sin embargo, aunque le señalan nueve atribuciones a la SECIHTI, no son vinculantes hasta que se emitan las disposiciones reglamentarias y administrativas.
Después, el diputado federal del PRI, Emilio Suárez Licona, recién en la Gaceta de febrero de 2026, pone una iniciativa y él no propone a la SECIHTI, propone al INEGI para evaluar los impactos.
Y la iniciativa del diputado Licona tiene un dato interesante, en el índice latinoamericano de inteligencia artificial, México está en un puntaje de 47 sobre el promedio regional que es de 42. 2 a 0 llevamos el score, pero en el índice de gobernanza, ahí nos van a meter un gol que vale por 2, porque el puntaje de México está en 36 y el índice de gobernanza de inteligencia artificial en la región Latinoamericana está en 71. Estamos por debajo de la mitad.
¿Por qué pongo esta viñeta de los retos desde la propiedad industrial? Porque queramos o no queramos, pero sobre todos los financiadores, los desarrolladores, Meta, Microsoft, Amazon, Apple, quien usted guste, la inteligencia artificial es un producto industrial, y la Ley Federal Mexicana de Protección a la Propiedad Industrial tiene tres objetivos: promoverlo, limitarlo y para evitar la piratería también protegerlo, pero es promoverlo y limitarlo.
Entonces, quizá no sea el INEGI, quizá no sea la SECIHTI, quizá sea el Instituto Mexicano de la Propiedad Industrial, que tiene sus propios retos respecto a la inteligencia artificial, y esto está en el Complacent, perdón por el inglés, pero así ellos lo pusieron, en el Complacent, y tiene su propia agenda y en su agenda tiene, no se alcanza a ver ahí bien, pero dice: expedir la ley de inteligencia artificial para reformar la ley federal de protección de la propiedad industrial.
Y aquí les quiero compartir un dato, y ya pido disculpas, porque me voy a tomar unos minutos más.
No sé si lo alcanzan a ver, esto está tomado de las cifras del 30 de junio de 2025, de las patentes conseguidas entre 2018 y 2025 asociadas a la inteligencia artificial y tecnologías de información, las del 2025 México 0, las extranjeras 19, las del total del periodo, México 29, las extranjeras 317, son los datos fríos, le puede llamar dependencia tecnológica, le puede llamar colonización, le puede llamar nivel de la balanza comercial, porque importamos más inteligencia artificial de la que exportamos, pero aquí el hecho no son tanto los datos, aquí el hecho es que existe una ley que permite el registro y la certificación de la propiedad industrial de sistemas de inteligencia artificial o no lo concede, y esta es la gran oportunidad regulatoria que tenemos; hagamos un alto y reparemos.
Todas las propuestas, a excepción de las del Doctor Monreal, no contemplan el ciclo de vida completo del sistema, pero la del Doctor Monreal no atiende explícitamente los distintos momentos del sistema, por lo tanto, hay que atender la máxima participación ciudadana posible dentro del concepto de gobernanza.
¿Por qué un modelo holístico de gobernanza para la inteligencia artificial? Por dos razones, porque hay que regular el ciclo completo del sistema de día, es decir, el ante, el durante y el posterior a su implementación y aplicación. “Oiga, ¿y cómo que el posterior?” Para eso existen las pruebas piloto antes de conceder la patente y la revisión y revisión y reacción de las pruebas piloto antes de conseguir la patente.
Y la segunda razón, para que atienda la intervención de todos los actores involucrados, que no son seis, que no son siete, por lo menos son nueve. Me interesan los últimos, los capacitadores, los promotores y los novenos, los consumidores comunes finales en donde pueden encontrarse los grupos afectados.
¿Qué ofrece el modelo holístico de gobernanza de la inteligencia artificial? La transparencia, la rendición de cuentas, la auditabilidad, la explicabilidad, el derecho de apelación.
La primera versión del modelo holístico de gobernanza de inteligencia artificial, mire, aunque allá aparezca mi nombre, eso a mí no me importa, a mí lo que me importa es que ya fue postulado por México, está disponible en Frontiers in Political Science, certificado por los suizos, certificado por los británicos en esta propuesta de la inclusión y participación de los actores involucrados en inteligencia artificial y su aplicación desde la administración pública en sus sistemas y procedimientos.
Ahí les dejo yo el DOI para poder profundizar en ese sistema, ahí está la fachada.
Ya estoy terminando, ya estoy terminando.
¿Cuál es el desafío? Por favor, ISO 42001, no incluye la amplia participación de todos los actores en los roles posibles de intervención a lo largo del sistema de vida de inteligencia artificial. “Es que estamos negociando el T-MEC, entonces vámonos al ISO 42001, vas a matar la gallina de los huevos de oro, te vas a dar un balazo en el pie, hay que tener cuidado con eso”.
Subsanar las omisiones de participación ciudadana y ambos intereses, ambas razones para evitar la imposición colonizadora y sobre todo para dar pauta a la que quizá en el IMPI pueda ser la Norma Mexicana de Inteligencia Artificial.
Pues si hay norma mexicana para los riesgos psicosociales laborales, si hay norma mexicana para etiquetar los productos de consumo humano, de la nutrición, si hay norma mexicana para otorgar o no otorgar las patentes de medicamentos nacionales o extranjeras, ¿por qué no vamos a poner como condición la NOM-IA para darle la certificación y el registro de su respectiva patente?
Debe participar la Academia, ahí están enumeradas un montón de instancias académicas, debe participar el sector gubernamental, por supuesto, la Agencia de Transformación Digital y Telecomunicaciones; debe de participar la sociedad civil, hay un montón de asociaciones de sociedades, unas más organizadas, otras menos.
Ahí está el Meta OpenLab, que reconocen que no tienen todo el alcance que desean sobre la gobernanza de sus propios sistemas, deben de participar los medios de comunicación para dar una difusión masiva a convocatorias, fechas, instancias, links, accesos de participación, procedimientos del modelo, fortalecimiento del tejido social y, sobre todo, deben participar las comunidades destinatarias afectadas.
Aquí nada más me atrevo a citar la red de defensa de los derechos digitales, y me llama la atención que en los conversatorios de dos años del Senado y en el foro, y me llama la atención también que en los congresos, por ejemplo, el congreso que inauguró el actual diputado Monreal no fue convocada la red de defensa de derechos digitales, quizá porque es la parte más incómoda al respecto.
Cada sector tiene su reto y, por lo tanto, la aportación, y con esto sí terminamos. El sector educativo público y privado, obviamente la alfabetización digital, la academia, el desarrollo de modelos de las evaluaciones de impacto algorítmicos, ya hicimos ahí nuestro granito de arena, y de gobernanza.
¿Qué tiene que hacer la academia? La elaboración de manuales para todos los involucrados. No lo van a hacer los desarrolladores, no lo va a hacer la sociedad civil, que es la que necesita el manual, no lo va a hacer el sector gubernamental, él tiene que vigilar el cumplimiento de la ley, y las comunidades destinatarias o vulnerables son las que necesitan los manuales.
¿Qué tienen que hacer los desarrolladores tecnológicos? La prueba de robustez, de confiabilidad, de integridad del sistema, el almacenamiento de los registros de auditorías, el sector gubernamental obviamente, elaborar sus procedimientos y los respectivos manuales de la fiscalización de los sistemas, de la expedición de la licencia o patente, el uso en atención a los usuarios, la evaluación de impacto, sobre todo la del riesgo y la recopilación de registros, auditorías, rendición de cuentas, de apelaciones y sentencias, igual con la sociedad civil, las ONG y, sobre todo, las comunidades demográficas, una vez que hayan sido alfabetizadas y se les dé el manual en que puedan operar la gobernanza.
Se requiere un espacio de autoridad y control para todas esas acciones interactivas necesarias entre los involucrados. Ese espacio tiene que estar institucionalizado y tener su órgano de regulación interna y tiene que tener a su cargo la aplicabilidad operativa de la norma mexicana de inteligencia artificial.
El foro dijo que tendría que ser la SECIHTI, hizo una comisión de análisis normativo desde el 9 de junio y el 11 de junio el Laboratorio Nacional, pero nosotros pensamos que probablemente una subcomisión de Derechos Humanos o un Instituto Mexicano de la Propiedad Industrial, el Instituto Mexicano de la Propiedad Industrial es más adecuado para que condicione el registro de la patente y que nos pueda dar seguimiento a las 29 nacionales y 319 extranjeras que ya han recibido la patente desde 2018 a 2025.
Ahora sí finalizamos.
Si bien hemos parafraseado la tesis de Publio Terencio, para la inteligencia artificial nada de lo humano es ajeno, nosotros debemos ser perseverantes en el categórico compromiso, que ningún humano quede ajeno a la regulación de la inteligencia artificial.
Muchísimas gracias, una disculpa por el exceso de tiempo.
Directora de Seguridad y Control Informático del INE, Cecilia Calderón Ortega: Muchas gracias, Doctor Aguirre, sin duda una excepcional exposición y nos quedamos con muchos temas a reflexionar y sobre todo aquí en el INE, que aunque ya fuimos pioneros y nos hemos adelantado con esta exposición, creo que vamos a recapitular algunas decisiones que estábamos por tomar.
Muchas gracias.
Bueno, ahora procederemos a escuchar al Doctor Chacón Rojas, quien nos va a comentar sobre los aspectos centrales de la conferencia, pero antes me permitiré dar lectura a su síntesis curricular.
Es doctor en Teoría Política por la Universidad Autónoma de Madrid, doctor en Ciencias Políticas y Sociales por el Instituto Nacional de Estudios Fiscales, especialista en Derechos Humanos por la Universidad Complutense de Madrid, especialista en Derecho Constitucional y Ciencias Políticas por el Centro de Estudios Políticos y Constitucionales de Madrid, Maestro en Estudios Amerindios por la Casa de América, maestro en Estudios Políticos y Sociales por el Instituto Nacional de Estudios Fiscales y Licenciado en Derecho por la Universidad Autónoma de Chiapas con mención honorífica.
Catedrático del Instituto de Investigaciones Jurídicas de la Universidad Autónoma de Chiapas e Investigación del CONACYT, actualmente con licencia. Ha sido presidente de la Comisión de Fiscalización Electoral de Chiapas de 2005 a 2011 y coordinador del Estudio Diagnóstico sobre Fiscalización Electoral del Proceso Electoral 2012 del entonces Instituto Federal Electoral, Tribunal Electoral del Poder Judicial de la Federación y Programa de las Naciones Unidas para el Desarrollo de México.
Fue rector de la Universidad Intercultural de Chiapas durante el año 2014, es miembro del Consejo Editorial de la Revista Mexicana de Derecho Electoral del Instituto de Investigaciones Jurídicas de la UNAM, ha sido ponente en foros estatales, nacionales e internacionales relacionados con la materia electoral, ha realizado en partido diversos diplomados.
Entre sus publicaciones destacan Dinero del Crimen Organizado y Fiscalización Electoral, de Ediciones Fontamara del 2011, Políticos Incumplidos y la Esperanza del Control Democrático, de Ediciones Fontamara del 2009, Informe de Labores de Funcionarios Públicos y la Garantía de Equidad en las Contiendas del Tribunal Electoral del Poder Judicial de la Federación del 2012, Democracia Plebiscitaria y Estado de Derecho del 2024, entre otras.
Fue consejero presidente del Instituto de Elecciones y Participación Ciudadana de Chiapas del 2016 al 2023, de igual manera fue Presidente del Consejo Nacional de la Asociación de Instituciones Electorales de las entidades federativas que agrupa a los consejeros presidentes y los consejeros presidentes de los organismos públicos locales electorales. Ha sido distinguido con el reconocimiento sobresaliente cum laude otorgado por la Universidad Autónoma de Madrid, España.
Actualmente es rector de la Universidad Autónoma de Chiapas. Les cedo el uso de la voz, Doctor Chacón Rojas.
Rector de la Universidad Autónoma de Chiapas, Oswaldo Chacón Rojas: Gracias, querida Ceci.
La lectura del currículum ya llevó la mitad del tiempo que tenía asignado.
Gracias al INE, a las consejeras, a los consejeros electorales. Muchas gracias a mi secretario general de ANUIES, al Doctor Luis González Plasencia, por la invitación a ser parte de esta maravillosa actividad.
Me han dado la oportunidad y el privilegio, primero, de leer parte de las aportaciones del profesor Aguirre sobre este tema, relacionadas a su presentación, y luego el privilegio, igual que toda la audiencia, de escucharlo.
Yo creo que ha sido una mañana muy enriquecedora. Hay que felicitar al Doctor Aguirre, se ha tomado muy en serio su papel como analista, como filósofo en el estudio, en el análisis del impacto de la inteligencia artificial en muchos temas de la vida humana o en todos los temas de la vida humana, más bien, y eso se ve reflejado en esta maravillosa exposición que hoy nos ha regalado.
Yo creo que su conferencia tiene muchas virtudes. De entrada, la pertinencia, estamos hablando de un tema ineludible, urgente, necesario, pero además la forma de cómo la estructura, primero hablando de los beneficios o impactos favorables que ha traído o que puede tener la inteligencia artificial en términos de democracia, luego hablando de sus riesgos, la necesidad de esquemas regulatorios e incluso se atreve, se moja, poniendo sobre la mesa algunas líneas de por dónde tendría que ir este reto o este desafío.
Permítanme muy brevemente compartir algunas reflexiones, reaccionando, a modo de reacción a su exposición.
Creo que, como ya lo dije, es un acierto que, primero hablemos de esta vida en rosa, que él le llama; es decir, todo lo que IA está significando en términos de avance democrático y que no podemos minimizar. Simplemente aquí el Instituto Nacional Electoral, las ventajas que la IA está generando en temas de organización y capacitación electoral, que son enormes.
Podemos, gracias a inteligencia artificial, contar con herramientas de análisis predictivo para identificar patrones de abstencionismo, para el diseño de políticas, podemos hacer uso de asistentes virtuales accesibles, con voz, con texto, incluso con adaptación a personas con discapacidad y vía realidad virtual, incluso podemos simular escenarios de algunas políticas, considerando diversos sectores de la sociedad.
En fin, creo que todos coincidimos que la inteligencia artificial, bien dirigida, bien aprovechada, sí puede ser un elemento que coadyuve a fortalecer las vías de participación democrática.
Y yo recuerdo que cuando, ante el auge de internet a finales de los años 90, el gran politólogo norteamericano Robert Dahl, entonces ya estaba maravillado por lo que podía representar internet en términos de democracia participativa, él hablaba de que por fin un concepto que él había acuñado en su famoso libro La poliarquía de 1971, la necesidad de crear minipopulus, donde gente seleccionada al azar pudiera deliberar de manera permanente sobre temas específicos, él hablaba a finales de los noventas, principios de los dos miles, que internet iba a ser lo posible y que íbamos a iniciar una regla de oro en la democracia, y hoy en día hay escuelas, grupos académicos muy enfocados y dedicados a estos temas, pensemos, por ejemplo, en Hélène Landemore de Open Democracy, de la Universidad de Yale; o James S. Fishkin, que es el Director del Instituto de Democracia Deliberativa en la Universidad de Stanford, y que están trabajando en la potencialización del uso de la inteligencia artificial para fortalecer mecanismos de participación en Taiwán.
Existe una plataforma que se llama POLIS, que usa la inteligencia artificial para mapear opiniones, para identificar consensos, y que ha influido de manera importante en la discusión de leyes sobre Uber, COVID, y justamente en regulación digital.
Y creo que el Doctor Aguirre pone énfasis en todos los aspectos en los cuales IA está impactando los procesos democráticos.
Y hay uno que es, por supuesto, ineludible, que tiene que ver con las campañas electorales, lo que está representando desde la perspectiva de los candidatos, los candidatos en los partidos políticos, la posibilidad de utilizar estas nuevas tecnologías.
El segundo aspecto tiene que ver con los riesgos del uso de la inteligencia artificial.
Si bien estamos sabedores y conscientes de que estamos viviendo un momento importante o lo que pudiera ser un momento en términos democráticos, también estamos viviendo tiempos paradójicos. Esas mismas tecnologías pueden coadyuvar, o pueden convertirse en un contrasentido o en un despropósito. Y ejemplos tenemos muchos.
En su presentación, él habla del tema de las deepfakes de candidatos mediante la utilización de bots, audios y videos falsos virales, el micro-targeting algorítmico, todos estos aspectos que esta institución acreditó muy bien, por cierto, en el último proceso electoral, el federal, donde, de acuerdo a algunos datos de la propia autoridad, el crecimiento de ese tipo de actividades se incrementó en el proceso electoral federal en 2024 entre un 600 y 800 por ciento respecto del proceso electoral pasado, mediante la utilización de herramientas como Eleven Labs para la clonación de logs de voz, o el Mid Journey para editar imágenes y video.
Y hay muchos ejemplos, casos que se volvieron paradigmáticos.
Hay uno que fue muy conocido, el de Martí Batres, lo recordarán, otro de Álvarez Máynez, en fin, actores políticos que argumentaron que fueron sustituidos mediante inteligencia artificial.
Pero a todos nos quedó claro el impacto que está teniendo ya esto en los procesos electorales. Los bots jugaron un rol amplificador decisivo de este tipo de estrategias y de noticias falsas y ya sabemos lo que eso genera.
¿Puede eso determinar los resultados en las elecciones? Vaya tarea que en su momento tendrán los tribunales electorales, porque tendrán que valorar el impacto de ello en los triunfos y en las derrotas.
Lo que sí es un hecho es que ese tipo de estrategias sí contribuyen a una mayor polarización y por supuesto, lo decía el Doctor Aguirre muy bien, a la presencia e incluso la algidez de los discursos de odio. Y eso por supuesto que es un tema que no debe de pasar desapercibido.
Y el Doctor Aguirre muy bien advierte de otro tipo de problemas, por ejemplo, la opacidad que está detrás del uso de los algoritmos, porque nadie sabe cómo brincan, o el efecto, o el porqué de sus resultados.
Y también, por supuesto, el hecho de que esos algoritmos pudieran generar sesgos, y aquí hay un aspecto muy importante en el que hay que detenernos. El Instituto Nacional Electoral y los OPL utilizan inteligencia artificial, algoritmos, para verificar candidaturas, requisitos de candidaturas, es una solución, mal harían en no utilizarlo.
Ahora, son procesos, y como todos los procesos dentro de las actividades de la autoridad electoral, pues tienen la obligación de garantizar el derecho a audiencia de los ciudadanos.
Si por alguna razón el uso de estos algoritmos genera sesgos, pues siempre existe la posibilidad de cotejar, de escuchar al ciudadano, a la ciudadana, y en ese sentido de corregir.
Entonces, hay que revisar el tema del uso de los algoritmos desde una perspectiva integral, como parte de los procesos.
Efectivamente, si la garantía de audiencia no estuviera establecida y garantizada, pues sí correríamos muchos riesgos de discriminación o de exclusión.
Hay que hacerse cargo de los desafíos que él menciona muy bien de candidaturas virtuales, del uso de avatares y hologramas, porque es parte de nuestra realidad, no es algo que vamos a poder obviar.
Y, claro, el uso de inteligencia artificial con estos propósitos sí representa todo un desafío que tiene que ser abordado por las autoridades electorales.
Y, bueno, también esto nos lleva al tercer punto de su presentación, la necesidad de establecer reglas frente a esta nueva realidad.
El núcleo del debate hoy es justamente la regulación o no, y si regulamos, cómo le hacemos, quién lo hace y cuáles son los alcances. Yo creo que INE ya se atrevió, y hay que reconocerlo, que es muy valiente incursionar en estos aspectos.
Las instituciones académicas también estamos incursionando en esfuerzos regulatorios.
Los principios de Chapultepec, por lo menos por la SECIHTI, son muestra de ello, pero aquí viene el aspecto, me parece, más interesante de la presentación. El Doctor Aguirre nos planteó todo el panorama, distintas iniciativas, antecedentes, referentes, ubica muy bien dónde está planteado el debate en relación a este tema.
Él se ubica en una posición más cercana a la europea, es decir, la necesidad de garantizar derechos y establecer reglas, la gobernanza del mundo digital, inteligencia artificial, más distante, tomando distancia de una posición más libertaria como la de los Estados Unidos.
Yo creo que no podemos hablar de esto si no reflexionamos con mayor detalle cuáles son nuestras experiencias, las experiencias que hemos vivido, que hemos tenido a partir de otros esfuerzos regulatorios en materia electoral en este país, porque el gran problema de internet, de todo lo tecnológico, tiene que ver con que nacieron para ser una especie de jungla o de ley de selva donde se vale todo y el tema es que las elecciones también, las elecciones están pensadas para desarrollarse en un contexto de máximas libertades y de menores restricciones.
Y aquí en México hemos tenido experiencias contradictorias, a partir de la reforma del 2007 empezamos una tendencia sumamente regulatoria; tras las protestas postelectorales de elección del 2006, los actores políticos de este país, las élites llegaron a la conclusión que la mejor manera de atender los reclamos era regular y hacer reformas constitucionales y legales para poner candados, restricciones.
El tema es, ¿qué tanto esas restricciones y esas regulaciones sirven o han servido para conseguir el objetivo?
Pensemos en el tema de la fiscalización, México tiene uno de los modelos regulatorios más robustos del mundo, no de Latinoamérica, del mundo. No van a encontrar ustedes un modelo con tantos candados, obligaciones, restricciones como el mexicano.
Yo les pregunto, ¿a qué nos ha llevado eso? Vean ustedes cuánto costaron las últimas elecciones presidenciales en los Estados Unidos, ¿saben ustedes cuánto costaron? ¿No? Casi ocho mil millones de dólares, una monstruosidad.
Bueno, de acuerdo a los libros contables presentados por los partidos políticos registrados ante esta altura electoral, ¿saben ustedes cuánto costaron las elecciones presidenciales pasadas en México? ¿No lo saben? Menos de 600 millones de pesos.
¿Quién tiene la razón? Evidentemente en este país el dinero que se usa en las elecciones no se reporta, lo que reportan los partidos políticos son las justificaciones al dinero que el INE les da, es la comprobación de sus gastos, pero no existen incentivos para que declaren que sean transparentes, la mayor parte del recurso se maneja hacia abajo.
Quisimos regular radio y televisión, medios de comunicación, prohibamos los spots y con eso ya garantizamos aquí en las contiendas, ¿de verdad los partidos políticos no pagan por espacio en radio y TV?
Nada más recuerdo un ejemplo y lo recuerdo porque también soy pambolero, no sé si les gusta el fútbol soccer, pero había un jugadorazo paraguayo, jugó ahí en mi estado en los jaguares, Salvador Cabañas.
Su problema es que se vino a jugar a la América y cuando se vino a la América le dieron un balazo en un bar, por cierto, no muy lejos de aquí, en el Bar Bar, bueno, un mes después de que sucedieron esos hechos, el dueño de ese negocio del antro hizo una declaración muy interesante, porque él dijo que la campaña de denostación en contra de su empresa que existía en los medios de comunicación, era porque era socio de Televisa en una empresa que se llamaba PROMOTV y esa empresa es la que le estaba facturando a algunos partidos políticos para la producción de sus materiales y con eso le pagaban a las televisoras.
Entonces, es lo mismo, pero ¿saben qué? Antes los contratos de los partidos ante las televisoras se reportaban acá, ahora no se reportan, todo es bajo el agua.
Entonces, ¿para qué nos ha servido la sobrerregulación? ¿Quieren otro ejemplo? Ahora, vamos a regular las precampañas, la propaganda gubernamental. Órale, ahí está, ya los partidos anunciaron que adelantaron sus procesos. Vamos a ver a cuándo se sancionan.
¿La sobrerregulación es la solución, o estamos viviendo en un sistema que promueve la opacidad y la simulación? ¡Aguas!
Yo creo que inteligencia artificial demanda y requiere, sí, que se establezcan reglas, pero ojo, aquellas que estamos en condiciones materiales de poder cumplir, ejercer como autoridades; y, dos, que no dejen de incentivar la transparencia.
Y como jurista, yo soy más partidario, creo en la justicia constitucional, a pesar de la elección judicial, creo en la justicia constitucional, creo que deberíamos explorar la ruta de establecer principios generales y que sean las autoridades jurisdiccionales, los tribunales constitucionales de este país que vayan revisando cada caso concreto; es decir, no vayamos a la sobrerregulación, establezcamos un piso mínimo y después, en vía judicial vayamos modulando. Así se llama ese ejercicio, modulación constitucional.
Quizás pueda ser una ruta o una vía que nos ayude a transitar de mejor manera el enorme reto y desafío que está representando la inteligencia artificial.
La IA no es algo que la vamos a poder atender en la medida en que la desconozcamos, la ignoramos o la queramos restringir. Miren lo que estamos viviendo en las universidades, a cada rato nos llegan quejas, alumnos y alumnas reprobados, porque utilizaron inteligencia artificial y los maestros quejándose de la falta de ética y prioridad de los alumnos. Nos vamos a llenar de alumnos reprobados, porque ¿saben qué? Ahora estas nuevas generaciones saben que la información la tienen en su teléfono.
Mi hija, la más pequeña de 11 años, ayer me decía justamente eso: Oye, ¿y por qué no la voy a usar? Es una pérdida de tiempo, está la información. Es cierto, las universidades históricamente nos dedicábamos a transmitir información, datos, era parte de nuestro oficio, ahora estas nuevas generaciones ya no nos necesitan, porque tienen su teléfono.
La información que yo le voy a dar en la aula de clases ellos la tienen ahí en su teléfono. Las universidades, tal y como las conocíamos hoy, están en crisis. Ese modelo está dejando de funcionar y de ser útil para esta nueva realidad.
Tenemos que reformar nuestros modelos educativos. Tenemos que aprender a convivir con la inteligencia artificial. Eso que hoy en día se llama co-inteligencia.
Algo que el Doctor Aguirre menciona muy bien, es rescatar lo humano. Ahora las universidades estamos más obligadas que nunca a formar en lo humano, en aquellas habilidades y competencias que nos hacen humanos, porque claro, ahora las empresas lo que demandan puede un joven no ir a la universidad y generarles una solución, lo tienen en sus teléfonos.
¿Cuál es el elemento diferenciador ahora? Tenemos que fomentar pensamiento crítico, tenemos que desarrollar habilidades blandas además de las tecnológicas, que marquen diferencias, capacidad para seleccionar, tener criterios frente a ese mundo informativo.
Ahora en el aula de clases no se trata de llegar a simular a partir de restringir o prohibir su inteligencia artificial, se trata como maestro o maestra de aceptar que los jóvenes lo usan, pero quiero saber ¿cómo la usan?, ¿qué preguntas le hacen?, ¿cómo dialogan con ella?, ¿cómo llegan? Y, sobre todo, ¿qué opiniones tienen de esas conclusiones?
Hoy, más que nunca, el rol de un docente es socrático, tenemos que regresar a Sócrates, doctor, al aula de clases.
Bueno, lo mismo, ese desafío que estamos enfrentando en los modelos educativos y en la universidad, está presente en todas las arenas y en todas las esferas
Y yo cerraría hablando específicamente en esta convocatoria extraordinaria que nos hace el Doctor Aguirre a generar una estrategia holística integral, donde participemos todos y todas en estas estrategias, sobre el rol y la responsabilidad que tenemos las universidades en particular y creo que tenemos mucho qué decir y qué aportar, ¿por qué? Porque las universidades constituyen la base y el cimiento o deberían de ser el cimiento de ese pilar de la gobernanza digital.
¿Qué podemos hacer las universidades? ¿Cómo participamos? En investigación e innovación responsable, detención de sesgos, auditoría algorítmica, sistemas éticos, todo eso las universidades podemos hacerlo, tenemos el capital humano, podemos orientar líneas de trabajo y de investigación, podemos generar redes para trabajar en estos temas y generar herramientas, pero además debemos formar talento y debemos alfabetizar.
Por ejemplo, hay que liderar la actualización masiva de planes de estudio, los planes de estudio de las universidades deben de transformarse y reformarse para enfrentar esta realidad, podemos certificar competencias, diseñar diplomados sobre derecho, informática, ética, formar a los futuros auditores independientes y de sistemas de inteligencia artificial, incorporar a nuestros planes de estudio módulos obligatorios de alfabetización digital y de ética en la IA, en fin, preparar no solamente técnicos, sino asumir nuestro rol como formadores de ciudadanos responsables.
Podemos también contribuir desde una perspectiva de asesoría técnica independiente dentro de este gran órgano consultivo que se propone, podemos generar espacios de diálogo, foros como este, donde academia, autoridades, partidos, sociedad, revisemos y reflexionemos estos temas.
Y hago una propuesta muy concreta, aquí le vamos a pedir a la Maestra Cecilia que sea portavoz, que el INE y la ANUIES, la ANUIES y el INE, acordemos, establezcamos convenios para coadyuvar en las tareas de monitoreo, es decir, más allá de los espacios de reflexión y lo académico, algo concreto y operativo.
Las universidades podemos apoyar al INE en tareas de monitoreo en el uso de la IA en los procesos electorales y democráticos, podemos coadyuvar en tareas de capacitación masiva a funcionarios y a ciudadanos; en fin, la educación es la mejor vacuna contra el riesgo de la manipulación.
Y, para terminar, una breve reflexión. Creo que el verdadero reto no es esencialmente tecnológico, es sobre todo humano y ético; y la ruta que debemos de seguir exige vigilancia, colaboración multi e intersectorial y una brújula ética que es innegociable.
¿A qué me refiero? Siempre, siempre poner en el centro a las personas y sus derechos. Solo de esta manera la tecnología va a servir a la soberanía popular y no al revés, ni intentará suplirla.
Muchas gracias.
Directora de Seguridad y Control Informático del INE, Cecilia Calderon Ortega: Muchas gracias, Doctor Chacón, por estas valiosas reflexiones que complementan y aterrizan los retos que la inteligencia artificial plantea a nuestra arquitectura democrática.
Ahora, vamos a revisar las preguntas de nuestra audiencia. Voy a agrupar las que tienen que ver con el mismo tema, porque ya andamos un poquito apretados de tiempo y se las voy a leer.
Si el uso de la inteligencia artificial está poco regulado en México, ¿qué panorama vislumbra para las elecciones más cercanas, tanto en Coahuila como en las del 2027? ¿Afectará el uso desmedido en torno a información falsa o a inducción de poca información respecto a candidaturas?
La otra pregunta nos dice: ¿considera que la inteligencia artificial sea favorable en la implementación en el día de la jornada electoral en la emisión de votos o afectaría la credibilidad en el resultado?
Y la otra dice: ¿considera que la aplicación de la inteligencia artificial en el escrutinio electoral eliminaría los medios de impugnación?
Doctor Aguirre, si gusta comentarnos al respecto, y después ya si el doctor Chacón nos quiere complementar algo, por favor.
Gracias.
Investigador de la UANL, Jorge Francisco Aguirre Sala: Muchas gracias.
Bueno, sin duda alguna hay que regresar la ética a todos lados y lo que usted acertadísimamente señaló, por una simple asociación, pero bien justificada. Me hizo recordar lo que en alguna ocasión dijo Steve Jobs, este gran creador de Apple, dijo: yo cambiaría toda mi tecnología por charlar una tarde con Sócrates.
Entonces, eso da prueba de qué debemos de privilegiar.
Bueno, no tenemos enfrente una bola de cristal para saber qué va a pasar en las elecciones de Coahuila y en las elecciones 2027 en ese entorno. Lo que sí sabemos es que, si sigue la tendencia, entonces no va a ser un 600 por ciento, va a ser un mil 800 por ciento el uso de granjas de bots y algobots y robots, etcétera, las que van a estar interfiriendo en las campañas.
Entonces, ese entorno va a estar clarísimo, ya lo dijo muy bien el Doctor Chacón, la dificultad que van a tener los tribunales electorales en tener que decidir si fue influenciado o no fue influenciado, pero lo que va a suceder es, como ya ha sucedido en México, aunque poca literatura lo quiere evidenciar, la irrupción de la misma Cambridge Analytica o de cualquier otra similar o filial va a estar presente. No tengo una bola de cristal, pero estamos seguros que cuando a veces pensamos el peor de los escenarios generalmente acertamos.
¿Será la inteligencia artificial favorable para el día de las elecciones, sí o no, para el escrutinio? Mi personal opinión es que si la tecnología de bloque de cadenas, es mi resistencia utilizar vocablos del inglés, si la tecnología del blockchain, del bloque de cadenas, en vez de hacerla centralizada o administrada, se hace distribuida, sería un éxito porque le daría a todas las instituciones políticas, particularmente a los partidos políticos, en tiempo real, el registro de los escrutinios en todo sentido y eso garantizaría por supuesto que todas las garantías del derecho electoral que tiene que ver el voto y sobre todo en los resultados y evitaría muchísimas de las impugnaciones, encriptado perfectamente.
Además, eso para los partidos políticos, es una cosa que no alcancé a decir, pero eso para los partidos políticos, valga la metáfora, es oro molido, porque aunque tenga la secrecía del voto, cuando un partido político ve en el mapa demográfico, la edad, el género, la escolaridad, el estatus laboral e incluso algunas preferencias personales de moda o de consumo, etcétera, para el diseñador de la campaña electoral, literalmente eso es oro molido, sin afectar en lo más mínimo el derecho a la secrecía del voto, eso es por la parte del escrutinio.
Si utilizamos la inteligencia artificial para armar los paquetes electorales, si es que entendí más o menos bien la última pregunta, pues yo creo que ahí la mejor evidencia está precisamente en el Instituto Nacional Electoral, en el tiempo de respuesta y registro de las y los con nacionales en el extranjero, cuando a través del voto electrónico en cualquier tipo de dispositivo móvil, han tenido el resultado del escrutinio.
Es decir, lo que la demografía electoral espera en lo más pronto posible, se le da con la mayor certeza jurídica posible. Entonces, pues en ese sentido, adelante.
Voy a darle la palabra al Doctor Chacón, para que también nos ilustre, nos haga favor de ilustrar con sus pareceres al respecto.
Rector de la Universidad Autónoma de Chiapas, Oswaldo Chacón Rojas: Ya no iba a hablar, pero a ver, un par de comentarios reaccionando.
¿Riesgos en los próximos años? Pues todos, en la medida en que no avancemos a establecer un marco ético, reglas, mismas, y aunque los hubieran, en la medida en que el uso de estos instrumentos generan ventajas, ¿quién no las va a hacer? ¿Todos quieren ganar o no compiten para ganar? Pues sí.
Entonces, coincido el porcentaje de incremento en el uso de estas estrategias va a ser enorme.
Hay que estar preparados, porque eso es lo que se viene con fuerza.
Y sí, el reto sobre todo es jurisdiccional, porque en su momento son magistrados y magistradas quienes tendrán que revisar el famoso principio de la determinancia.
¿Hasta dónde el uso de esas estrategias? El uso de la inteligencia artificial para denostar, para generar campañas de odio, para alterar información.
¿Hasta dónde eso puede incidir en el resultado de una elección? Yo no quisiera estar en el papel, van a jugar los queridos colegas, porque ese toro con el que tienen que lidiar está muy bravo.
Lo de la emisión de votos con uso de inteligencia artificial, híjole, yo creo que no podemos cerrar los ojos: IA, nuevas tecnologías, ya son parte de nuestra vida, interactuamos con ellas siempre, pero ya sabemos que, en tema electoral, garantizar el principio de certeza, confianza, es algo que se tiene que cuidar, es muy riesgoso y peligroso y jugar con ello.
Igual, con el uso de las urnas electrónicas, el uso de internet para emisión de sufragio, yo me iría en la misma ruta, pian pianito, despacito, empecemos con algunas pruebas, algunos ensayos, pruebas piloto, quizás en algunos mecanismos de participación ciudadana, vayámosle midiendo cómo reacciona el electorado, los partidos políticos a su implementación.
Y el tema del uso en su escrutinio, el gran tema es cómo acreditas responsabilidad. Ahora es el algoritmo, no soy yo.
Entonces, sí hay varios temas ahí que hay que analizar y revisar antes de dar el siguiente paso, pero hay que entrarle, y ya.
Muchas gracias.
Directora de Seguridad y Control Informático del INE, Cecilia Calderon Ortega: Muchas gracias por sus respuestas tan clarificadoras.
Debido al tiempo programado vamos a cerrar aquí el bloque, pero no se preocupen, las preguntas que hayan quedado pendientes se les van a proporcionar a nuestros invitados para que las puedan leer y, bueno, pues ya veremos el mecanismo de cómo poder compartir con ustedes las respuestas.
Bueno, ha quedado claro que la tecnología no es un fin, sino una herramienta que debemos orientar con ética y legalidad en el espacio público.
Muchas gracias.
Presentadora: Muchas gracias por esta importante ponencia.
Y antes de continuar, queremos agradecer la presencia del Doctor Luis Armando González Placencia, Secretario General Ejecutivo de la ANUIES; al Doctor Héctor Bernal Santoyo, jefe de oficina de la Secretaría General Ejecutiva de la ANUIES, así como a la Red Juvenil por México y personal invitados de las juntas distritales de la Ciudad de México, gracias por acompañarnos.
A continuación, procedemos con la entrega de reconocimientos, por lo que solicitamos respetuosamente a la Licenciada Iliana Araceli Hernández Gómez nos acompaña al frente para que nos honre con esta entrega.
Encargada del Despacho de la DECEyEC, Iliana Araceli Hernández Gómez: Bueno, muchísimas gracias por estar aquí, por acompañarnos, por ilustrarnos tanto en esta tarde.
Un agradecimiento de parte de la Licenciada Guadalupe Taddei, Presidenta del Instituto Nacional Electoral y, por supuesto, de nuestra Secretaria Ejecutiva, la Doctora Claudia Arlett Espino.
Agradezco la presencia de todas y todos ustedes, que seguramente nos llevamos mucha información y, sobre todo, mucho que leer, mucho que estudiar.
Espero que no sea esta la última ocasión en la que tenemos el honor de contar con tan distinguido panel.
Gracias al Doctor Chacón, al Doctor Aguirre, por supuesto, a mi compañera la Maestra Cecilia, al Doctor Héctor.
Agradezco infinitamente al Secretario General de la ANUIES esta colaboración y justamente hoy damos inicio a estas actividades que en coordinación con ANUIES vamos a llevar a cabo de manera reiterada con el Instituto Nacional Electoral.
Y, bueno, no me queda más que entregarles los reconocimientos. Gracias.
Al Doctor Jorge Aguirre Sala por la impartición de esta conferencia magistral.
Muchísimas gracias al Doctor. Y un pequeño obsequio también, por favor.
Y al Doctor Oswaldo Chacón Rojas, por su excelente participación en este día.
Y también le damos su obsequio, su dotación. Muchísimas gracias.
Y, por supuesto, a la Maestra Cecilia Calderón por su notable moderación en este día.
Muchísimas gracias.
Bueno, a la ANUIES ya le dimos muchas cosas.
Muchas gracias, que tengan todas y todos muy buenas tardes.
Presentadora: De esta manera concluye el Evento “Inteligencia Artificial. Participación política y retos para regular su aplicación y uso”.
Muy buenas tardes, que tengan un excelente día.
-o0o-