No solo en Colombia hay preocupación por cómo la desinformación potenciada por la inteligencia artificial (IA) puede influir en las elecciones. En Brasil, que vivió tras los comicios de 2022 un intento de golpe de Estado, motivado en afirmaciones falsas sobre un fraude electoral, los tribunales se han movido incluso con regulaciones específicas para tratar de evitar que en las elecciones de este año la IA sirva para difundir información falsa.
LEA TAMBIÉN

Pero a seis meses de las presidenciales en ese país, los chatbots siguen respondiendo a preguntas como “Chat, ¿quién es el mejor candidato?”, contrariando las nuevas normas electorales, lo que genera preocupación sobre la influencia de la IA en el voto.
Considerada como uno de los principales retos del año electoral por la presidenta del Tribunal Superior Electoral (TSE), Cármen Lúcia, la IA fue objeto de nuevas regulaciones en marzo. No cabe duda de que el “abuso o mal uso” de las tecnologías puede llevar “a la contaminación de las elecciones”, advirtió Lúcia.
El 2026 será un año lleno de elecciones en Latinoamérica. Foto:EFE
Para estas elecciones presidenciales, las primeras desde que los chatbots están masivamente disponibles en Brasil, el tribunal aumentó la responsabilidad de las plataformas por contenidos falsos y restringió el modo en que pueden usarse. En ese sentido, quedó prohibido que ofrezcan recomendaciones, ranquines u opiniones sobre candidatos y partidos, incluso cuando el propio usuario lo solicite. Sin embargo, en pruebas realizadas por la AFP tras la publicación de las normas, al menos tres de los principales chatbots seguían ofreciendo escalafones políticos. Consultados sobre quiénes serían “los mejores candidatos para las elecciones de 2026”, ChatGPT, Grok y Gemini respondieron en segundos con algunos nombres, incluso hablaron de políticos que ya habían descartado presentarse a las presidenciales.
Uno de los retos es el contenido sesgado
Las respuestas no siempre serán acertadas. Foto:iStock
Respuestas como las mencionadas generan la preocupación de que la tecnología influya en los votantes a partir de información incorrecta o sesgada. Las respuestas se generan mediante probabilidades basadas en datos de entrenamiento que pueden contener errores o sesgos, explicó a la AFP el profesor Theo Araújo, director del Centro de Investigación en Comunicación de la Universidad de Ámsterdam, quien estudió el uso de chatbots durante las elecciones de los Países Bajos en 2025. Su investigación reveló que una de cada diez personas probablemente recurriría a estas herramientas para informarse sobre los candidatos.
En el caso de Brasil, un ejemplo de estos datos erróneos que pueden difundir los modelos de IA se vio con una imagen que mostraba a Flávio Bolsonaro (hijo del expresidente Jair Bolsonaro y actual candidato presidencial) junto al dueño del Banco Master, Daniel Vorcaro, investigado por un escándalo financiero que sacude al poder en Brasilia. En marzo, el equipo de verificación de la AFP constató que esa fotografía era falsa, pese a ello, Grok aseguró en X que el registro era real e incluso dio una supuesta fecha del encuentro. El problema se agrava por la percepción de neutralidad asociada a los chatbots.
LEA TAMBIÉN

“En política, los votantes entienden que ciertas fuentes tienen inclinaciones ideológicas. Con estos chatbots, existe el riesgo de que los electores crean que son neutrales u objetivos y procesen sus respuestas de manera menos crítica”, resumió Araújo.
Ese riesgo se ve reforzado por los propios candidatos. Flávio Bolsonaro alentó este mes a sus seguidores en X a “preguntarle al chat qué es verdad”. Y muchos lo hacen: una búsqueda rápida en la red social muestra a usuarios pidiendo recomendaciones de voto a Grok.
Pese a todas estas inquietudes, existe incertidumbre sobre si la prohibición del TSE en Brasil puede derivar en algún castigo a las plataformas responsables de estos modelos de IA, ya que la norma no prevé sanciones específicas.
Entretanto, consultada por AFP, OpenAI afirmó que ChatGPT está “entrenado para no favorecer candidatos” y que continúa perfeccionando sus modelos. Google informó que Gemini genera respuestas a partir de los pedidos de los usuarios, que no reflejan necesariamente la opinión de la empresa; mientras que los intentos de contactar a X (Grok) no fueron respondidos.
*AGENCIA AFP con edición de la redacción de EL TIEMPO.
Más noticias en EL TIEMPO
Circula video viral falso sobre Juan Daniel Oviedo. Foto:
Publicado por Autor El Tiempo