¿Cómo usar la IA para el trabajo narrativo y no terminar hablando como máquinas?
Mientras la extrema derecha aprovecha estas nuevas herramientas para amplificarse y automatizarse, nuestro mantra debe ser: saberlas usar sin perder nuestra voz propia.

👋🏾 ¡Hola!
Les doy la bienvenida a La Lupa Digital: Justicia de Género. Soy Cristina Vélez Vieira e investigo ecosistemas digitales y su impacto en la movilización social 📶.
¿Qué separa a una voz humana de la voz de una inteligencia artificial? Esta pregunta me persigue desde abril, cuando conocí a Gaurav Singh Nijjer, un artista multimedia de la India. En su trabajo combina tecnología y teatro para llevar a las personas a experimentar las desconexiones que surgen cuando se comparan tonos de voces humanas con los generados por IA. Específicamente en su obra Ai-waaz (2025), cuestiona las herramientas de IA, que ahora usan en los call centers de su país para neutralizar el acento en inglés de los empleados de modo que todos suenen como norteamericanos.
La historia de estos centros de llamadas con acentos humanos estandarizados por una IA blanca y masculina, me hizo pensar en un riesgo que enfrentamos como organizaciones de sociedad civil: la robotización de nuestra voz. Un día todas nuestras cuentas de redes sociales pueden amanecer sonando igual, reproduciendo el mismo jargón de los chatbots presente en la mayoría de las publicaciones de marketing y spam. No puede faltar el saludo cliché, los tres emojis típicos y el cierre con un hashtag cursi.
Cada vez más equipos de comunicación adoptan ChatGPT, Gemini, Claude o Canva para crear contenidos, historias y videos. Pero estas herramientas no tienen por qué llevarnos al mismo lugar. La clave es usarlas para expandir nuestra propia voz, resistiendo los relatos de Silicon Valley que nos presionan por adoptarlas sin conciencia, como consumidoras desesperadas por "no quedarnos atrás".
Las Big Tech quieren hacernos creer que solo hay una forma de usar IA. Eso, sin embargo, no es así, como lo he visto a través del trabajo de Charles Johnson y de su curso de análisis de sistemas sociotécnicos. Mi propuesta: tomarnos el tiempo para desarrollar nuestros propios enfoques. En este boletín comparto estrategias concretas, prompts y metáforas para usos de IA más alineados con nuestros valores y orientados hacia otros futuros posibles.
[Estado de la tormenta ⚡]
La extrema derecha ya entendió el potencial de estas herramientas y se alista para usarlas en las próximas elecciones en América Latina. Hace pocas semanas tuvo lugar el 2º Seminário Nacional de Comunicação del Partido Liberal de Jair Bolsonaro, que está calentando motores para las elecciones presidenciales de Brasil en 2026. Allí ejecutivos de Meta y Google ofrecieron talleres específicos sobre IA generativa. La investigación del medio Intercept reveló que el objetivo de estos entrenamientos era enseñarles a crear imágenes y videos que "parecieran fotografías" y avatares que "se asemejan a personas reales" para transmitir "exactamente el mensaje deseado" en redes sociales.
A esto se suman los agentes de IA: algoritmos entrenados para generar contenido como si fueran personas. Redactan mensajes, diseñan imágenes, editan videos, responden comentarios en redes sociales. Plataformas como n8n permiten crear flujos automatizados con una voz específica —motivadora, experta o cercana— ajustada al perfil emocional o ideológico de quien lo recibe. El resultado: ejércitos digitales invisibles, capaces de producir miles de contenidos al día, afinados para cada microaudiencia. Hablan como humanos, pero sin escucha profunda ni genuina empatía, impulsando desinformación y desconexión con la realidad nunca antes vistas (ver informe de Rolling Stones sobre esto último y el de Data and Society acerca del peligro de estafas amplificadas por inteligencia generativa).
Buckminster Fuller lo tenía claro: "Si quieres que la gente adopte nuevas maneras de pensar, no busques enseñarles cómo. Dales, más bien, una herramienta, una que al usarla les guíe a nuevas formas de razonamientos". Es evidente que los bolsonaros del mundo ya están viendo en la IA una forma de modelar las maneras de pensar de esta y de otras generaciones del futuro.
Por eso desconectarnos no es una opción. Como señala la defensora climática Jessica Ferrow, cuando no participamos en la configuración de estas tecnologías, dejamos que otros lo hagan desde una visión del futuro que no se alinea con la nuestra. Para disputar ese "futuro simbólico" —término que utiliza Maíra Berutti, directora del laboratorio de comunicación Quid, en un reciente evento de IRIS sobre cambio narrativo en la región—, necesitamos usar estas herramientas desde nuestros propios marcos conceptuales. Esto requiere imaginación y esfuerzos coordinados, por lo que presento a continuación algunas inspiraciones.
[Herramientas para navegar 🛠️ ]
🧿 Empecemos por cuestionar las narrativas dominantes para ver con más claridad
Si hoy buscamos "IA" en Google Images, encontraremos cabezas robóticas que miran un futuro con una estética de ciencia ficción. Esas imágenes transmiten que la IA es algo mágico e inevitable que "nos llevará al futuro". No obstante, detrás hay un mensaje claro: si no corres, te deja el tren.
Estas imágenes nos hacen olvidar dos cosas fundamentales: la primera es que la IA actual tiene dueños. Son muy pocas las empresas que se enriquecen con ella, y a diferencia del internet en sus inicios, la IA surgió desde lógicas corporativas privadas en Silicon Valley; la segunda, estas no son las únicas lógicas posibles. Se puede diseñar IA desde otros valores y territorios y nosotras debemos participar de esta conversación.
Otros mundos con IA son posibles y aquí les dejo tres ejemplos:
🟢 Recientemente, leí sobre el primer modelo de lenguaje (LLM, Large Language Model, por sus siglas en inglés) “hecho en Latinoamérica para Latinoamérica”. Se llama LatamGPT, aquí puedes explorarlo y participar en su entrenamiento.
🟢 Esta semana la iniciativa Proyecto Brief lanzó un nuevo Substack/boletín centrado en herramientas de IA para el campo progresista en Brasil. Lo escribe Ana Freitas quien tiene mucha experiencia en este campo, entonces pinta muy bien. Se llama Brief:aí.
🟢 También me inspiraron por ser disruptivas, estas historias de innovaciones de IA en contextos 🤯 indígenas. Primero, les recomiendo este artículo sobre un grupo Maorí escrito por MIT Technology Review. También pueden oír este podcast con Karen Hao con estudios de caso alrededor de su libro Imperios de IA.
Para que más inspiraciones como estas se hagan realidad, es clave empezar a contar más y mejores historias sobre esta tecnología. Hace poco oí una charla que me pareció fascinante y recomiendo mucho: "El elefante y el algoritmo”. En esa conversación, los panelistas dan tips para que contemos historias alternativas sobre IA y tecnología en general que movilicen a las personas a recuperar autonomía frente a las Big Tech.
En esta charla participaron Armando Iannucci, creador de Veep, y Chris Wylie, quien en su nuevo show Captured explora el rol de profetas con consignas seudoreligiosas que han tomado los CEO de las Big Tech. Además se sumó Adam Pincus, productor del podcast ¿Qué puede salir mal?, quien cuestiona la narrativa que busca hacernos creer que los daños infringidos por las grandes firmas de Silicon Valley son inevitables. Los panelistas coinciden en que es clave que nos empecemos a hacer las siguientes preguntas:
¿Por qué se nos da tan mal contar historias sobre tecnología?
¿Quién se beneficia cuando pensamos que la IA es mágica o que su desarrollo exponencial es siempre deseable?
¿Cómo evitar seguir reaccionando a los encuadres narrativos de las Big Tech y más bien adelantarnos con historias que hablen de otros futuros posibles?
¿Por qué nos cuesta tanto construir personajes y relatos que simplifiquen la complejidad de estos temas, transmitan emociones y nos movilicen contra el creciente poder que estas compañías ejercen sobre nuestras vidas?
🔥 Retomemos la metáfora de la hoguera para decidir colectivamente
La IA generativa es una tecnología multipropósito tan poderosa y transformadora como el fuego. Cuando nuestros ancestros se enfrentaron al descubrimiento del fuego, no lo hicieron como clientes o consumidores individuales corriendo a "adoptar la última innovación". Lo que hicieron, como refleja la imagen que Shari Avendaño preparó para la portada de este boletín, fue sentarse alrededor de la hoguera. En una ronda y desde el pensamiento colectivo, llegaron a una estrategia comunitaria y a unas prácticas de cuidado que se han transmitido durante siglos de generación en generación.
La publicidad sobre IA quiere que entremos por donde más le conviene: nos pide que cada una escoja un logo y se case con un chatbot o una app específica. Sin embargo, tenemos que dar un paso atrás y quitarnos estas gafas que tanto le convienen a los modelos de negocio de grandes compañías, expertas en convertir problemas sistémicos en decisiones de consumo individual, para que después todo sea nuestra culpa. Antes de elegir entre ChatGPT, Claude o Gemini, necesitamos abrir conversaciones al interior de nuestras organizaciones sobre la tecnología misma y cómo queremos relacionarnos con ella.
Sentarse alrededor de la hoguera significa tomarse el tiempo para decidir colectivamente: ¿para qué y qué tipo de fuego necesitamos?, ¿a quién le vamos a entregar la responsabilidad de alimentarlo?, ¿quién se beneficia del uso de esta tecnología?, ¿quién asume los costos?, ¿qué límites ponemos para que no se salga de control? Y después sí podemos decidir a cuál marca de herramienta específica nos vamos a enchufar, teniendo en cuenta sus políticas de protección de datos y la filosofía de su modelo de negocio.
💡 Repensemos nuestros roles frente a la IA
En el proceso crítico de decidir a qué software o aplicación nos vamos a enchufar, también podemos cambiar el juego de roles que nos imponen. En Nexus, Yuval Noah Harari nos invita a imaginar qué pasaría si tratáramos estas herramientas como a un médico o contador. Si un médico debe hacer un juramento hipocrático antes de darnos un diagnóstico, ¿por qué no exigirle el mismo nivel de construcción de confianza a un chatbot? ¿Por qué le entregamos tantos datos sin exigir transparencia de su lado?
Por eso me gusta pensar en los chatbots como practicantes que acaban de entrar a mi equipo: necesitan supervisión constante, hay que revisarles todo el trabajo y cuidar la confidencialidad. Como aprendices de brujo del cuento de Goethe que Disney inmortalizó.
En esta asimetría de roles, también puede pasar al revés, que le damos a la IA papeles de amistad y de compañía emocional que no tiene. En este caso hay algo más profundo en juego. Los datos de Harvard Business Review muestran un cambio radical: mientras en 2024 el uso principal de IA generativa era "generar ideas", en 2025 está siendo "terapia y compañía", seguido de "organizar mi vida" y "encontrar propósito". Esta migración hacia usos vinculados a la conexión humana demuestra cómo estas herramientas están colonizando terrenos narrativos y de intimidad que necesitamos resguardar.
Esta asimetría es aún más problemática cuando consideramos que, como reveló el artículo "Lo que la IA cree saber sobre ti" en The Atlantic, los modelos de IA sacan múltiples conclusiones apresuradas sobre nosotros basándose en los datos que les proporcionamos, asunciones que no siempre son ciertas y que pueden llevarnos por caminos narrativos que no nos representan.
Aunque solo hay unos pocos estudios que han analizado este comportamiento, al observar dentro de la caja negra de un modelo de lenguaje extenso, puedes ver qué te dice cuando piensa que eres rico y qué si cree que no lo eres. La bandera roja que levanta el autor Jonathan L. Zittrain es clara: los LLM nos matriculan en ciertas categorías de personas sin avisarnos y esto media sus interacciones con nosotros y la información que nos dan. Pero los personajes que inventan no siempre coinciden con quienes realmente somos.
[Nuevos nortes 🛤️]
Últimamente me inquieta cuando entro a un grupo de WhatsApp donde el moderador solía escribir en su tono natural y espontáneo, y me encuentro muy a menudo con intervenciones libreteadas por uno de estos modelos de lenguaje. Es como empezar una conversación con una contestadora automática. Como Mónica Roa, directora Puentes, nos recuerda en este blogpost, hay muchas oportunidades de reforzar el marco de interconexión para que esto no pase.
Por su parte, Simon Sinek, un autor experto en vínculos, plantea en este podcast una regla fundamental: usemos estas herramientas mientras no nos impidan la posibilidad de conectar. Si perdemos la capacidad de ponernos en la piel de las personas a las que les estamos escribiendo, de saber mediar un conflicto o hacer nuevas relaciones, le entregaremos a la máquina las habilidades por las cuales existimos las organizaciones de cambio narrativo.
Un estudio reciente de la universidad MIT muestra cómo ChatGPT afecta las conexiones neuronales, confirmando que las habilidades para conectar son, literalmente, un músculo que debemos mantener activo y no dejar oxidar. Si el Waze nos llevó a olvidarnos de cómo buscar una dirección, Sinek nos pregunta: qué pasaría si también desaprendemos las habilidades para la conexión.
Volviendo al artista multimedia Gaurav Singh Nijjer, lo que logra la voz humana que no logran las máquinas es fortalecer vínculos: una memoria, un lugar en común, una música compartida. La pregunta entonces es: ¿cómo inyectar las reflexiones que hemos hecho aquí en los contenidos que hacemos con IA para no ceder completamente nuestra capacidad de conectar y no terminar hablando como robots?
Para contar historias, todos los modelos generativos funcionan igual: dado un conjunto de palabras, inventan probabilísticamente la siguiente palabra en la secuencia. Estas palabras "estadísticamente representativas" nos acercarán cada vez más a los lugares comunes, clichés y estereotipos que, desde las organizaciones de justicia de género, tanto queremos combatir. El prompt estándar resultará, por defecto, en una reducción dramática de la diversidad de nuestro vocabulario, pero además tendrá efectos sobre nuestras posibilidades de interconexión.
Detrás del uso de estas herramientas también hay un ansia de validación: una idea de ser perfectos e infalibles. En el intento de sonar "correctos", como las voces estandarizadas de las que habla Singh en Ai-waaz, dejamos en el camino nuestra naturalidad.
¿Cómo evitar que esto suceda? Para navegar estas tensiones entre la voz humana y la máquina, necesitamos establecer algunos acuerdos fundamentales:
🟢 No cedamos al chatbot el control de nuestra prosa
Para evitar que terminemos todas escribiendo en el mismo jargón de LLM, debemos sumar ojos, oídos, manos humanas en varios pasos del proceso editorial. Por ejemplo, para escribir este boletín siempre hago tándem con dos editoras de carne y hueso: una con mucha experiencia en metáforas del mundo digital, que me da ideas para sumarle chispa y evitar la redundancia, y otra muy exigente con la puntuación y el lenguaje. Escribo todas mis ideas de corrido, en mis palabras, condimentándolas con mi estilo y referencias de vida, defino la estructura que quiero con subtítulos, para después usar el LLM como editor e invitar a los ojos humanos a revisar, sugerir y ayudar a interconectar.
El arte de escribir historias es algo muy antiguo y muy humano. Retomo la metáfora de la IA como una tecnología multipropósito tan poderosa como el fuego: si decidimos invitar al chatbot a la labor de contar historias, será clave sentarnos en ronda a pensar cuáles son las cosas que no queremos perder en esa llama. Hace poco tuvimos una discusión con el equipo del Inspiratorio, la plataforma de entrenamiento y trabajo narrativo de Puentes, sobre esto. Una de las integrantes habló de la memoria como un acto humano que debemos custodiar. La IA no tiene la capacidad de guardar memorias afectivas, solo puede convertirlas en ceros y unos para transformarlas en bits, pero nosotros sí. Lo que deja una pregunta: ¿qué memorias queremos recordar, generar y guardar solo para nosotros?
🟢 No usemos IA en espacios donde las personas están esperando encontrarse con otro humano
Como dice Priya Parker en El arte de encontrarnos, cuando las cosas se ponen difíciles y hay que resolver conflictos o acompañar procesos emocionales, la gente quiere oír una voz humana. En este tipo de procesos de facilitación y de mediación, hay que tener cuidado de no abrirle la puerta a chatbots que no están invitados. Desde el feminismo hemos trabajado mucho en conceptos como el consentimiento y cuidado colectivo, que no se nos pueden olvidar en estos casos. Aunque esto va contra los intereses de las Big Tech, podríamos aplicar un principio básico: consultar primero si las comunidades quieren esta tecnología en sus espacios.
🟢 Asegurémonos que escuchamos mejor que la IA
La IA puede generar contenido, pero no puede escuchar a nuestras comunidades como nosotros lo hacemos. Nuestro trabajo debe partir siempre de lo que estamos escuchando en los territorios, en las conversaciones, en los silencios. La tecnología debe amplificar esa escucha, no reemplazarla. Como dice Emily Kasriel en su libro Deep Listening, la escucha humana está más actual que nunca.
🟢 Prioricemos usos que liberen tiempo para el trabajo relacional
Retomando a Ferrow, la idea es involucrar estas herramientas en tareas que no agoten el potencial humano sino que lo habiliten. Y que estén alineadas con el mundo que queremos, teniendo en cuenta quién se beneficia de su uso y quién carga con su costo.
🟢 Cuidemos la confianza de los datos, detalles, testimonios reales
No aprovecharnos de las vulnerabilidades humanas usando imágenes generadas por IA donde deben haber fotografías reales; ni crear testimonios falsos donde deben estar voces auténticas. Reconocer siempre la autoría de los contenidos y fuentes de información que integremos en conversaciones con chatbots. Ser transparentes sobre los contenidos generados con IA y contarle a nuestras audiencias cómo la estamos usando.
🟢 Diseñemos el uso con intención
Lanzarnos al ruedo con estas herramientas requiere estrategias claras. Todo depende de los objetivos, los recursos y las ideas. Se trata también de diseñar el uso, experimentar y medir el impacto. Esta guía de Digital Futures Lab, diseñada para el uso responsable de IA en organizaciones de la sociedad civil –y por si fuera poco, pensada para organizaciones con pocos recursos– puede servir de inspiración para estructurar el proceso. También está este manual nuevo de la Unesco: Red Teaming de IA para el bien común.
🟢 Entendamos los límites de la creatividad artificial
La IA nos puede devolver lo que queremos oír, reforzando nuestros sesgos. Por eso es crucial que mantengamos siempre un principio humano y diversas perspectivas en la mesa de decisiones.
🟢 Imaginación radical sobre futuros posibles
Debemos tener en cuenta que esta IA no es la única que va a existir y que en nuestras manos está influir en su desarrollo. Tenemos el rol de imaginar y construir tecnologías que respondan a nuestros valores y necesidades. Para eso es clave que, como organizaciones de la sociedad civil, participemos en las discusiones sobre regulación y principios éticos alrededor de esta tecnología que se están dando en nuestros países. Es urgente impulsar conversaciones más territorializadas y situadas que se pregunten qué está optimizando la IA dominante y para quién. Así lo menciona Maricarmen Sequera, directora de TEDIC, una de las organizaciones de derechos digitales con más experiencia en la región, en un conversatorio virtual que tuvo lugar en el marco de la cátedra Tomás Moro 2025.
El mantra, un poco como lo decíamos al principio, es usar estas herramientas de manera que fortalezcan nuestra capacidad de tejer historias que realmente conecten y transformen. En los próximos meses seguiré explorando estos temas como parte de RE:GAIN, una red de investigación internacional sobre IA y justicia narrativa desde el sur global, donde participaré como Knowledge Architect (Arquitecta del Conocimiento), para pensar colectivamente acerca de la desinformación como consecuencia de IA generativa, y desarrollar estrategias de acciones reparativas. Si tienen ideas o quieren conversar sobre estos temas, aquí me encuentran siempre: cristina@somos-puentes.org. Y les seguiré contando.
Hasta la próxima y un abrazo.
Edición: Anamaría Bedoya / Diseño: cruanas.emii 🇨🇺