En una era de sobrecarga informativa, ver siempre había sido creer… hasta ahora. Con la aparición de generadores de video ultrarrealistas basados en IA, como VEO de Google, la línea entre realidad y ficción está desapareciendo ante nuestros ojos. Estas herramientas pueden crear videos con apariencia real a partir de simples instrucciones de texto, con movimiento, iluminación y emociones convincentes. Aunque pueda parecer la última maravilla de la innovación tecnológica, sus efectos sobre en qué se puede confiar y qué es verdad afectan a nivel global, los flujos de información y la estabilidad política se vuelven cada vez más difíciles de ignorar.
VEO3 no es la primera ni la única IA generadora de video, pero actualmente es una de las más avanzadas, capaz de producir secuencias de un minuto con calidad fotorrealista que rivalizan con grabaciones reales. A diferencia de la tecnología deepfake inicial, que normalmente modificaba videos existentes, estas herramientas pueden crear contenido completamente nuevo desde cero. Con tan solo unas frases, cualquiera puede fabricar una conferencia de prensa, simular una protesta o generar imágenes ficticias de guerra que resulten indistinguibles de los eventos reales.
Lo que hace que este avance sea particularmente disruptivo es su capacidad para socavar el fundamento mismo de la confianza en el entorno mediático. Durante décadas, las pruebas fotográficas y en video fueron el estándar en el periodismo y la comunicación pública. Ahora, a medida que los medios sintéticos se vuelven indistinguibles de las imágenes auténticas, ese estándar se erosiona rápidamente. Un video fabricado puede viralizarse mucho antes de ser verificado y, aun después de ser desmentido, seguir influyendo en la opinión pública. Incluso puede que la gente empiece a descartar material auténtico pensando que “probablemente es IA”, creando así un clima de negación plausible para actores malintencionados.
No se trata solo de un problema doméstico. Las implicaciones son globales. En regiones con inestabilidad política o instituciones débiles, el contenido manipulado podría provocar pánico, agravar tensiones o deslegitimar elecciones. Incluso en democracias estables, la avalancha de contenido generado por IA podría llevar a una “fatiga de la verdad” generalizada, en la que las personas se desconectan por completo al no saber qué creer. Cuando la información se vuelve demasiado abrumadora o sospechosa, muchos optarán por no participar. Ese vacío es el caldo de cultivo perfecto para la desinformación.
Además, crece el riesgo de que estas tecnologías se utilicen como arma en conflictos geopolíticos. Operaciones de bandera falsa, abusos de derechos humanos simulados o ataques enemigos fabricados podrían recrearse con IA, con audio y video convincentes. Considerando que estos videos pueden producirse más rápido de lo que medios o gobiernos tardan en verificarlos, el daño puede estar hecho antes de que la verdad salga a la luz. Incluso el mero rumor de la existencia de un video así podría bastar para modificar la opinión pública o provocar reacciones internacionales.
A este desafío se suma la creciente accesibilidad de estas herramientas. Lo que antes requería conocimientos técnicos especializados ahora se vuelve fácil de usar y de acceso público. Con solo una conexión a internet y la instrucción adecuada, prácticamente cualquier persona puede generar narrativas visuales persuasivas, incluidos actores maliciosos, teóricos de la conspiración o campañas de influencia extranjera. Esta democratización de la generación de video asistido por IA amplía el campo de amenazas y dificulta las respuestas coordinadas.
Hasta ahora, la regulación internacional no ha avanzado al mismo ritmo. Los esfuerzos para etiquetar o añadir marcas de agua al contenido artificial aún están en fases iniciales, y la mayoría de los gobiernos carece de la infraestructura técnica para detectar o responder a esta nueva ola de desinformación. Aunque las empresas que desarrollan estas herramientas están empezando a explorar salvaguardas, como incrustar metadatos o usar IA para detectar contenido generado por IA, la carrera por dominar el sector hace que la innovación a menudo supere a la cautela.
En el fondo, esta no es solo una historia sobre tecnología; es una historia sobre confianza y verdad. El ecosistema global de la información depende de una base compartida de realidad. Cuando cualquiera, en cualquier parte, puede crear una simulación convincente de un evento mundial, corremos el riesgo de perder por completo esa base. La consecuencia no es solo confusión; es una lenta erosión de nuestra capacidad para colaborar, gobernar democráticamente y responder a crisis reales en tiempo real.
¿Qué se puede hacer? Por ahora, la concienciación es la primera defensa. Como público global, debemos volvernos más críticos, más escépticos y más alfabetizados digitalmente respecto a cómo se produce y distribuye el contenido. Las iniciativas educativas, la colaboración entre sectores y el debate público sobre alfabetización digital son esenciales. Expertos y legisladores deben trabajar juntos para desarrollar herramientas de detección, establecer estándares de transparencia y crear marcos éticos de implementación. Los periodistas necesitarán nuevas herramientas para verificar la autenticidad, y las plataformas tal vez deban adaptar sus políticas para gestionar esta nueva ola de contenido.
Lo más importante es reconocer que la batalla por la verdad en la era digital ya no se libra solo con palabras; también con los píxeles que vemos y las historias que cuentan.
Eissa Daham es licenciado por la Universidad de Ottawa (Canadá), donde se graduó con distinción Summa Cum Laude en Ciencias Políticas y una especialidad secundaria en Criminología. Sus intereses académicos se centran en conflicto, seguridad global y desafíos de gobernanza que plantean las tecnologías emergentes. Obtuvo experiencia legal en Edelson Foord Law, uno de los principales bufetes de defensa penal de Ottawa, donde colaboró en investigaciones jurídicas y preparación de juicios.
La traducción al español ha sido realizada por la Fuerza de Tarea Editorial de Magcondo.
Contacto: [email protected]
Referencias:
*Chesney, Robert, and Danielle Citron. "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security." California Law Review, vol. 107, no. 6, 2019, pp. 1753–1820. JSTOR.
*Vaccari, Cristian, and Andrew Chadwick. "Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News." Social Media + Society, vol. 6, no. 1, Jan. 2020, p. 2056305120903408. SAGE Journals.
*Westerlund, Mika. "The Emergence of Deepfake Technology: A Review." Technology Innovation Management Review, vol. 9, no. 11, Nov. 2019, pp. 40–53. https://timreview.ca/article/1282.