Pereira, Colombia - Edición: 13.505-1085

Fecha: Martes 03-06-2025

 

 TECNOLOGÍA

 

-14

 

Veo 3 y el fin de la verdad visual: La nueva era del escepticismo digital

 

 no permite generar escenas con figuras públicas como el presidente de Estados Unidos en situaciones comprometedoras. Pero estas barreras son superficiales. Porque sí se pueden generar catástrofes naturales, disturbios urbanos o escenas de violencia creíbles. Basta con cambiar un par de palabras en el prompt, reformular una situación y el sistema hace el resto. Te protege de lo explícito, pero no de lo ambiguo.

La solución no parece estar solo en la regulación o en las herramientas tecnológicas de detección. Es necesario un cambio profundo en cómo consumimos y evaluamos información. Necesitamos una alfabetización mediática que ya no parta de la confianza, sino de la duda metódica. Enseñar que los vídeos pueden mentir, que la realidad puede simularse y que las emociones que provocan las imágenes pueden ser manipuladas.
 


Vivimos en un mundo donde el vídeo ha muerto como prueba concluyente. Quizás todavía no lo sepamos del todo, o quizás no queramos aceptarlo. Pero la certeza visual ha comenzado a disolverse, y con ella se tambalean muchas de nuestras formas de conocer, juzgar y actuar. No es el fin de la información. Pero sí es el comienzo de una era donde ver ya no basta. Donde incluso aquello que creemos haber presenciado debe ser verificado. Y donde la duda, más que una herramienta crítica, se vuelve una condición inevitable.

En la historia de la humanidad, nunca habíamos tenido la capacidad de crear ficción con tanta perfección. Ahora que la tenemos, también tenemos que enfrentar sus consecuencias. Porque en esta nueva realidad, la verdad ya no se ve: se construye, se negocia… y se defiende con más esfuerzo que nunca.

 

 
Durante años, mirar un video era sinónimo de verdad. Ver para creer, decían. Una grabación bastaba para convencer, para derribar discursos oficiales, para absolver o condenar. Pero esa certeza ha comenzado a desvanecerse. Lo que alguna vez fue evidencia irrefutable se ha vuelto sospechoso. Y el responsable, esta vez, no es la manipulación humana, sino el avance de una inteligencia artificial que ya no solo recrea, sino que narra, convence, emociona y, sobre todo, engaña. Se llama Veo 3 y es la nueva herramienta de Google para generar vídeos hiperrealistas mediante IA.

La aparición de Veo 3 marca un punto de inflexión. Ya no se trata de los primeros y rudimentarios deepfakes de 2018, que podían identificarse por sus ojos fijos o por movimientos corporales erráticos. Lo que vemos hoy en redes como Reddit y X no tiene ese aire sintético. Son vídeos que, visualmente, no tienen fallas. Parecen auténticos, suenan auténticos, se sienten auténticos. Tanto, que se han vuelto indistinguibles de las grabaciones reales, sobre todo cuando se consumen en pantallas pequeñas, con resolución limitada y sin contexto.
 


Esta transformación plantea un problema profundo: si ya no podemos confiar en lo que vemos, ¿en qué podemos confiar?

Uno de los aspectos más inquietantes de Veo 3 no es solo su calidad visual. Es su capacidad narrativa. El modelo no se limita a recrear
 imágenes o movimientos; genera conversaciones, elige planos, construye escenas con un criterio casi editorial. Como si tuviera un guionista interno que supiera exactamente cómo contar una historia. Y esa historia puede ser tan verosímil como falsa. Ya circulan vídeos que reportan tragedias inexistentes, declaraciones inventadas de líderes políticos o situaciones de violencia urbana que jamás ocurrieron. No hacen falta actores, ni cámaras, ni locaciones. Solo una idea y unas pocas líneas de texto.

El golpe a la credibilidad del video como prueba no es menor. Durante décadas, los videos sirvieron para desmentir versiones

 

 

 

oficiales, para revelar injusticias, para demostrar hechos. Era difícil discutir con la imagen cruda, directa, registrada en el momento exacto. Pero en la era de la IA generativa, esa imagen puede ser manufacturada con precisión quirúrgica. Y peor aún: ya no se trata solo de falsificar. También se trata de negar. Porque si todo puede ser falso, entonces todo puede ser cuestionado.

Un caso que ilustra esta nueva dinámica ocurrió recientemente con el presidente francés Emmanuel Macron. Circuló un video en el que, supuestamente, su esposa lo empujaba al bajar del avión. El gobierno lo negó de inmediato, alegando que era una creación artificial. Más tarde, se confirmó que el video era real. Pero para entonces, la duda ya se había sembrado. La IA había ofrecido una coartada perfecta: negar lo evidente, sembrar la sospecha, diluir la verdad.

 

El problema no es solo técnico. Es cultural, ético, político. En un entorno donde se puede crear cualquier imagen o escena, la carga de la prueba se invierte. Ya no hay que demostrar que algo ocurrió; hay que demostrar que no fue fabricado. Y eso nos pone en un terreno peligroso: el del  escepticismo total. Donde cualquier prueba puede ser desestimada, donde cualquier evidencia puede ser descartada como artificial, donde la verdad depende más de la percepción que  de los hechos.

Google ha implementado algunas salvaguardas en Veo 3. Por ejemplo,

 

 

 

 

Submit

 

 © El Imparcial Editores S.A.S  |   Contacto 57 606 347 7079 

    © 1948-2009 - 2025 - El Imparcial - La idea y concepto de este periódico fue hecho en Online Periodical Format (OPF) que es un Copyright de ZahurK.

    Queda prohibido el uso de este formato e idea (OPF) sin previa autorización escrita de ZahurK