enero 14, 2026
ai-cnet-2.png

Atrás quedaron los días en los que era fácil detectar una imagen “falsa” en línea, a menudo simplemente una imagen mal retocada con Photoshop. Ahora estamos nadando en un mar de videos generados por IA y deepfakes, desde respaldos falsos de celebridades hasta transmisiones falsas de desastres. La última tecnología se ha vuelto increíblemente experta en difuminar las líneas entre la realidad y la ficción, haciendo casi imposible saber qué es real.

Y la situación está empeorando rápidamente. Sora de OpenAI ya está causando confusión, pero ahora su “aplicación de redes sociales” viral Sora 2 es el billete más popular (y más engañoso) de Internet. Es un feed estilo TikTok donde todo es 100% falso. Este autor lo llamó un “sueño febril falso” por una buena razón. La plataforma mejora continuamente cuando se trata de hacer que la ficción parezca realista, con importantes riesgos en el mundo real.

Si tienes problemas para separar lo real de la IA, no estás solo. A continuación se ofrecen algunos consejos útiles que le ayudarán a eliminar el ruido y llegar a la verdad sobre cada creación inspirada en la IA.


No se pierda nuestro contenido técnico imparcial y revisiones de laboratorio. Agregue CNET como su fuente favorita de Google.


Mi experto en IA se hace cargo de los vídeos de Sora

Desde una perspectiva técnica, los videos de Sora son superiores en comparación con competidores como B. Impresionante A mitad de viaje V1 Y Google Veo 3. Cuentan con alta resolución, audio sincronizado y una creatividad sorprendente. La característica más popular de Sora, llamada Cameo, te permite usar imágenes de otras personas e insertarlas en casi cualquier escena generada por IA. Es una herramienta impresionante que ofrece videos sorprendentemente realistas.

Por eso tantos expertos están preocupados por Sora. La aplicación hace que sea más fácil para cualquiera crear deepfakes peligrosos, difundir información errónea y desdibujar la línea entre la realidad y la falsedad. Las figuras públicas y las celebridades son particularmente vulnerables a estos deepfakes, y sindicatos como SAG-AFTRA han instado a OpenAI a hacerlo. reforzar sus barandillas.

Identificar contenido de IA es un desafío continuo para las empresas de tecnología, las plataformas de redes sociales y todos los demás. Pero no es completamente inútil. Aquí hay algunas cosas que debe buscar para determinar si un video se hizo con Sora.

Busque la marca de agua de Sora.

Cada vídeo creado con la aplicación Sora para iOS contiene una marca de agua cuando se descarga. Es el logotipo blanco de Sora, un símbolo de nube, que rebota en los bordes del vídeo. Es similar a la forma en que los videos de TikTok tienen marcas de agua. El contenido con marcas de agua es una de las mejores formas en que las empresas de inteligencia artificial pueden ayudarnos a reconocer visualmente el contenido generado por inteligencia artificial. El modelo Gemini “nano-banana” de Google marca automáticamente sus imágenes. Las marcas de agua son excelentes porque sirven como una señal clara de que el contenido se creó con la ayuda de IA.

Atlas de IA

Pero las marcas de agua no son perfectas. Si la marca de agua es estática (no se mueve), se puede recortar fácilmente. Incluso para marcas de agua en movimiento como las de Sora, existen aplicaciones diseñadas específicamente para eliminarlas, por lo que las marcas de agua por sí solas no son del todo confiables. Cuando se le preguntó sobre esto a Sam Altman, director ejecutivo de OpenAI, dijo que la sociedad necesita adaptarse a un mundo en el que cualquiera puede crear vídeos falsos de cualquier persona. Por supuesto, antes de Sora, no existía una forma popular, de fácil acceso y que no requiriera habilidades especiales para crear estos videos. Pero su argumento plantea un punto válido sobre la necesidad de confiar en otros métodos para verificar la autenticidad.

Comprueba los metadatos

Sé que probablemente estés pensando que no hay forma de comprobar los metadatos de un vídeo para ver si es real. Entiendo de dónde vienes. Es un paso adicional y es posible que no sepas por dónde empezar. Pero es una excelente manera de saber si un video se hizo con Sora y es más fácil de lo que piensas.

Los metadatos son una colección de información que se adjunta automáticamente al contenido cuando se crea. Esto le brinda una mejor idea de cómo se creó una imagen o un video. Esto puede incluir el tipo de cámara utilizada para tomar una foto, la ubicación, la fecha y hora en que se tomó el video y el nombre del archivo. Cada foto y vídeo tiene metadatos, independientemente de si fueron creados por humanos o por IA. Y gran parte del contenido creado por IA también tiene créditos de contenido que indican su origen en IA.

OpenAI es parte de la Coalición para la procedencia y autenticidad del contenido, lo que significa que los videos de Sora contienen metadatos C2PA. Puede utilizar la herramienta de verificación de la Iniciativa de autenticidad de contenido para comprobar los metadatos de un vídeo, imagen o documento. Así es como. (La Iniciativa de Autenticidad de Contenido es parte de C2PA).

Cómo comprobar los metadatos de una foto, vídeo o documento

1. Navegue a esta URL: https://verify.contentauthenticity.org/
2. Sube el archivo que deseas revisar.
3. Haga clic en Abrir.
4. Revise la información en el panel derecho. Si es generado por IA, debe incluirse en la sección “Resumen de contenido”.

Cuando ejecuta un video de Sora a través de esta herramienta, mostrará que el video está “publicado por OpenAI” y que está generado por IA. Todos los videos de Sora deben contener estas credenciales, que puedes usar para confirmar que fueron creados con Sora.

Esta herramienta, como todos los detectores de IA, no es perfecta. Hay muchas formas en que los vídeos de IA pueden evitar la detección. Si tiene videos que no son de Sora, es posible que no contengan las señales necesarias en los metadatos para que la herramienta determine si fueron creados por la IA o no. Los vídeos de IA creados con Midjourney, por ejemplo, no están marcados, como confirmé en mis pruebas. Incluso si el video fue creado por Sora pero luego se ejecuta a través de una aplicación de terceros (por ejemplo, una aplicación de eliminación de marcas de agua) y se descarga nuevamente, es menos probable que la herramienta lo marque como IA.

Captura de pantalla de un vídeo de Sora que se ejecuta con la herramienta Content Authenticity Initiative

La herramienta de verificación de la Iniciativa de autenticidad de contenido marcó correctamente que un video que creé con Sora fue generado por IA, junto con la fecha y hora en que lo creé.

Captura de pantalla de Katelyn Chedraoui/CNET

Busque otras etiquetas de IA y agregue la suya propia

Si estás en una de las plataformas de redes sociales de Meta, como Instagram o Facebook, es posible que recibas un poco de ayuda para determinar si algo es IA. Meta tiene sistemas internos que ayudan a etiquetar y etiquetar el contenido de IA. Estos sistemas no son perfectos, pero se puede ver claramente el etiquetado de las publicaciones marcadas. TikTok y YouTube tienen políticas similares para etiquetar contenido de IA.

La única forma verdaderamente confiable de saber si algo es generado por IA es que el creador lo revele. Muchas plataformas de redes sociales ahora ofrecen configuraciones que permiten a los usuarios marcar sus publicaciones como generadas por IA. Incluso un simple crédito o divulgación en el pie de foto puede ser de gran ayuda para ayudar a todos a comprender cómo surgió algo.

A medida que avanzas por Sora, sabes que nada es real. Sin embargo, una vez que abandona la aplicación y comparte videos generados por IA, es nuestra responsabilidad colectiva revelar cómo se creó un video. A medida que los modelos de IA como Sora continúan desdibujando la línea entre la realidad y la IA, nos corresponde a todos dejar lo más claro posible si algo es real o IA.

Lo más importante es mantenerse alerta

No existe una forma infalible de saber con precisión de un vistazo si un vídeo es real o artificial. Lo mejor que puedes hacer para evitar ser engañado es no creer automática e incondicionalmente todo lo que ves en línea. Sigue tu instinto y, si algo te parece irreal, probablemente lo sea. En estos tiempos sin precedentes impulsados ​​por la IA, su mejor defensa es examinar más de cerca los videos que mira. No se limite a echar un vistazo rápido y desplazarse sin pensar en ello. Busque texto confuso, objetos que desaparecen y movimientos que desafían la física. Y no te culpes si de vez en cuando te dejas engañar. Incluso los expertos se equivocan.

(Divulgación: Ziff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en abril, alegando que la empresa violó los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).

About The Author