Vídeos racistas creados con la IA Veo 3 de Google arrasan en TikTok

Google ha anunciado esta semana la disponibilidad de Veo 3, que genera vídeo y audio sincronizados, en España

La Razón, Alfredo Biurrun, 03-07-2025

Veo 3

, la última IA de

Google

para generar vídeo a partir de instrucciones de texto, fue lanzada el pasado mayo. Sorprendió por su realismo y, sobre todo,

por incluir la generación del audio junto con la de imagen

, lo que permitía crear un clip que en muchos casos puede

pasar por real y no una creación IA. Lógicamente, todo tipo de usuarios se ha lanzado a crear todo tipo de contenido. Y, según un informe de

Media Matters, los vídeos de contenido racista creados con Veo 3 están teniendo un éxito viral en TikTok.

La organización, dedicada a monitorizar la desinformación y los sesgos en los medios estadounidenses, señala que los vídeos no sobrepasan los

8 segundos

o son una combinación de clips con esta duración,

el límite de la duración de uno creado con Veo 3. Además, también puede verse la

marca de agua

de Veo, lo que confirma su procedencia.

Estos vídeos, uno de los cuales recibió

14,2 millones de visualizaciones

, utilizan

estereotipos racistas para atacar a las personas negras, principalmente, y también a inmigrantes y judíos. A las primeras, por ejemplo, se les representa como los

‘sospechosos habituales’

en delitos y como

monos. Media Matters destaca que el problema no se circunscribe a los vídeos, sino que numerosos comentarios de otros usuarios en las publicaciones se adhieren a ese racismo. TikTok ha asegurado a The Verge que muchas de las cuentas que publicaron estos vídeos

fueron eliminadas antes de la publicación del

informe.

Los términos del servicio de ambas compañías

prohíben este tipo de contenidos. TikTok, en particular, señala que ‘no permitimos discursos de odio, comportamientos odiosos ni la promoción de ideologías de odio. Esto incluye contenido explícito o implícito que ataque a un grupo protegido’. Sin embargo, reconoce al medio Ars Technica que, aunque utilizan tanto medios tecnológicos como moderadores humanos para identificar el contenido que infringe sus políticas,

el volumen de vídeos que se publica es demasiado grande como para controlarlo de forma inmediata.

Google

, como cualquier compañía de IA, presume de las salvaguardas con las que lanza sus productos para evitar usos contra sus políticas, pero estas no siempre son efectivas. Fue sonado el caso de

Gemini

cuando, en febrero de 2024, ganó la capacidad de generar imágenes con el modelo

Imagen 2. Era tan, tan inclusivo que cometía errores garrafales como personajes históricos con razas y sexo cambiados.

Google

retiró esa capacidad de

Gemini

y no volvió a incluirla hasta septiembre con

Imagen 3

, ya sin estos problemas.

El problema de las salvaguardas es

la ambigüedad con la que se puede usar el lenguaje

y cómo detalles sutiles permiten conseguir un resultado que no está permitido. Por ejemplo,

Veo 3

no entiende el contexto en el que se está usando la representación de monos y eso hace fácil eludirlas.

No es un problema único de

TikTok

y

Google. Estos vídeos también se difunden en

X

e

Instagram

, aunque su repercusión es menor allí. Y ahora la herramienta preferida puede ser

Veo 3

, que está disponible en España desde ayer, pero no tardarán en llegar otras que generen imagen y audio sincronizados, quizás con mejores salvaguardas o peores, y también se viralicen.

Google

, en cualquier caso, no ha hecho ningún comentario sobre esta situación.

Texto en la fuente original
(Puede haber caducado)