Vídeos racistas creados con la IA Veo 3 de Google arrasan en TikTok
Google ha anunciado esta semana la disponibilidad de Veo 3, que genera vídeo y audio sincronizados, en España
La Razón, , 03-07-2025Veo 3
, la última IA de
para generar vídeo a partir de instrucciones de texto, fue lanzada el pasado mayo. Sorprendió por su realismo y, sobre todo,
por incluir la generación del audio junto con la de imagen
, lo que permitía crear un clip que en muchos casos puede
pasar por real y no una creación IA. Lógicamente, todo tipo de usuarios se ha lanzado a crear todo tipo de contenido. Y, según un informe de
Media Matters, los vídeos de contenido racista creados con Veo 3 están teniendo un éxito viral en TikTok.
La organización, dedicada a monitorizar la desinformación y los sesgos en los medios estadounidenses, señala que los vídeos no sobrepasan los
8 segundos
o son una combinación de clips con esta duración,
el límite de la duración de uno creado con Veo 3. Además, también puede verse la
marca de agua
de Veo, lo que confirma su procedencia.
Estos vídeos, uno de los cuales recibió
14,2 millones de visualizaciones
, utilizan
estereotipos racistas para atacar a las personas negras, principalmente, y también a inmigrantes y judíos. A las primeras, por ejemplo, se les representa como los
‘sospechosos habituales’
en delitos y como
monos. Media Matters destaca que el problema no se circunscribe a los vídeos, sino que numerosos comentarios de otros usuarios en las publicaciones se adhieren a ese racismo. TikTok ha asegurado a The Verge que muchas de las cuentas que publicaron estos vídeos
fueron eliminadas antes de la publicación del
informe.
Los términos del servicio de ambas compañías
prohíben este tipo de contenidos. TikTok, en particular, señala que ‘no permitimos discursos de odio, comportamientos odiosos ni la promoción de ideologías de odio. Esto incluye contenido explícito o implícito que ataque a un grupo protegido’. Sin embargo, reconoce al medio Ars Technica que, aunque utilizan tanto medios tecnológicos como moderadores humanos para identificar el contenido que infringe sus políticas,
el volumen de vídeos que se publica es demasiado grande como para controlarlo de forma inmediata.
, como cualquier compañía de IA, presume de las salvaguardas con las que lanza sus productos para evitar usos contra sus políticas, pero estas no siempre son efectivas. Fue sonado el caso de
Gemini
cuando, en febrero de 2024, ganó la capacidad de generar imágenes con el modelo
Imagen 2. Era tan, tan inclusivo que cometía errores garrafales como personajes históricos con razas y sexo cambiados.
retiró esa capacidad de
Gemini
y no volvió a incluirla hasta septiembre con
Imagen 3
, ya sin estos problemas.
El problema de las salvaguardas es
la ambigüedad con la que se puede usar el lenguaje
y cómo detalles sutiles permiten conseguir un resultado que no está permitido. Por ejemplo,
Veo 3
no entiende el contexto en el que se está usando la representación de monos y eso hace fácil eludirlas.
No es un problema único de
TikTok
y
Google. Estos vídeos también se difunden en
X
e
, aunque su repercusión es menor allí. Y ahora la herramienta preferida puede ser
Veo 3
, que está disponible en España desde ayer, pero no tardarán en llegar otras que generen imagen y audio sincronizados, quizás con mejores salvaguardas o peores, y también se viralicen.
, en cualquier caso, no ha hecho ningún comentario sobre esta situación.
(Puede haber caducado)