Un youtuber denuncia que su voz fue clonada con IA para narrar videos de Doom en otro canal

Un youtuber denuncia que su voz fue clonada con IA para narrar videos de Doom en otro canal


El fraude impulsado por la IA va en aumento. Los deepfakes, que antes se limitaban a vídeos perjudiciales que afectaban tanto a famosos como a ciudadanos de a pie, están ahora lo bastante avanzados como para producirse en tiempo real. A medida que la IA se filtra en todos los aspectos de nuestras vidas, desde el trabajo hasta el apoyo emocional, youtubers como Brown se enfrentan a un problema cada vez mayor: el robo no solo de su trabajo, sino de sus propias voces.

Brown presentó un reclamo de privacidad a YouTube, que suele dar al infractor 48 horas para retirar su video antes de que YouTube intervenga oficialmente. Por lo general, afirma, YouTube «cuenta con sistemas y herramientas bastante sólidas» para retirar estos videos. Pero Brown dice que han pasado más de 48 horas desde que se puso en contacto. Ambos videos siguen activos. Su creador, dice, ha estado eliminando comentarios donde la gente dice que han robado la voz de Brown.

Jack Malon, portavoz de YouTube, explica a WIRED que la compañía amplió su política de privacidad el año pasado «para permitir a los usuarios solicitar la eliminación de contenido generado por IA u otro contenido sintético o alterado que simule su cara o su voz». Malon dice que la compañía está revisando el contenido para determinar si se ha cometido una infracción. «Tomaremos medidas si el contenido viola nuestras políticas», dice.

WIRED no pudo encontrar información de contacto de la persona detrás de Game Offline Lore.

Brown cuenta a WIRED que sus videos son a menudo el producto de más de 100 horas de trabajo, investigando material, escribiendo guiones, grabando jugadas y editando. «Cada uno de ellos es un proyecto importante cuya producción lleva dos o tres semanas, sin atajos como el uso de IA», afirma.

Dice que se enteró del video de Doom cuando alguien que lo había visto se lo envió; pensó que parecía una versión de su voz hecha por la IA y quiso alertarle. Un segundo video en el que parece escucharse su voz también está en línea, este sobre la historia de la serie. Brown se sorprendió. Sabía que algo así era posible (Brown había creado su propio robot de inteligencia artificial para replicar su voz antes de sustituirla por el audio final grabado), pero descubrir que otra persona había copiado su voz era increíble.


MainStoryArt_Motion Un youtuber denuncia que su voz fue clonada con IA para narrar videos de Doom en otro canal

Un «álbum promesa» en las listas de éxitos, con millones de reproducciones en Spotify y Apple Music. Solo hay un problema: su éxito podría no ser real.


Game Offline Lore, el canal en cuestión, es pequeño, con 7,470 suscriptores. Muchos de sus 259 videos son cortos, y los que tienen narración son claramente de IA. Pero el video completo con la voz de Brown, aparentemente generada por la IA, es más popular que muchos de los demás, con más de 60,000 visitas. Además, dice Brown, es probable que esté recaudando «una buena cantidad» de dinero por publicidad.

Como creador de contenidos, Brown está acostumbrado a que su trabajo se vea retuiteado de diversas formas. Ha tenido que enfrentarse a personas que veían sus videos en streaming o que, directamente, subían su trabajo a sus canales.

No ha hablado con la persona que dirige Game Offline Lore. «No creo que nadie que haga esto sea empático en lo más mínimo», afirma. «De la misma manera que sería frustrante que alguien lucrara con un plagio de tu trabajo, es frustrante que alguien lucre usando tu persona».

Artículo publicado originalmente en WIRED. Adaptado por Javier Carbajal.



Source link

Share this content:

Publicar comentario