Los actores del Reino Unido y Equity están luchando contra el aumento de los mods deepfake impulsados por la inteligencia artificial.

UK actors and Equity are fighting against the rise of AI-powered deepfake mods.

“¿Mi voz está presente en la comunidad de modificación y cambio de voz? Sí. ¿Tengo algún control sobre cómo se puede utilizar mi voz? No en este momento.”

David Menkin recientemente protagonizó en Final Fantasy 16 como Barnabas Tharmr, después de trabajar en Lego Star Wars, Valorant, Assassin’s Creed y más. Y al igual que muchos otros actores de voz en la industria de los videojuegos, está preocupado por el creciente uso de la inteligencia artificial.

“La IA es una herramienta y, como cualquier herramienta, requiere regulación”, dice Menkin. “Simplemente queremos saber para qué se utilizarán nuestras voces y poder otorgar o retirar el consentimiento si ese uso está fuera del alcance de nuestro contrato original. Y si nuestro trabajo está generando dinero para tu herramienta de IA, queremos ser justamente remunerados.”

Eso ciertamente parece una solicitud justa. Pero muchos creen que las regulaciones en torno a la IA están muy por detrás de la velocidad a la que avanza la tecnología, algo a lo que el sindicato de actores del Reino Unido, Equity, ahora está tratando de cambiar.

Newscast: ¿La adquisición de Activision Blizzard por parte de Microsoft ya está confirmada? Mira en YouTube

El uso de la IA en el desarrollo de videojuegos ya es un tema enorme, como informó Chris Tapsell de Eurogamer desde la GDC, especialmente en los espacios de arte y escritura de guiones. Para los actores de voz, presenta una serie de problemas, incluida la preocupante tendencia de utilizar las voces de los actores en deepfakes sin consentimiento.

Un tweet publicado este mes por el modder de Skyrim Robbie92_ destacó el problema de que los actores tengan sus voces utilizadas por comunidades de modificación para contenido pornográfico. “Como miembro de la escena de modificación de Skyrim, me preocupa profundamente la práctica de utilizar la clonación de voz con IA para crear y distribuir contenido pornográfico falso sin consentimiento”, escribió, incluyendo una lista de los intérpretes afectados.

“Se ha utilizado maliciosamente su actuación, alimentándola en herramientas de clonación de IA y utilizándola para crear clips de voz falsos profundos de estos intérpretes recitando diálogos explícitos de naturaleza pornográfica. Creo que la creación y distribución de pornografía falsa profunda es descaradamente malvada y que nosotros, como comunidad, tenemos la responsabilidad de actuar.”

Algunos de estos actores de voz respondieron incrédulos al tweet, aparentemente sin saber que se había utilizado su voz. “¿¡Qué mierda?!” respondió Richard Epcar, actor de voz de Mortal Kombat.

El tweet menciona específicamente a ElevenLabs, una herramienta de clonación de IA que, según sus términos de servicio, especifica que los usuarios son los creadores y propietarios de los archivos utilizados o tienen el consentimiento por escrito de cada persona identificable en los archivos. ElevenLabs no respondió a la solicitud de comentarios de Eurogamer.

Claramente, no siempre se da el consentimiento.

Después de ser creados, los mods con voces clonadas con IA se alojan en el popular sitio de mods Nexus Mods. Cuando Eurogamer se puso en contacto con Nexus Mods, nos dirigieron a un artículo de abril que detalla la postura del sitio sobre el contenido generado por IA en la modificación.

“Si como creador de contenido decides incluir contenido generado por IA en tus proyectos de modificación, no viola ninguna de nuestras reglas comunitarias”, dice. “Sin embargo, si recibimos una queja creíble de una parte que sienta que tu trabajo le causa daño, esto podría ser el actor de voz o la entidad que posee los derechos del personaje/activos, eliminaremos el contenido si corresponde.

“Para evitar problemas con tus mods, te recomendamos que evites usar estas herramientas a menos que tengas permiso explícito para usar todos los activos. Esto es particularmente cierto para la actuación de voz generada por IA, pero también abarca imágenes, modelos, código y cualquier otra cosa que puedas crear con esta tecnología.”

Pero esto deja la responsabilidad de disputar el uso de su voz en mods de juegos no autorizados en manos de los propios actores, en lugar de una regulación más amplia en la actualidad.

Ahí es donde Equity UK ha intervenido. El mes pasado, Equity lanzó su “innovadora caja de herramientas de IA para proteger a los artistas del aumento de la tecnología no regulada”.

Esa caja de herramientas ha sido creada en colaboración con la experta en propiedad intelectual Dra. Mathilde Pavis, que establece un “uso ético de la IA” y proporciona plantillas para que los artistas hagan valer sus derechos legales.

Además, Equity ha solicitado una acción urgente del gobierno contra lo que llama “clonación de actuaciones”, definida como: “el proceso de crear una actuación sintética grabando, utilizando o reproduciendo la actuación, voz o imagen de un artista mediante sistemas de aprendizaje automático y tecnología equivalente”.

“Equity está tomando medidas y brindando a nuestros miembros las herramientas que necesitan para proteger sus derechos legales”.

“Con el uso de la inteligencia artificial en aumento en las industrias del entretenimiento, Equity está tomando medidas y brindando a nuestros miembros las herramientas que necesitan para proteger sus derechos legales”, dijo Liam Budd, funcionario industrial de Equity para nuevos medios.

“Nos enorgullece liderar el camino al producir un contrato de inteligencia artificial innovador y establecer nuevos estándares en la industria. Si bien Equity continuará interactuando con los productores de las industrias del entretenimiento, el gobierno debe intervenir con medidas sólidas para regular adecuadamente el creciente uso de la inteligencia artificial”.

En marzo de 2023, la Oficina de Propiedad Intelectual se comprometió a elaborar un código de práctica para la inteligencia artificial generativa para este verano. El gobierno también está consultando sobre un enfoque proinnovación para la regulación de la inteligencia artificial, como se describe en un reciente libro blanco.

Para Equity, la Declaración de Visión en su conjunto de herramientas establece nuevos estándares en la industria, afirmando que los artistas tienen derecho a:

  1. dar su consentimiento (o no) para actuaciones pasadas, actuales y futuras
  2. licenciar su actuación o imagen en un ámbito personal, no exclusivo y limitado en el tiempo
  3. ser identificados y oponerse al tratamiento derogatorio de su actuación y trabajo
  4. información transparente
  5. consulta significativa
  6. remuneración justa y proporcionada
  7. acceso y trato igualitarios
  8. ser contratados en virtud de un acuerdo negociado colectivamente

Menkin forma parte de un equipo de actores que trabajan con Equity para crear conciencia en esta área.

“El año pasado, nos acercamos a UKIE con ejemplos claros de por qué necesitamos una regulación en toda la industria, leyes de derechos de autor actualizadas, un marco de propiedad intelectual más claro y códigos de práctica, pero desafortunadamente la respuesta ha sido insatisfactoria”, dice.

Desde entonces, se presentaron mociones para centrar más la atención en los juegos y la inteligencia artificial en la Conferencia de Equity de este año y se aprobaron con mayoría de votos.

“Se está haciendo el trabajo, pero la legislación lleva tiempo”, dice Menkin. “Mientras tanto, necesitamos educarnos y por eso Equity lanzó el Conjunto de Herramientas de IA, con guías para comprender el panorama de la IA y nuestros derechos, así como plantillas para contratos cuando el lenguaje de nuestros clientes y empleadores no es lo suficientemente claro”.

Iniciativas similares también se están lanzando en todo el mundo, incluyendo en Estados Unidos con SAG-AFTRA y The National Association of Voice Actors (NAVA).

Menkin insiste en una mayor regulación para el uso de la inteligencia artificial en los videojuegos.

“Más a menudo de lo que nos gustaría, se nos dice que no tenemos más opción que ceder todos nuestros derechos sin tener una idea clara de para qué se utilizará exactamente nuestro trabajo”.

“Los juegos y la inteligencia artificial creen en la autorregulación”, dice. “Las empresas a menudo hablan de impulsar la diversidad y los códigos de práctica, pero la autorregulación rara vez beneficia a aquellos en los peldaños más bajos de la escalera, especialmente a los subcontratistas como actores, escritores, compositores, etc. Más a menudo de lo que nos gustaría, se nos dice que no tenemos más opción que ceder todos nuestros derechos sin tener una idea clara de para qué se utilizará exactamente nuestro trabajo.

“No podemos seguir aceptando esos términos en la era de la inteligencia artificial”.

Jane Perry, galardonada artista de doblaje de BAFTA, famosa por su trabajo en Returnal y Hitman, cree que se necesita un organismo regulador para supervisar el uso de la inteligencia artificial.

“Sé que hay apoyo disponible a través de Equity. Creo que están haciendo lo mejor que pueden dentro del marco legislativo existente aquí en el Reino Unido. No podemos convocar a una acción industrial, como lo hacen nuestros homólogos estadounidenses”, dice.

“Siento que, si bien se nos ofrecen directivas sobre qué tener en cuenta en los contratos que firmamos y se nos ofrece alguna orientación sobre las leyes de derechos de autor, lo que falta, y esto es crucial, es algún tipo de organismo regulador que pueda supervisar eficazmente el uso de la inteligencia artificial y monitorear su uso”.

Agrega: “El uso de la inteligencia artificial ha avanzado más rápido que nuestra capacidad para establecer límites. Dado la falta de recursos en British Equity, no pueden funcionar como este organismo regulador. Sería genial que nuestro gobierno actuara rápido y brindara ayuda en este sentido”.

Perry sigue preocupada por el futuro de la inteligencia artificial y lo que significará para los actores de voz. Su experiencia en los videojuegos incluye interactuar con la apasionada comunidad de la industria, pero esto se volvería obsoleto si la actuación de voz de la inteligencia artificial despega.

“Como actriz, es un placer responder estas preguntas y abordar lo que parece ser un interés muy convincente en lo que sucede detrás de escena”, dice.

“El sonido de una voz tiene una biografía en ella, de la cual el oyente puede o no estar consciente. Y sin embargo, no seré yo.”

“A menudo me pregunto, cuando llegue el momento en que los personajes ‘míos’ sean interpretados por una versión generada por IA de mi voz, ¿quién responderá a estas preguntas? Las elecciones y expresiones de esperanzas, miedos y deseos de los personajes no estarán informadas por mi propia experiencia de vida. No tendré la oportunidad de buscar en mi propio corazón y alma cómo interpretar una escena, o cómo establecer y responder a las relaciones establecidas en la narrativa del juego.

Aparentemente, no habré tenido ninguna participación en la creación de los personajes. Y sin embargo, será mi voz, cuyo sonido resonará y vibrará en relación a todo lo que me ha sucedido a lo largo de mi vida. El sonido de una voz tiene una biografía en ella, de la cual el oyente puede o no estar consciente. Y sin embargo, no seré yo.”

Agrega que la IA “no es totalmente mala” y se adapta a ciertos trabajos e industrias. “Pero debemos cuestionar este deseo de devorarnos a nosotros mismos”, dice.

“Entiendo que es divertido y emocionante jugar con la IA y ver hasta dónde podemos llegar en términos de manipular las voces y los rostros de las personas. Pero seamos conscientes del hecho de que quitarle el trabajo a los seres humanos causará todo tipo de problemas: problemas financieros siendo uno de ellos, y la falta de un sentido de propósito siendo otro. Ya estamos viendo esto. Mientras tanto, los márgenes de ganancias aumentan para corporaciones ya abultadas.”

Entonces, hay más trabajo por hacer. Pero Equity – y otros sindicatos – están comenzando a apreciar el verdadero peligro que la IA representa para los actores. Sin embargo, hasta que se aplique una regulación adecuada, lamentablemente la responsabilidad recae en los actores para protegerse a sí mismos.