Bryan Cranston y sindicato SAG-AFTRA presionan a OpenAI por deepfakes con Sora 2
Bryan Cranston no se anda con rodeos. El actor de Breaking Bad acaba de pasar por algo que muchos en Hollywood temen: su voz y su rostro aparecieron en videos generados por Sora 2, la herramienta de inteligencia artificial de OpenAI, sin que él diera su consentimiento
Este lunes 20 de octubre, OpenAI, Cranston, el sindicato SAG-AFTRA y las grandes agencias de talento de Hollywood (CAA y UTA) publicaron un comunicado conjunto.

De la preocupación al agradecimiento
Cranston fue claro. Cuando vio su imagen usada sin permiso, se preocupó profundamente, no solo por él, sino por todos los actores y artistas cuya identidad puede ser mal utilizada de esta forma.
«Agradezco a OpenAI por su política y por mejorar sus controles», dijo el actor en el comunicado, aunque también dejó clara su expectativa de que todas las empresas involucradas en este tipo de tecnología respeten el derecho personal y profesional de cada persona a controlar la réplica de su voz e imagen.
SAG-AFTRA, el sindicato que representa a miles de actores en Estados Unidos, también intervino.
Fue el propio Cranston quien llevó el tema a sus puertas. Según el sindicato, la voz y apariencia del actor fueron generadas «en algunas salidas» durante el lanzamiento inicial de Sora 2, que empezó como un acceso por invitación a finales de septiembre.

¿Qué salió mal con Sora 2?
Aquí es donde la cosa se pone interesante. Cuando OpenAI lanzó Sora 2 el 30 de septiembre, la herramienta permitía a los usuarios crear videos increíblemente realistas con solo escribir un texto.
Videos de personajes animados como Bob Esponja o Pikachu empezaron a circular rápidamente. Pero también surgieron videos de actores reales, figuras históricas como Martin Luther King Jr. y hasta políticas de contenido dudoso.
El problema no fue solo técnico, fue de enfoque. Según reportes de varios medios especializados, OpenAI inicialmente le dijo a las agencias de talentos y estudios que, si no querían que sus clientes o material con derechos de autor aparecieran en Sora 2, tendrían que «optar por salir» (opt-out) en lugar de «optar por entrar» (opt-in).
Básicamente, ponían la carga de la protección en los artistas, no en la plataforma.

Los nuevos controles (y la promesa de hacer las cosas bien)
Ante la presión, OpenAI reaccionó. Ahora la compañía ha fortalecido sus sistemas de protección para que, si alguien no ha dado su consentimiento explícito, su imagen y voz no puedan ser replicadas.
Además, se comprometió a responder «con urgencia» a cualquier queja que reciba sobre este tema.
El comunicado conjunto enfatiza que todos los artistas, actores e individuos tienen el derecho de decidir cómo y si pueden ser simulados por inteligencia artificial. Esta política, según OpenAI, refleja su compromiso con los derechos de los artistas, la transparencia y el despliegue ético de tecnología generativa.
La realidad es esta: la tecnología avanza más rápido que las leyes que la regulan. Y mientras eso ocurre, la única forma de proteger la identidad y el trabajo de los creadores es que las empresas tecnológicas actúen con responsabilidad desde el principio, no solo cuando las cosas se salen de control.
Fuente: The Guardian



