TECNOLOGÍA, INTERNET, JUEGOS

Cuando Adobe prometió no entrenar la IA en los contenidos de los artistas, la comunidad creativa reaccionó con escepticismo

Cuando Adobe prometió no entrenar la IA en los contenidos de los artistas, la comunidad creativa reaccionó con escepticismo

By auroraoddi

Cuando los usuarios descubrieron las nuevas condiciones de servicio de Adobe (actualizadas discretamente en febrero), se produjo una oleada de indignación. Adobe había informado a los usuarios de que podría acceder a sus contenidos «mediante métodos tanto automatizados como manuales» y utilizar «técnicas como el aprendizaje automático para mejorar [sus] Servicios y Software». Muchos interpretaron la actualización como un intento de la empresa de obligar a los usuarios a conceder acceso ilimitado a su trabajo para entrenar la inteligencia artificial generativa de Adobe, conocida como Firefly.

La reacción de la comunidad creativa

Tras las protestas de los artistas, Adobe emitió una aclaración: en una nueva versión de sus condiciones de servicio, la empresa se comprometió a no entrenar la IA con los contenidos de los usuarios almacenados localmente o en la nube y dio a los usuarios la opción de excluirse del análisis de contenidos. Sin embargo, muchos artistas siguen mostrándose escépticos sobre las verdaderas intenciones de Adobe.

Jon Lam, artista senior de storyboards en Riot Games, afirma: «Ya han traicionado nuestra confianza», en referencia a cómo el galardonado artista Brian Kesinger descubrió que su obra se vendía sin su consentimiento en la plataforma de imágenes de archivo de Adobe en forma de imágenes generadas. El legado del fotógrafo Ansel Adams también reprendió públicamente a Adobe por la supuesta venta de imitaciones generadas por IA de sus obras.

La postura de Adobe y las preocupaciones de los artistas

Scott Belsky, director de estrategia de Adobe, intentó tranquilizar a los artistas aclarando que el aprendizaje automático se refiere a las herramientas de IA no generativas de Adobe, como la herramienta «Content Aware Fill» de Photoshop. Sin embargo, a pesar de las tranquilizaciones de Adobe, artistas como Lam siguen convencidos de que la empresa utilizará obras creadas en su plataforma para entrenar a Firefly sin el consentimiento de los creadores.

La cuestión de la propiedad intelectual y la IA generativa

La preocupación por el uso no consentido y la monetización de obras protegidas por derechos de autor por parte de modelos de IA generativa no es nueva. La artista Karla Ortiz consiguió generar imágenes de su obra utilizando su nombre en varios modelos de IA generativa, lo que dio lugar a una demanda colectiva contra Midjourney, DeviantArt y Stability AI. El artista polaco de fantasía Greg Rutkowski también descubrió que su nombre era una de las indicaciones más utilizadas en Stable Diffusion cuando se lanzó la herramienta en 2022.

El monopolio de Adobe y los retos para los artistas

Como propietaria de Photoshop y creadora de PDF, Adobe ha dominado la industria creativa durante más de 30 años. Su intento de adquirir la empresa de diseño de productos Figma fue bloqueado y abandonado en 2023 debido a preocupaciones antimonopolio, reflejo de su tamaño.

Preocupaciones sobre la formación de Firefly

Adobe afirma que Firefly está «éticamente entrenada» en Adobe Stock, pero Eric Urquhart, colaborador de imágenes de stock desde hace mucho tiempo, insiste en que «no había nada ético en la forma en que Adobe entrenó la IA para Firefly», señalando que Adobe no posee los derechos de las imágenes de ningún colaborador individual. Urquhart había subido originalmente sus imágenes a Fotolia, un sitio de imágenes de archivo, donde aceptó unos términos de licencia que no especificaban ningún uso para la IA generativa. Fotolia fue adquirida por Adobe en 2015, que introdujo discretamente cambios en sus condiciones de servicio que permitieron posteriormente a la empresa entrenar a Firefly utilizando las fotos de Urquhart sin su consentimiento explícito.

El impacto en los artistas y las iniciativas reguladoras

Desde la introducción de Firefly, algunos artistas han tomado la difícil decisión de darse de baja de Adobe, pasándose a herramientas como Affinity y Clip Studio. Otros se sienten forzosamente atados al software. ‘Profesionalmente, no puedo renunciar a Adobe’, afirma Urquhart.

Adobe ha reconocido su responsabilidad con la comunidad creativa en el pasado. En septiembre de 2023, la empresa anunció la iniciativa legislativa Federal Anti-Impersonation Right (FAIR), cuyo objetivo es proteger a los artistas de la apropiación indebida de su trabajo. Sin embargo, se ha cuestionado la eficacia de esta ley, ya que no protegería las obras «generadas accidentalmente» al estilo de un artista.

Además de Adobe, otras organizaciones están encontrando nuevas formas de autentificar las obras y evitar el robo de propiedad intelectual. Un equipo de investigadores de la Universidad de Chicago ha desarrollado Nightshade, una herramienta que «envenena» los datos de entrenamiento y daña las iteraciones de los modelos de generación de imágenes de IA, y Glaze, una herramienta que ayuda a los artistas a «enmascarar» sus estilos de autor ante las empresas de IA.

Fuente del artículo aquí.