ChatGPT contenido protegido, la decisión de la Unión Europea

mayo 19, 2023
Según el principio de acuerdo alcanzado este jueves por los legisladores de las principales comisiones del Parlamento Europeo, la Unión Europea impondrá obligaciones a las empresas que utilicen aplicaciones de inteligencia artificial generativa, como ChatGPT, de revelar si están empleando contenido protegido por derechos de autor. Esta medida forma parte de la innovadora ley que regulará el uso de la inteligencia artificial en la UE.
Obligaciones para ChatGPT
El consenso alcanzado en el parlamento ha establecido que el uso de sistemas generativos deberá ser más transparente, lo que significa que las empresas estarán obligadas a proporcionar un «resumen suficientemente detallado» sobre el tipo de material utilizado para entrenar sus sistemas y si dicho material está protegido por derechos de autor. Esta medida se ha adoptado como respuesta a las denuncias presentadas contra aplicaciones como ChatGPT y Midjourney, que han sido acusadas de utilizar textos o imágenes sin el consentimiento de los autores. Además, se requerirá que estos sistemas se desarrollen de acuerdo con las leyes de la Unión Europea.
Según Reuters, algunos miembros del comité encargado de redactar la ley propusieron inicialmente prohibir por completo el uso de dicho material, pero finalmente se ha optado por enfocarse en la transparencia y se agregó esta disposición de último momento. Esta medida beneficiará a la industria editorial y a los creadores, quienes habían expresado su preocupación por quedar expuestos e indefensos ante el crecimiento de la inteligencia artificial.
Por ahora, el acuerdo todavía está sujeto a modificaciones hasta que se vote el 11 de mayo. El texto debe negociarse entre los legisladores y los Estados miembros para que salga adelante. Se espera que a mitad de junio, el Parlamento Europeo vote una ley vanguardista mundial.
Una ley pionera
La Comisión Europea ha promulgado una ley histórica en abril de 2021 para regular la tecnología de inteligencia artificial después de tres años de consultas y debates. Los eurodiputados encargados de esta tarea pasaron más de un año y medio elaborando una propuesta, pero la aparición de ChatGPT impulsado por OpenAI, una empresa respaldada por Microsoft, en noviembre pasado, los obligó a reconsiderar su enfoque. Desde entonces, han estado negociando cómo regular la inteligencia artificial generativa, cuya popularidad ha aumentado significativamente en los últimos meses, generando una carrera entre las grandes empresas para implementar estas herramientas.
La expansión vertiginosa del uso de ChatGPT ha desencadenado un profundo debate regulatorio a nivel mundial. En solo dos meses, este sistema ha alcanzado los 100 millones de usuarios. En Europa, Italia ha bloqueado el acceso a la aplicación debido a preocupaciones sobre posibles violaciones de las leyes de protección de datos de la Unión Europea. Mientras tanto, los reguladores españoles han abierto una investigación sobre este chatbot, y sus homólogos europeos han creado un grupo de trabajo para coordinar futuras acciones.
Los riesgos
El proyecto de ley presentado tiene como objetivo regular la inteligencia artificial (IA) en función de su nivel de riesgo, estableciendo distintas categorías. La vicepresidenta europea, Margrethe Vestager, explicó hace dos años que cuanto mayor sea el riesgo asociado, más estricta será la normativa correspondiente. En primer lugar, se prohibirán los sistemas considerados de «riesgo inadmisible», como la vigilancia masiva, la policía predictiva o la categorización de ciudadanos mediante datos biométricos. En una categoría intermedia se encuentran los sistemas de «alto riesgo», como el uso de algoritmos en procesos de contratación laboral o en la concesión de créditos, los cuales estarán sujetos a obligaciones más estrictas. Los legisladores de centro-izquierda también han logrado incluir en esta categoría los sistemas de recomendación de grandes plataformas, es decir, los algoritmos que determinan qué contenido ven los usuarios en Facebook, Twitter, Instagram, TikTok y otras redes sociales.
En el tercer nivel se sitúan los sistemas de «riesgo limitado», que abarcan el uso de bots conversacionales o los ‘deepfakes’. En estos casos, será necesario informar a los usuarios para que sean conscientes de que están interactuando con una máquina y no con un ser humano. Por último, se encuentran los sistemas de «riesgo mínimo o nulo», que no estarán sujetos a ningún requisito y engloban la mayoría de los usos de la IA.