La UE ha alcanzado un acuerdo regulatorio histórico sobre el desarrollo de la IA

enero 12, 2024
El desarrollo de las IAs
A lo largo del tiempo, las inteligencias artificiales (IA) han transformado radicalmente el mundo, impactando áreas como la medicina, la educación, la industria y la vida cotidiana. Desde sus inicios rudimentarios hasta las complejas redes neuronales actuales, las IA han evolucionado, mejorando la toma de decisiones, la automatización de tareas y la comprensión de datos. Con avances como el aprendizaje profundo y la inteligencia general artificial en desarrollo, el futuro promete aún más cambios significativos y una integración más profunda en la vida humana. Aún con todo, las regulaciones toman un papel importante. Sigue leyendo para ver cómo la UE ha alcanzado un acuerdo regulatorio histórico sobre el desarrollo de la IA.
La UE ha alcanzado un acuerdo regulatorio histórico sobre el desarrollo de la IA
Después de un extenso debate de 72 horas, los legisladores de la Unión Europea alcanzaron un acuerdo histórico el viernes sobre su amplio proyecto de ley de desarrollo de la seguridad de la Ley de Inteligencia Artificial, el más completo hasta la fecha. Aunque los detalles no se conocen de inmediato, Drago? Tudorache, codirector de la negociación, destacó que esta legislación establecerá un estándar global y será referente para otras jurisdicciones, exigiendo un cuidado adicional en su redacción. Este acuerdo marca un hito significativo en la regulación de la inteligencia artificial a nivel internacional.
Las regulaciones propuestas abordarían el desarrollo y la distribución de futuros modelos de aprendizaje automático en la Unión Europea, impactando aplicaciones desde la educación hasta la atención médica. Categorizarían el desarrollo de la IA en cuatro niveles de riesgo social: mínimo, limitado, alto y prohibido. Usos prohibidos abarcarían acciones que eludan la voluntad del usuario o realicen seguimiento biométrico en tiempo real. Los de alto riesgo incluirían aquellos destinados a la seguridad de productos o en aplicaciones críticas como infraestructura, educación, asuntos legales y contratación. En esta clasificación, chatbots como ChatGPT, Bard y Bing se considerarían de «riesgo limitado».
Enfoque en los riesgos
La Comisión Europea, siguiendo su enfoque audaz ante tecnologías emergentes, busca abordar la inteligencia artificial con una regulación basada en el riesgo, similar a propuestas de Canadá. La Dra. Brandie Nonnecke elogia este enfoque, comparándolo con el RGPD para la privacidad de datos. Sin embargo, las negociaciones se vieron afectadas por Francia, Alemania e Italia, que expresaron preocupaciones sobre cómo las estrictas regulaciones podrían afectar el desarrollo competitivo de modelos fundamentales como GPT-4 de OpenAI. Este modelo influye en aplicaciones como ChatGPT y GPT, generando debates sobre el equilibrio entre regulación y avances tecnológicos.
La Comisión Europea (CE) ha abordado los desafíos de la inteligencia artificial (IA) mediante diversos esfuerzos, como la Estrategia Europea sobre IA y el Plan Coordinado en 2018. En 2019, se publicaron Directrices para una IA fiable, seguidas de un Libro Blanco sobre la IA y un informe sobre sus implicaciones en seguridad y responsabilidad. La CE destaca que la IA debe servir al bienestar humano y centrarse en las personas, garantizando su uso seguro y legal. Además, las regulaciones propuestas deben ser equilibradas, proporcionadas y no obstaculizar el desarrollo tecnológico, ya que la IA está presente en diversos aspectos de la vida cotidiana y su futuro es impredecible.