OpenAI revisa su política sobre el uso con fines militares

enero 23, 2024
OpenAI introdujo recientemente cambios en su política de uso, eliminando explícitamente la prohibición de utilizar su tecnología con fines «militares y bélicos«. Este cambio se sigue de cerca, sobre todo teniendo en cuenta el creciente interés de las agencias militares de todo el mundo por el uso de la inteligencia artificial (IA). Sin embargo, aún no se han evaluado las implicaciones reales de este cambio.
La política de uso de OpenAI
En el pasado, la política de uso de OpenAI prohibía explícitamente el uso de sus modelos lingüísticos para fines que pudieran causar daño o para desarrollar armas. Sin embargo, la mención específica de «militar y bélico» se ha eliminado de la lista de prohibiciones. Esto sugiere que OpenAI podría colaborar ahora con agencias gubernamentales, como el Departamento de Defensa, que suelen ofrecer lucrativos acuerdos a empresas externas.
Interés de las agencias militares por la IA
El interés de las agencias militares por la inteligenciaartificial es cada vez mayor y el cambio en la política de uso de OpenAI parece reflejarlo. Sin embargo, es importante subrayar que OpenAI no dispone actualmente de un producto que pueda causar directamente daños físicos o matar a nadie. Su tecnología podría utilizarse para fines como escribir código y procesar pedidos de suministro de objetos que podrían utilizarse con fines bélicos.
Sarah Myers West, directora ejecutiva del AI Now Institute, señaló que la eliminación de las palabras «militar y de guerra» de la política de uso de OpenAI es un momento significativo, teniendo en cuenta el uso de sistemas de inteligencia artificial para atacar a civiles en Gaza. Este cambio podría suscitar inquietudes sobre la participación de OpenAI en proyectos que podrían causar daños o violar los derechos humanos.
Las motivaciones de OpenAI
Al ser preguntado por el cambio en la política de uso, el portavoz de OpenAI, Niko Felix, declaró que la empresa pretende crear principios universales que sean fáciles de recordar y aplicar, sobre todo teniendo en cuenta el amplio uso de sus tecnologías por parte de usuarios corrientes que también pueden construir modelos de lenguaje generativo (GPT).
Felix destacó el principio general de «no hacer daño a los demás» como un concepto amplio pero fácil de entender y relevante en muchos contextos. También especificó que OpenAI mencionaba explícitamente las armas y el daño a terceros como ejemplos claros de lo que está prohibido. Sin embargo, el portavoz no aclaró si la prohibición de utilizar su tecnología para «dañar» a otros incluye todo tipo de uso militar al margen del desarrollo de armas.