El gobierno quiere usar tus ondas cerebrales para entrenar enjambres de robots militares

El gobierno quiere usar tus ondas cerebrales para entrenar enjambres de robots militares

febrero 13, 2020 Desactivado Por Carolcfr
  • Los investigadores de la Universidad de Buffalo están utilizando las ondas cerebrales de los jugadores para avanzar en el progreso de los enjambres de robots que podrían usarse en el ejército.
  • El uso de grupos de robots simples para completar tareas complejas, en lugar de un robot extremadamente avanzado, se conoce como «inteligencia de enjambre» en la teoría de IA.
  • DARPA espera que este nuevo método de entrenamiento mejore los grupos de robots autónomos de tierra y aire utilizados en el campo de batalla.

 

En lo que parece un enfoque al estilo Black Mirror para la estrategia militar, la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA) está financiando un estudio que utilizará las ondas cerebrales de los jugadores para enseñar a las colmenas de robots de defensa cómo pulularse para completar misiones.

 

DARPA ha otorgado una subvención federal de $ 316.000 a la Universidad del Instituto de Inteligencia Artificial de Buffalo para estudiar las ondas cerebrales y los movimientos oculares de los jugadores. El objetivo es mejorar la organización y la estrategia entre los robots autónomos aéreos y terrestres.

 

¿Por qué los Estados Unidos querrían invertir en enjambres de robots?

 

Porque grupos de bots ya están siendo perseguidos en otras partes del mundo, como Rusia. Flock-93, por ejemplo, es una visión de 100 drones parecidos a los kamikaze, cada uno armado con una carga explosiva, enjambrando objetivos como convoyes de vehículos. En teoría, estas hordas de robots son drásticamente más difíciles de defender, por lo que Estados Unidos ciertamente no quiere quedarse atrás.

 

«La idea es escalar hasta 250 robots aéreos y terrestres, trabajando en situaciones muy complejas«, dijo Souma Chowdhury, profesora asistente de ingeniería mecánica y aeroespacial en Buffalo, en un comunicado de prensa. «Por ejemplo, puede haber una pérdida repentina de visibilidad debido al humo durante una emergencia. Los robots deben ser capaces de comunicarse y adaptarse efectivamente a desafíos como ese«.

 

En pocas palabras, los grupos de robots más primitivos pueden completar ciertas tareas mejor que un robot realmente inteligente por sí solo. Esta teoría en inteligencia artificial se conoce como «inteligencia de enjambre».

 

Es un rasgo que se encuentra en toda la naturaleza. Considera la hormiga modesta: por sí sola, una hormiga puede levantar 5.000 veces su propio peso corporal, pero eso todavía no es demasiado. Mientras tanto, una colonia de hormigas que trabajan juntas puede lograr algunas hazañas increíbles, como crear autopistas de alimentos, librar guerras y esclavizar a otras hormigas.

 

Esta biomimética es un tema candente en informática, dijo Chowdhury.

 

«Se está dando a conocer que hay muchas aplicaciones diferentes que podrían hacerse sin usar un solo robot de $ 1 millón, sino más bien un gran enjambre de robots más simples y baratos«, dijo. «Estos podrían ser terrestres, aéreos o una combinación de esos dos enfoques«.

 

En el estudio de Chowdhury, los expertos jugarán juegos de estrategia en tiempo real similares a StarCraft, Stellaris y Company of Heroes, que obligan a los jugadores a usar recursos para construir unidades y derrotar a los oponentes. Los investigadores están desarrollando su propio juego de estrategia único.

 

Mientras los jugadores juegan, las decisiones que toman se registran y los investigadores rastrearán sus movimientos oculares a través de cámaras de alta velocidad. En conjunto, su actividad cerebral será monitoreada a través de electroencefalogramas. (Esos son los auriculares con un montón de electrodos en la tapa que puede usar durante un estudio del sueño).

 

Luego, en base a los datos que han reunido, los científicos construirán nuevos algoritmos que guiarán los drones autónomos y los robots terrestres utilizados en aplicaciones militares.

 

«No queremos que el sistema de IA solo imite el comportamiento humano; queremos que forme una comprensión más profunda de lo que motiva las acciones humanas«, dijo Chowdhury. «Eso es lo que conducirá a una IA más avanzada«.