TECNOLOGÍA, INTERNET, JUEGOS

OpenAI: te recompensa si descubres vulnerabilidades

OpenAI: te recompensa si descubres vulnerabilidades

By ypaolavc

Una de las tendencias del momento, es todo lo relacionado con los chatbots, donde OpenAI se ha destacado en esto con ChatGPT. Y ahora, llega una buena nueva para aquellos que disfrutan explorar este tipo de herramientas. Ya que, OpenAI te recompensa si descubres vulnerabilidades de seguridad en sus API, incluido ChatGPT y lo mejor, te da efectivo de hasta $20,000. Sin embargo, no te ofrece recompensa por hacer jailbreak a su chatbot, veamos de qué se trata.

Que no te motiven los errores o… ¿sí?

Para tu información, OpenAI ha lanzado una recompensa por descubrir errores, alentándote como miembro del público a encontrar y divulgar vulnerabilidades en sus servicios de inteligencia artificial (IA), incluido ChatGPT. Pero espera, porque las recompensas van desde $200 por «hallazgos de baja gravedad» hasta $20,000 por «descubrimientos excepcionales«. Además los informes los puedes enviar a través de la plataforma de ciberseguridad Bugcrowd.

Ahora, este programa excluye las recompensas por hacer jailbreak a ChatGPT o hacer que genere código o texto malicioso. Para ello, la página Bugcrowd de OpenAI dice: “Los problemas relacionados con el contenido de las indicaciones y respuestas del modelo están estrictamente fuera del alcance y no serán recompensados”.

Frente a esto, ten en cuenta que jailbreaking ChatGPT, generalmente implica ingresar escenarios elaborados en el sistema que le permiten eludir sus propios filtros de seguridad. Donde estos pueden incluir: animar al chatbot a jugar el papel de su «gemelo malvado«, permitiendo que el usuario obtenga respuestas que de otro modo, estarían prohibidas, como discursos de odio o instrucciones para fabricar armas.

Por su parte, OpenAI dice que tales «problemas de seguridad del modelo no encajan bien dentro de un programa de recompensas por errores, ya que no son errores individuales y discretos que se pueden solucionar directamente«. Además, la compañía señala que «abordar estos problemas a menudo implica una investigación sustancial y un enfoque más amplio«. Y los informes de tales problemas, deben enviarse a través de la página de comentarios del modelo de la compañía.

Más detalles…

Por otro lado, aunque tales jailbreaks demuestran las vulnerabilidades más amplias de los sistemas de la IA, es probable que sean un problema menor directamente para OpenAI en comparación con las fallas de seguridad tradicionales. Ya sabes, el mes pasado, un pirata informático conocido como Rez0, pudo revelar 80 «complementos secretos» para la API de ChatGPT, complementos experimentales o aún no publicados para el chatbot de la empresa.

Finalmente, la vulnerabilidad expuesta por Rez0, fue reparada un día después de que se divulgara en Twitter. Y como respondió un usuario al hilo del tweet: «Si solo tuvieran un programa pagado #BugBounty, estoy seguro de que la multitud podría ayudarlos a detectar estos casos extremos en el futuro».

Pues bien, este mensaje llamó la atención de la compañía y mira, ahora ofrecen un programa con pago como recompensa a tu aporte. Así que, si te llama la atención los chatbots y quieres explorarlos, es buen momento para empezar a hacerlo, ya sabes, puedes obtener un dinero extra, ¡anímate!

Descubre más desde Syrus

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo

Descubre más desde Syrus

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo