Site icon Syrus

Microsoft: se deshacen algunos de los límites en Bing AI

El chatbot Bing AI de Microsoft, ha generado cierta polémica por algunas de las medidas establecidas la semana pasada. Ya sabes, Microsoft limitó la cantidad de personas que podían hablar con Bing y después de las quejas, está ampliando el acceso nuevamente. Así es, la compañía ya está deshaciendo algunos de los límites que puso en Bing AI, veamos de qué se trata.

Novedades en el chatbot

Tras las quejas recibidas por las medidas en Bing, Microsoft ha tenido que ceder y por ello, ya está aflojando las limitaciones que impuso recientemente a las interacciones con el chatbot Bing AI. Frente a esto, dijo que comenzará a probar otra opción que te permite elegir el tono del chat, con opciones para:

Como sabes, después de repetidos informes de comportamientos extraños y fugas que hicieron cosas como exponer sus reglas secretas, Microsoft estableció nuevas regulaciones el viernes pasado. Donde algunas de estas, limitaban la cantidad de interacciones que podían tener los evaluadores y el tiempo de duración. Incluso, los límites redujeron a los evaluadores a cinco turnos por sesión y un máximo de 50 por día.

Ahora, según Microsoft, las sesiones de chat más largas pueden hacer que Bing «se vuelva repetitivo o se le solicite o provoque que dé respuestas que no son necesariamente útiles o están en línea con nuestro tono diseñado«.

Entonces, ahora puedes tener hasta seis turnos de chat por sesión con un máximo de 60 chats por día para cualquier probador al que tengas acceso. Además, la publicación en su blog, dice que el plan es aumentar el límite diario a 100 sesiones pronto y permitir búsquedas que no cuente contra el total del chat.

Más detalles…

Por su parte, Microsoft dijo anteriormente, que no anticipó por completo que las personas usaran los chats más largos de Bing AI como entretenimiento. Donde los límites más flexibles son un intento de lograr un equilibrio entre la «retroalimentación» a favor de esos chats, como dice la compañía, con medidas de seguridad que evitan que el bot vaya en direcciones extrañas. Incluso, con reporteros tecnológicos experimentados que fallaron en esta versión de la prueba del espejo, introdujo nuevas medidas de seguridad.

Por otro lado, el investigador Dr. Gary Marcus y el vicepresidente de Nomic, Ben Schmidt, descubrieron que las pruebas públicas del chatbot de Bing en India hace cuatro meses, produjeron resultados igualmente extraños en sesiones largas.

Finalmente, dentro de los comentarios por parte de Microsoft en su publicación de blog más reciente, dice que la vista previa actual está destinada a detectar «casos de uso atípicos» que no se manifiestan con pruebas internas. Algo que cobra sentido viéndolo desde ese punto de vista.

Como puedes ver, se ha suavizado un poco el límite a las conversaciones de Bing para evitar las molestias, tanto en las respuestas de los chatbots como el de los usuarios.

Ya lo sabes, ¡te iremos contando!

Salir de la versión móvil