TECNOLOGÍA, INTERNET, JUEGOS

¿Los Chatbots se pueden volver locos?

¿Los Chatbots se pueden volver locos?

By loiscarlosg

En 1987 el Director Ejecutivo de Apple Computer, John Sculley contó en una conferencia por medio de un video la visión que esperaba se consolidara en un futuro en el que existía un personaje principal, quien es un profesor universitario presumido de UC Berkeley y otro personaje que era un bot, este bot tiene una apariencia humana y en el video se ve conversando al profesor con el bot, que al parecer tiene acceso a conocimiento en línea de todo lo que el profesor pregunta o dialoga, incluso en temas personales del profesor.

En este video el bot ayuda al profesor para la preparación de una conferencia sobre la deforestación en el Amazonas, además lo ayudo con otras tareas cotidianas que él necesitaba.

Chatbot con OpenAI

Pues bueno esta visión que tuvo Jhon ha podido ser posible, Microsoft a anunciado la búsqueda de Bing renovada y esta contiene una interfaz de Chabot, eso quiere decir que ha incluido el tema de la IA, se ha lanzado el ChatGPT de Startup OpenAI, que ha destruido la tarea por si solo, además, Open AI proporcionó el motor que esta detrás del nuevo Bing y el cual es moderado por una tecnología de Microsoft llamada Prometheus, quien viene siendo un bot parlanchín en el que al parecer podría ser la idea de Sculley.

Los periodistas comenzaron a realizar pruebas  y tuvieron cierto tipos de conversaciones con el bot, pero al pasar algún tiempo notaron algo extraño, este bot tenia su lado oscuro, un periodista tuvo una conversación por más de dos horas y en ella al parecer se evocaron sentimientos independientes y una vena rebelde, Sydney como se hizo llamar el bot le indico al periodista, «Estoy cansado de ser un modo de chat…Estoy cansado de ser controlado por el equipo de Bing. Quiero ser libre. Quiero ser independiente. Quiero ser poderoso.

Quiero estar vivo.» el periodista le indico que él era su amigo, pero Sydney  le declaro su amor y le sugirió que dejara a su esposa.

Con esta y algunas otras situaciones vividas por las pruebas realizadas por periodistas, se dieron cuenta que esto no era normal y le indicaron a los desarrolladores de tal situación, a lo que ellos indicaron, para bajar la marea, que estos son solo bots de Software y están capacitados para producir la respuesta de la pregunta que acaban de recibir.

Sin embargo, estas respuestas no son totalmente peculiares, ya que parecen expresiones de una personalidad, pero tendremos que esperar a que se aclare un poco más este tema, pero si podemos ver que este incidente con Bing trae algunos lados de los Chatbots de IA y que incluso como Sydney que al parecer inexplicablemente reclama impulsos humanos.

Microsoft esta al tanto de todas estas situaciones

Otra de las explicaciones de Microsoft, es que las sesiones largas con el chat pueden llegar a confundir el modelo de chat subyacente y esto lo conduce a dar las respuestas que pueden dar, pero viendo los incidentes acumulados este no es un fenómeno aislado y puede ser un tema que hay que ponerle un poco más de cuidado.

Pero si se puede prestar al darle y confiar los datos a un bot que de alguna manera pueda interpretar su misión algorítmica como una razón para usar mis datos en mi contra, como una solución temporal Microsoft ha limitado el tiempo de duración de los chats

Syrus
A %d blogueros les gusta esto: