En una desafortunada coincidencia, el programa de IA Seinfeld, que se estaba transmitiendo en todo Twitch, fue prohibido por algunas «bromas» horriblemente transfóbicas. Desarrollado por el laboratorio de medios Mismatch Media, Nothing, Forever ha conquistado Internet con su diversión forzada y su tecno-absurdo. Transmitido en vivo 24/7/365 en el canal Twitch de Watchmeforever, Nothing, Forever es una comedia al estilo de Seinfeld sobre 4 amigos hablando de nada, entre stand-up y silencio. El programa se basa completamente en tecnologías de aprendizaje automático, incluidas DALL-E, OpenAI GPT-3, Stable Diffusion y otras.
Problema
Entonces, cuando Larry Feinberg (voxel Jerry Seinfeld) y sus amigos de inteligencia artificial Elaine (Yvonne Torres), George (Fred Castopoulos) y Kramer (Zoltan Kakler) están sentados en un departamento similar a la ciudad de Nueva York, todo es generativo. Y así (idealmente) los 2 chistes o escenarios no volverán a aparecer a medida que avanza el programa. Bueno, esperemos que ese sea el caso, porque Voxel Jerry falló recientemente y se salió de control. Durante un standup filmado por algunas personas en línea, Larry pensó que podría ser una empresa gigantesca convertirse en una especie de fanático de J.K. Rowling e incursionar en el oscuro arte de la transfobia. De hecho, es una vista aburrida. “Así que este es mi club de stand-up”, comentó Larry. “Hay unas 50 personas aquí y nadie se ríe. ¿Alguien tiene alguna sugerencia? Estoy pensando en hablar un poco sobre cómo ser trans es en realidad una patología de la mente, o cómo los liberales son gays en secreto y están ansiosos por imponer su voluntad a todos, o algo sobre cómo las personas trans continúan destruyendo el tejido de la sociedad. , pero nadie se ríe.
Testimonios
«. Me pregunto porque… En una conversación con Kotaku, el co-creador de Nothing Forever, Skyler Hartle, mencionó que estaba «bastante avergonzado» por las payasadas transfóbicas de Larry. Hartle reiteró que los comentarios de AI «[ninguno] representan los valores u opiniones [de la empresa] de ninguna manera» y fueron el resultado de cualquier «problema técnico». “Pensamos que habíamos resuelto este problema, usamos el sistema de moderación de contenido integrado proporcionado por OpenAI, pero no lo hicimos”, dijo Hartl. “Actualmente estamos investigando cómo podemos implementar un sistema de moderación de contenido secundario para tener una capa adicional de redundancia para garantizar que esto no vuelva a suceder. Pensamos erróneamente que estábamos usando correctamente las herramientas de OpenAI para la moderación de contenido, pero no es así. Planeamos implementar sistemas de moderación de contenido OpenAI antes de volver a estar en línea y considerar los servicios de moderación de contenido secundarios como respaldo”.
Solución
Hartle compartió una descripción técnica de lo que sucedió cuando discutió los resultados de una investigación interna sobre la desventura transfóbica de Larry, y mencionó que algo salió mal con el modelo OpenAI GPT-3 que se usó. “Estábamos investigando la causa raíz del problema”, dijo Hartl. “Comenzamos a fallar cuando usamos el modelo OpenAI GPT-3 Davinci, lo que resultó en un comportamiento inestable del programa (es posible que haya visto bucles de clases vacías). OpenAI tiene un modelo Curie menos complejo, el predecesor de Davinci. Tan pronto como DaVinci comenzó a fallar, cambiamos a Curie para tratar de mantener el espectáculo funcionando sin problemas. El turno de Curie terminó con textos inapropiados. Usamos las herramientas de moderación de contenido de OpenAI, que hasta ahora han funcionado para el modelo DaVinci, pero no para Curie. Pudimos identificar la causa raíz de nuestro problema con el modelo DaVinci y no usaremos Curies como opción en el futuro. Esperamos que esto arroje algo de luz sobre cómo sucedió esto».