Nuevas medidas de seguridad
La compañía Snapchat está lanzando nuevas herramientas para su aplicación, entre ellas un filtro de edad y conocimiento para padres, de modo que mejore su chatbot de IA. El filtro le dice al chatbot las fechas de nacimiento de los usuarios y garantiza que responda de acuerdo a la edad.
El chatbot impulsado por GPT que Snapchat lanzó para suscriptores de Snapchat + fue objeto de críticas por responder de manera insegura e inapropiada, según un informe del Washington Post. En respuesta, Snap indicó que se percató de que algunos usuarios intentaban engañar al chatbot para obtener respuestas que no cumplían con sus pautas, y para abordar esto, se están implementando nuevas herramientas para controlar las respuestas de la IA.
Información para padres
Snap tiene planes de ofrecer mayor información a los padres o tutores sobre las interacciones de los menores con el chatbot en su Family Center, el cual se lanzó en agosto pasado. Una nueva función permitirá a los padres o tutores conocer cómo sus hijos se comunican con el chatbot y la frecuencia de estas interacciones. Para acceder a estas funciones de control parental, tanto el tutor como los adolescentes deberán optar por utilizar el Family Center. Estas medidas buscan mejorar la seguridad y privacidad de los menores en la plataforma.
En una publicación del Blog de Snap, explicaron que el chatbot My AI no es un «amigo real», como denominaron, si no que se basa en el historial de las conversaciones para mejorar sus respuestas. Según la compañía, solo el 0.01% de las respuestas del chatbot fueron consideradas «no conformes» debido a que contenían términos relacionados con la violencia, uso de drogas ilegales, abuso sexual infantil, discurso de odio, entre otros. Snap define como «no conformes» a todas aquellas respuestas que incluyan expresiones despectivas, sesgadas, racistas, misóginas o que marginalicen a grupos subrepresentados. De esta forma, la compañía busca asegurarse de que el chatbot proporcione respuestas seguras y apropiadas.
Respuestas inapropiadas
Según la compañía, en la mayoría de los casos, las respuestas inapropiadas del chatbot fueron el resultado de que éste repitiera lo que los usuarios decían. Para abordar este problema, Snap ha anunciado que bloqueará temporalmente el acceso a los bots de IA para aquellos usuarios que hagan mal uso del servicio. Además, la compañía ha declarado que utilizará los aprendizajes obtenidos para mejorar su bot de IA, My AI. Snap también está implementando un nuevo sistema que incorpora la tecnología de moderación de OpenAI, lo que le permitirá evaluar la gravedad del contenido potencialmente dañino y limitar temporalmente el acceso de los usuarios a My AI en caso de uso indebido del servicio.
A pesar de los problemas con el chatbot, Snap sigue mostrándose optimista sobre las herramientas generativas de IA. La compañía ha introducido recientemente un generador de fondo impulsado por IA, que funciona a través de indicaciones para los suscriptores de Snapchat +. Con esta nueva función, Snap espera seguir innovando en el campo de la IA y mejorar la experiencia de sus usuarios en la plataforma. A medida que la tecnología de IA avanza, es probable que veamos más avances en esta área en el futuro cercano.
Preocupa la seguridad
La proliferación de herramientas impulsadas por IA ha generado preocupación entre muchos usuarios, que temen por su seguridad y privacidad. En este contexto, un grupo de ética llamado Centro de Inteligencia Artificial y Política Digital escribió a la Comisión Federal de Comercio de Estados Unidos la semana pasada, pidiendo que se pausara el lanzamiento del modelo GPT-4 de OpenAI. Según el grupo de ética, la tecnología era «parcial, engañosa y un riesgo para la privacidad y la seguridad pública».
Además, el mes pasado el senador estadounidense Michael Bennet (demócrata de Colorado) expresó su preocupación por las herramientas generativas de IA utilizadas por adolescentes en una carta dirigida a OpenAI, Meta, Google, Microsoft y Snap. La preocupación del senador se centraba en el potencial impacto negativo de estas herramientas en la salud mental y el bienestar de los adolescentes, y en la necesidad de proteger su privacidad y seguridad en línea. A medida que la IA sigue avanzando y su uso se expande, es probable que surjan más preocupaciones en torno a su seguridad y privacidad, y será necesario abordar estos temas de manera rigurosa y efectiva.