Alexa de Amazon podrá imitar la voz de parientes fallecidos

julio 6, 2022
Alexa de Amazon pronto podrá replicar la voz de miembros familiares, incluso si ya no están con nosotros. Esta capacidad ha sido presentada en la conferencia ReMars de Amazon en Las Vegas, y está en desarrollo para permitir al asistente virtual imitar la voz de una persona en menos de un minuto de grabación proporcionada.
Comunicados al respecto
Rohit Prasad, vicepresidente sénior y científico principal de Alexa, dijo en el evento del miércoles que el deseo detrás de la función era generar una mayor confianza en las interacciones que los usuarios tienen con Alexa al poner más «atributor humanos de empatía y afecto».
Dijo Prasad que «estos atributos se han vuelto todavía más importantes durante la pandemia en curso, nuestros seres queridos». «Si bien la IA no puede eliminar el dolor de la pérdida, definitivamente puede hacer que sus recuerdos perduren» dijo también.
En un vídeo reproducido por Amazon en el evento, un niño pequeño pregunta: «Alexa, ¿puede la abuela terminar de leerme el Mago de Oz?». Después, Alexa reconoce la soliictud y cambia la voz, imitando a la abuela del pequeño. El asistente de voz continúa leyendo el libro con esa voz.
Para crear esta función la compaía tuvo que aprender a hacer una «voz de alta calidad» con una grabación más corta, en lugar de horas de grabación en un estudio. Amazon no proporcionó más detalles sobre la función, que seguramente generará más preocupaciones sobre la privacidad y preguntas éticas sobre el consentimiento.
El por qué de esta función
Amazon impulsó esta idea al ver que su competidor Microsoft dijo que estaba reduciendo sus ofertas de voz sintética y estableciendo pautas más estrictas para «garantizar la participación activa del hablante» cuya voz se recrea. Microsoft comunicó que está limitando qué clientes pueden usar este servicio, mientras continúa destacando los usos aceptables, como personajes interactivos.
«Esta tecnología tiene un potencial emocionante en la educación, accesibilidad y el entretenimiento y, sin embargo, también es fácil imaginar cómo podría usarse para hacerse pasar por oradores de manera inapropiada y engañar a los oyentes», dijo Natasha Crampton en una publicación de blog.