VALL-E 2 de Microsoft imita voces humanas tan bien que da miedo
Este programa se mantiene como un ‘proyecto de investigación puro’ y aún no está disponible para el público general.
Los investigadores de Microsoft han desarrollado un avanzado programa de texto a voz basado en inteligencia artificial (IA), conocido como VALL-E 2, que alcanza un nivel de credibilidad tan impresionante que da miedo.
New York Post detalla que este programa se mantiene como un ‘proyecto de investigación puro’ y aún no está disponible para el público general.
VALL-E 2 es el primer programa vocal de IA que ha ‘logrado la paridad humana’, según el anuncio de Microsoft. Esto significa que su habla es indistinguible de la de una persona real.
Replica voces con tan solo escuchar un audio
VALL-E 2 destaca por su claridad, incluso en frases complejas o repetitivas, y puede replicar una voz completamente tras escuchar solo tres segundos de audio.
Los investigadores afirman que este programa supera a los sistemas anteriores en cuanto a robustez del habla, naturalidad y similitud con el hablante.
Además, tienen grandes expectativas para su uso en el ámbito médico -como ayudar a personas con afasia o discapacidades similares- y en el social.
Se prevé que VALL-E 2 pueda ser utilizado en educación, entretenimiento, creación de contenido periodístico, características de accesibilidad, sistemas de respuesta de voz interactivos, traducción, chatbots, y más.
AI speech clone is so real that makers say its ‘potential risks’ could prove too dangerous https://t.co/HIEVsNNA6U pic.twitter.com/zhDLC0M2ix
— New York Post (@nypost) July 10, 2024
VALL-E 2, una herramienta demasiado poderosa
No obstante, los creadores son conscientes de los posibles riesgos asociados con una herramienta tan poderosa como VALL-E 2.
Advierten que VALL-E 2 podría ser mal utilizada para la suplantación de identidad de voz o la personificación de hablantes específicos. Por esta razón, Microsoft no planea incorporarla en algún producto comercial ni expandir su acceso al público en general.
El terror que genera la suplantación de voz hoy en día
El problema de la suplantación de voz, que implica crear una voz falsa para llamadas telefónicas, está creciendo debido a la accesibilidad de los programas impulsados por la IA.
Las personas mayores son a menudo los principales objetivos de los llamados ‘cibercriminales’, aunque también se han reportado casos donde las madres reciben llamadas falsas de personas que aseguran haber secuestrado a sus hijos y les piden dinero.
¿Cuál es la palabra clave?
Lisa Palmer, estratega de la firma de consultoría AI Leaders, recomienda que las familias, amigos y compañeros de trabajo establezcan contraseñas verbales para verificar la identidad durante llamadas telefónicas en situaciones ‘peculiares’.
Con información de New York Post