Amazon Alexa revela nova tecnologia que pode imitar vozes, incluindo as dos mortos

Espaço reservado enquanto as ações do artigo são carregadas

Apoiando-se em cima de um Cabeceira mesa durante a cúpula de tecnologia da Amazon desta semana, um Echo Dot foi solicitado a concluir uma tarefa: “Alexa, a vovó pode terminar de ler ‘The Mago de Oz’?”

A voz tipicamente alegre de Alexa explodiu do alto-falante inteligente com tema infantil com um design de panda: “Ok!” Então, quando o dispositivo começou a narrar uma cena do Leão Covarde implorando por coragem, o tom robótico de Alexa foi substituído por um narrador mais humano.

“Em vez da voz de Alexa lendo o livro, é a voz da avó da criança”, disse Rohit Prasad, vice-presidente sênior da Alexa e cientista-chefe de IA, durante uma palestra em Las Vegas. (O fundador da Amazon, Jeff Bezos, é dono do The Washington Post.)

A demonstração foi a primeira olhada no mais novo recurso do Alexa, que, enquanto ainda em desenvolvimento, permitiria que o assistente de voz replicasse as vozes das pessoas a partir de clipes de áudio curtos. O objetivo, disse Prasad, é construir maior confiança com os usuários, infundindo inteligência artificial com os “atributos humanos de empatia e carinho”.

O novo recurso poderia “tornar [loved ones’] as memórias duram”, disse Prasad. Mas, embora a perspectiva de ouvir a voz de um parente morto possa tocar o coração, também levanta uma série de preocupações éticas e de segurança, disseram especialistas.

“Não sinto que nosso mundo esteja pronto para uma tecnologia de clonagem de voz fácil de usar”, disse Rachel Tobac, diretora executiva da SocialProof Security, com sede em São Francisco, ao The Washington Post. Essa tecnologia, acrescentou, pode ser usada para manipular o público por meio de clipes de áudio ou vídeo falsos.

“Se um cibercriminoso puder replicar com facilidade e credibilidade a voz de outra pessoa com uma pequena amostra de voz, ele poderá usar essa amostra de voz para se passar por outras pessoas”, acrescentou Tobac, especialista em segurança cibernética. “Esse mau ator pode enganar os outros a acreditar que eles são a pessoa que estão se passando, o que pode levar a fraudes, perda de dados, controle de contas e muito mais.”

Depois, existe o risco de confundir as linhas entre o que é humano e o que é mecânico, disse Tama Leaver, professora de estudos da Internet na Curtin University, na Austrália.

“Você não vai lembrar que está falando com as profundezas da Amazônia… e seus serviços de coleta de dados seja falando com sua avó ou a voz de seu avô ou a de um ente querido perdido.”

“De certa forma, é como um episódio de ‘Black Mirror'”, disse Leaver, referindo-se a a série de ficção científica que imagina um futuro com tema de tecnologia.

O engenheiro do Google que acredita que a IA da empresa ganhou vida

O novo recurso Alexa também levanta questões sobre consentimento, acrescentou Leaver, principalmente para pessoas que nunca imaginaram que um assistente pessoal robótico cantaria sua voz depois de morrer.

“Há uma ladeira escorregadia real de usar os dados de pessoas falecidas de uma maneira que é assustadora por um lado, mas profundamente antiética por outro, porque eles nunca consideraram esses vestígios sendo usados ​​dessa maneira”, disse Leaver.

Tendo perdido recentemente o avô, Leaver disse que simpatizava com a “tentação” de querer ouvir a voz de um ente querido. Mas a possibilidade abre uma comporta de implicações que a sociedade pode não estar pronta para assumir, disse ele, por exemplo, Quem detém os direitos sobre os pedacinhos que as pessoas deixam no éter da World Wide Web?

“Se meu avô tivesse me enviado 100 mensagens, eu deveria ter o direito de inserir isso no sistema? E se eu fizer isso, quem é o dono? Então a Amazon é dona dessa gravação? Eu pergunto. “Eu desisti dos direitos sobre a voz do meu avô?”

Prasad não abordou esses detalhes durante o discurso de quarta-feira. No entanto, ele postulou que a capacidade de imitar vozes era um produto de “certamente viver na era de ouro da IA, onde nossos sonhos e ficção científica estão se tornando realidade”.

Este modelo de IA tenta recriar a mente de Ruth Bader Ginsburg

Se a demonstração da Amazon se tornar um recurso real, Leaver disse que as pessoas podem precisar começar a pensar em como suas vozes e semelhanças podem ser usadas quando morrerem.

“Tenho que pensar na minha vontade que preciso dizer: ‘Minha voz e história pictórica nas redes sociais são de meus filhos, e eles podem decidir se querem reviver isso no chat comigo ou não? — perguntou Leaver.

“Isso é uma coisa estranha de se dizer agora. Mas provavelmente é uma pergunta para a qual devemos ter uma resposta antes que Alexa comece a falar como eu amanhã.”

You May Also Like

About the Author: Gabriela Cerqueira

"Solucionador de problemas do mal. Amante da música. Especialista certificado em cultura pop. Organizador. Guru do álcool. Fanático por café."

Deixe um comentário

O seu endereço de e-mail não será publicado.