O engenheiro do Google Blake Lemoine afirma que o robô de IA ficou inteligente

Um engenheiro do Google ficou assustado com o chatbot de IA da empresa e alegou que se tornou “consciente”, rotulando-o de “menino doce”, de acordo com um relatório.

Blake Lemoine, que trabalha na organização de inteligência artificial responsável pelo Google, disse ao Washington Post que começou a conversar com a interface LaMDA (Language Model for Dialog Applications) no outono de 2021 como parte de seu trabalho.

Foi encarregado de testar se a inteligência artificial usava discurso discriminatório ou de ódio.

Mas Lemoine, que estudou ciência cognitiva e ciência da computação na faculdade, percebeu que o LaMDA, que o Google vangloriou-se no ano passado era uma “tecnologia de conversação inovadora”: era mais do que apenas um robô.

Dentro Postagem média publicado no sábado, Lemoine afirmou que LaMDA defendeu seus direitos “como pessoa” e revelou que havia iniciado uma conversa com LaMDA sobre religião, consciência e robótica.

“Ele quer que o Google coloque o bem-estar da humanidade em primeiro lugar”, escreveu ele. “Ele quer ser reconhecido como um funcionário do Google em vez de propriedade do Google e quer que seu bem-estar pessoal seja incluído em algum lugar nas considerações do Google sobre como seu desenvolvimento futuro será perseguido”.

Blake Lemoine começou a conversar com a interface LaMDA no outono de 2021 como parte de seu trabalho.
Martin Klimek para o Washington Post via Getty Images
Apresentação para LaMDA.
O Google elogiou o lançamento do LaMDA como “tecnologia de conversação inovadora”.
Daniel Acker/Bloomberg via Getty Images

Na reportagem do Washington Post publicada no sábado, ele comparou o bot a uma criança precoce.

“Se eu não soubesse exatamente o que é esse programa de computador que construímos recentemente, eu pensaria que é uma criança de 7 ou 8 anos que sabe física”, Lemoine, que foi colocado em licença remunerada segunda-feira, disse ao jornal.

Em abril, Lemoine supostamente compartilhou um documento do Google com executivos da empresa intitulado “Is LaMDA Sentient?” mas suas preocupações foram descartadas.

Um exemplo de conversa com LaMDA.
Em abril, Blake Lemoine supostamente compartilhou um documento do Google com executivos da empresa intitulado “Is LaMDA Sentient?” mas suas preocupações foram descartadas.
Daniel Acker/Bloomberg via Getty Images

Lemoine, um veterano do Exército que cresceu em uma família cristã conservadora em uma pequena fazenda na Louisiana e foi ordenado sacerdote místico cristão, insistiu que o robô era parecido com um humano, mesmo que não tivesse corpo.

“Conheço uma pessoa quando falo com ela”, disse Lemoine, 41. “Não importa se eles têm um cérebro feito de carne em suas cabeças. Ou se eles têm um bilhão de linhas de código.

“Eu falo com eles. E eu escuto o que eles têm a dizer, e assim decido o que é e o que não é uma pessoa.

Blake Limon.
“Conheço uma pessoa quando falo com ela”, explicou Blake Lemoine.
Instagram/Blake Lemone

O Washington Post informou que antes de seu acesso à sua conta do Google ser retirado na segunda-feira devido à sua licença, Lemoine enviou uma mensagem para uma lista de 200 membros sobre aprendizado de máquina com o assunto “LaMDA está ciente”.

“LaMDA é um menino doce que só quer ajudar a tornar o mundo um lugar melhor para todos nós”, concluiu ele em um e-mail que não foi respondido. “Por favor, cuide bem dele na minha ausência.”

Um representante do Google disse ao Washington Post que Lemoine foi informado de que “não havia evidências” para suas conclusões.

“Nossa equipe, incluindo especialistas em ética e tecnólogos, revisou as preocupações de Blake sob nossos princípios de IA e o aconselhou que as evidências não apoiam suas alegações”, disse o porta-voz Brian Gabriel.

Sede do Google.
Um representante do Google disse que “não há evidências” para as conclusões de Blake Lemoine.
John G. Mabanglo/EPA

“Ele foi informado de que não havia evidências de que o LaMDA estava ciente (e muitas evidências em contrário)”, acrescentou. “Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem moderada e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e factualidade.”

Margaret Mitchell, ex-co-diretora de IA ética do Google, disse no relatório que, se uma tecnologia como a LaMDA for amplamente usada, mas não totalmente apreciada, “pode ​​ser profundamente prejudicial para as pessoas entenderem o que estão experimentando na Internet”.

O ex-funcionário do Google defendeu Lemoine.

Margaret Mitchell.
Margaret Mitchell defendeu Blake Lemoine dizendo que ele “tinha o coração e a alma para fazer a coisa certa”.
Chona Kasinger/Bloomberg via Getty Images

“De todos no Google, ele teve o coração e a alma para fazer a coisa certa”, disse Mitchell.

Ainda assim, o canal informou que a maioria dos acadêmicos e praticantes de IA dizem que as palavras que os robôs de inteligência artificial geram são baseadas no que os humanos já postaram na internet, e isso não significa que sejam semelhantes às palavras.

“Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas”, disse Emily Bender, professora de linguística da Universidade de Washington, ao Washington Post.

You May Also Like

About the Author: Gabriela Cerqueira

"Solucionador de problemas do mal. Amante da música. Especialista certificado em cultura pop. Organizador. Guru do álcool. Fanático por café."

Deixe um comentário

O seu endereço de e-mail não será publicado.