A Microsoft obteve uma patente para transformá-lo em um chatbot

Ilustração para o artigo intitulado Microsoft obteve uma patente para transformá-lo em um chatbot

foto: Stan honda (imagens falsas)

E se a medida mais significativa do trabalho de sua vida não tiver nada a ver com suas experiências vividas, mas simplesmente a geração inadvertida de um clone digital realista de você mesmo, um espécime de homem antigo para a diversão das pessoas do mundo. ano 4500 muito depois de sua partida? esta espiral de morte? Esta é a pergunta menos assustadora colocada por uma patente da Microsoft concedida recentemente para um chatbot individual.

Notado pela primeira vez por O IndependenteO Escritório de Patentes e Marcas dos Estados Unidos confirmou ao Gizmodo por e-mail que a Microsoft ainda não tem permissão para fabricar, usar ou vender a tecnologia, apenas para impedir que terceiros o façam. O pedido de patente foi depositado em 2017, mas foi aprovado no mês passado.

Chatbot hipotético Você (imaginado em detalhes aqui) receberia treinamento sobre “dados sociais”, incluindo postagens públicas, mensagens privadas, gravações de voz e vídeos. Pode ser 2D ou 3D. Pode ser uma “entidade passada ou presente”; um “amigo, um parente, um conhecido, [ah!] uma celebridade, um personagem fictício, uma figura histórica “e, assustadoramente,” uma entidade aleatória “. (Esta última, podemos supor, poderia ser uma versão falada da biblioteca de retratos fotorrealistas gerados por máquina ThisPersonDoesNotExist.) A tecnologia pode permitir que você se registre em uma “determinada fase da vida” para se comunicar com o seu jovem no futuro.

Pessoalmente, gosto do fato de que meu chatbot seria inútil graças ao meu vocabulário de texto limitado (“OMG” “OMG” “OMG hahahaha”), mas as mentes da Microsoft consideraram isso. O chatbot pode formar opiniões que você não tem e responder a perguntas que nunca foram feitas. Ou, nas palavras da Microsoft, “um ou mais armazenamentos de dados conversacionais e / ou APIs podem ser usados ​​para responder ao diálogo do usuário e / ou perguntas para as quais os dados sociais não fornecem dados.” Os comentários de preenchimento podem ser adivinhados por meio de dados de fontes coletivas de pessoas com interesses e opiniões alinhados ou informações demográficas, como gênero, educação, estado civil e nível de renda. Você pode imaginar sua opinião sobre um tópico com base em “percepções de eventos baseadas na multidão”. “Dados psicográficos” estão na lista.

Resumindo, estamos olhando para o monstro de aprendizado de máquina de Frankenstein, trazendo os mortos de volta à vida por meio da coleta de dados altamente pessoais e não controlados.

“Isso é assustador”, Jennifer Rothman, professora de direito da Universidade da Pensilvânia e autora de O direito à publicidade: privacidade reinventada para um mundo público ele disse ao Gizmodo por e-mail. Se servir de consolo, tal projeto soa como uma agonia jurídica. Ela previu que tal tecnologia poderia levar a disputas sobre o direito à privacidade, o direito à publicidade, difamação, ilícito ilícito falso, violação de marca registrada, violação de direitos autorais e falso endosso “para citar mas. alguns “, disse ele. (Arnold Schwarzenegger mapeou o território com esta cabeça.)

Ela continuou:

Também pode violar as leis de privacidade biométrica em estados, como Illinois, que as possuem. Supondo que a coleta e o uso dos dados sejam autorizados e que as pessoas optem afirmativamente por criar um chatbot em sua própria imagem, a tecnologia ainda levanta preocupações se esses chatbots não forem claramente demarcados como imitadores. Você também pode imaginar uma série de abusos de tecnologia semelhantes ao que vemos com o uso da tecnologia deepfake, provavelmente não o que a Microsoft planejaria, mas pode ser antecipado mesmo assim. Chatbot convincentes, mas não autorizados, podem criar problemas de segurança nacional se um chatbot, por exemplo, supostamente falar em nome do presidente. E pode-se imaginar que os chatbots de celebridades não autorizados podem proliferar de maneiras que podem ser sexualmente ou comercialmente exploradoras.

Rothman destacou que, embora tenhamos fantoches realistas (deepfakes, por exemplo), esta patente é a primeira que ele viu que combina essa tecnologia com dados coletados por meio de mídia social. Existem algumas maneiras pelas quais a Microsoft pode atenuar as preocupações com vários graus de realismo e isenções de responsabilidade claras. Incorporar o clipe como Clippy, disse ele, pode ajudar.

Não está claro qual nível de consentimento seria necessário para compilar dados suficientes até mesmo para a cera digital mais compacta, e a Microsoft não compartilhou as diretrizes de contrato de usuário potencial. Mas as prováveis ​​leis adicionais que regem a coleta de dados – California Consumer Privacy Act, EU General Data Protection Regulation – podem arruinar as criações de chatbot. Por outro lado, a Clearview AI, que notoriamente fornece software de reconhecimento facial para agências de aplicação da lei e empresas privadas, está atualmente litigando seu direito de monetizar seu repositório de bilhões de avatares extraídos de perfis de redes sociais públicas sem o consentimento dos usuários.

Lori Andrews, advogada que ajudou a informar as diretrizes para o uso de biotecnologias, imaginou um exército de gêmeos rebeldes do mal. “Se eu me candidatasse, o chatbot poderia dizer algo racista como se fosse eu e arruinar minhas chances de eleição”, disse ele. “O chatbot pode obter acesso a várias contas financeiras ou redefinir minhas senhas (com base em informações agregadas, como o nome de um animal de estimação ou o nome de solteira da mãe, que muitas vezes podem ser acessados ​​nas redes sociais) . Uma pessoa poderia ser enganada ou até mesmo prejudicada se seu terapeuta tirasse férias de duas semanas, mas um chatbot imitando o terapeuta continuou a fornecer e a cobrar pelos serviços sem que o paciente soubesse da mudança. “

Esperançosamente, esse futuro nunca acontecerá, e a Microsoft reconheceu que a tecnologia é assustadora. Quando questionado sobre um comentário, um porta-voz disse ao Gizmodo que um tweet por Tim O’Brien, gerente geral de programas de inteligência artificial da Microsoft. “Estou analisando isso: a data de inscrição (abril de 2017) é antes das análises de ética de IA que fazemos hoje (estou no painel) e não tenho conhecimento de nenhum plano para construir / enviar (e sim, é perturbador). ”

You May Also Like

About the Author: Gabriela Cerqueira

"Solucionador de problemas do mal. Amante da música. Especialista certificado em cultura pop. Organizador. Guru do álcool. Fanático por café."

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *