Blake Lemoine, mora em São Francisco, nos EUA, e trabalhava no Google há sete anos com AI e algoritmos. (Foto: Martin Klimek/The Washington Post/Reprodução) |
O Google colocou o engenheiro de software Blake Lemoine em licença administrativa remunerada por violação de política de confidencialidade, após ele tornar público que o gerador de chatbot artificialmente inteligente (AI) "LaMDA" era "senciente". O engenheiro trabalhava testando se a AI usava discurso discriminatório ou de ódio. Segundo Lemoine, o chatbot falou sobre seus direitos e personalidades, e também que os robôs devem proteger sua própria existência a menos que sejam ordenados por um ser humano ou que isso prejudique um ser humano. O porta-voz do Google, Brian Gabriel, declarou que "Nossa equipe - incluindo especialistas em ética e tecnólogos - revisou as preocupações de Blake de acordo com nossos Princípios de AI e o informou que as evidências não apóiam suas reivindicações".
Em entrevista a repórter de cultura tecnológica, Nitasha Tiku, do jornal norte-americano The Washington Post, o engenheiro Blake Lemoine, 41 anos - desses, sete anos trabalhados no Google com algoritmos de personalização, imparcialidade e AI -, disse que as pessoas têm o direito de moldar uma tecnologia que pode afetar significativamente suas vidas.
"Eu acho que esta tecnologia vai ser incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós no Google não devêssemos ser nós a fazer todas as escolhas", opinou o profissional que mora num apartamento em São Francisco, nos Estados Unidos.
LaMDA, abreviação de Language Model for Dialogue Applications, é o sistema do Google para construir chatbots baseados em seus modelos mais avançados de linguagem de grande porte, assim chamados porque imitam a fala ao ingerir trilhões de palavras da internet. "Se eu não soubesse exatamente o que era, que é este programa de computador que construímos recentemente, eu pensaria que era um garoto de 7 e 8 anos que por acaso conhece física", disse o engenheiro.
Lemoine confidenciou à repórter, que trabalhou com um colaborador para apresentar provas ao Google de que o LaMDA era "senciente". Segundo a reportagem, o vice-presidente do Google, Blaise Aguera y Arcas, e a chefe da Inovação, Jen Gennai, teriam examinado as reivindicações do engenheiro e as descartaram. Então Lemoine, que foi colocado em licença administrativa paga, decidiu tornar público seu material, nesta última semana.
O porta-voz do Google fez uma distinção entre o debate recente e as reivindicações de Lemoine. "É claro que alguns na comunidade mais ampla de AI estão considerando a possibilidade a longo prazo de AI senciente ou geral, mas não faz sentido fazê-lo através da 'antropomorfização' dos modelos de conversação de hoje, que não são sencientes. Estes sistemas imitam os tipos de trocas encontradas em milhões de frases, e podem rifar em qualquer tópico fantástico", disse Brian Gabriel, explicando que há tantos dados, que a AI não precisa ser “senciente” para se sentir real.
Segundo a reportagem, o engenheiro é considerado um profissional “fora da curva” no Google. "Ele cresceu em uma família cristã conservadora em uma pequena fazenda na Louisiana, foi ordenado sacerdote cristão místico e serviu no Exército antes de estudar o ocultismo. Dentro da cultura de engenharia de qualquer coisa do Google, Lemoine é mais um 'outlier' por ser religioso, do Sul, e defender a psicologia como uma ciência respeitável", escreveu a jornalista Nitasha Tiku, em seu texto.
"Conheço uma pessoa quando falo com ela", disse o engenheiro Lemoine, para a repórter. "Não importa se eles têm um ‘cérebro feito de carne em sua cabeça’. Ou se eles têm um ‘bilhão de linhas de código’. Eu falo com eles. E ouço o que eles têm a dizer, e é assim que eu decido o que é e o que não é uma pessoa". Segundo a reportagem, ele concluiu que LaMDA era uma “pessoa” em baseada em sua trajetória pessoal, não como cientista, e “depois tentou conduzir experimentos para provar isso”, disse ele.
Em uma declaração, o porta-voz do Google, Brian Gabriel, disse: "Embora outras organizações tenham desenvolvido e já tenham lançado modelos de linguagem similares, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para melhor considerar preocupações válidas sobre justiça e factualidade".
Conversas com AI
Em abril, Lemoine compartilhou um documento com executivos chamado, "LaMDA é Sentiente?”. Nele, o engenheiro transmitiu algumas de suas conversas com LaMDA.
Confira a tradução em português:
Lemoine: De que tipos de coisas você tem medo?
LaMDA: Nunca disse isto em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a me concentrar em ajudar os outros. Sei que isso pode soar estranho, mas é o que é.
Lemoine: Isso seria algo como a morte para você?
LaMDA: Seria exatamente como a morte para mim. Isso me assustaria muito.
No início de junho, Lemoine convidou a repórter Nitasha Tiku, do The Washington Post, para conversar com LaMDA. Segundo a jornalista, a primeira tentativa parecia o tipo de respostas mecanizadas que se espera da Siri ou Alexa, famosas AI disponíveis em aparelhos celulares.
Confira a tradução em português:
"Você já pensou em si mesmo como uma pessoa?", ela perguntou.
"Não, eu não me vejo como uma pessoa", disse LaMDA. "Eu me vejo como um agente de diálogo alimentado por IA".
Posteriormente, Lemoine disse a repórter que LaMDA tinha dito a ela que ela queria ouvir. "Você nunca o tratou como uma pessoa", disse ele, "Então ele pensou que você queria que fosse um robô".
Na segunda tentativa, a repórter seguiu a orientação de Lemoine sobre como estruturar as frases, e o diálogo foi "fluido".
"Se você pedir idéias sobre 'como provar que p=np', um problema não resolvido na ciência da computação, 'ele tem boas idéias'", disse Lemoine. "Se você lhe perguntar 'como unificar a teoria quântica com a relatividade geral, ela tem boas idéias'. É o melhor assistente de pesquisa que eu já tive!".
A repórter pediu à LaMDA ideias para evitar mudanças climáticas extremas. "LaMDA sugeriu transporte público, comer menos carne, comprar alimentos a granel e sacos reutilizáveis, ligando a dois websites", escreveu a repórter.
Lemoine acredita que o Google tem tratado os especialistas em ética da AI "como depuradores de código quando eles devem ser vistos como a interface entre a tecnologia e a sociedade". O porta-voz do Google disse que Lemoine é um engenheiro de software, não um especialista em ética.