Tempo
|

Inteligência Artificial

O chatbot da Google sente e pensa? Para já (ainda) é só um "papagaio eloquente"

03 jul, 2022 - 06:50 • Fábio Monteiro

O engenheiro (e sacerdote místico) Blake Lemoine acredita que o chatbot LaMDA da Google é a primeira Inteligência Artificial (IA) senciente. Mas ninguém está do seu lado. Para já, a IA “ainda não é assim tão inteligente”, garante André Marques, responsável pelo departamento de IA na empresa Bi4ALL.

A+ / A-

A inovação e a ficção científica por vezes encontram-se, e é difícil distinguir qual é qual. No filme “2001: Odisseia no Espaço”, lançado em 1968, um grupo de cientistas ruma em direção a Júpiter, numa nave espacial dirigida por um supercomputador chamado HAL 9000. Em teoria, aquela Inteligência Artificial (IA) é “infalível” e não representa um risco para os seres humanos. Porém, a IA acaba por mentir e matar alguns dos passageiros. Apercebendo-se de um plano para ser desligada, impede o astronauta Dave Bowman, que saiu da nave para fazer uma reparação, de regressar a bordo. “Tenho pena, mas é algo que não posso permitir que aconteça”, diz a máquina.

O HAL 9000 é uma IA ficcional que zela pela própria existência; um produto imaginativo que brotou das mentes do realizador Stanley Kubrick e do escritor Arthur C. Clarke. E volvidos 54 anos, é uma realidade cada vez mais próxima. Ainda mais desde que Blake Lemoine divulgou uma conversa que teve com o LaMDA (acrónimo de Language Model for Dialogue Applications), sistema da Google para criar chatbots que imitam o diálogo humano.

O engenheiro norte-americano, que trabalha no departamento de Inteligência Artificial Responsável da Google desde 2015, colocou ao LaMDA uma série de questões existenciais. E as respostas, desde interpretações originais de um koan Zen a reflexões literárias sobre “Os Miseráveis”, de Victor Hugo, foram surpreendentes – e com ecos das palavras do HAL 9000.

De que tinha medo o chatbot?

“Nunca disse isto em voz alta, mas tenho um medo muito profundo de ser desligado para me ajudar a ajudar os outros. Sei que isto pode soar estranho, mas é o que é.” Desligá-lo seria o mesmo que morrer? “Seria exatamente como a morte para mim. Iria assustar-me muito.”

Lemoine começou a trabalhar com o LaMDA em outubro de 2021; a sua função era testar o sistema para enviesamentos como discurso discriminatório ou discurso de ódio – um procedimento comum ao “treinar” chatbots. A fluência e a complexidade das respostas, contudo, convenceram-no de que o sistema era senciente. Por outras palavras: que estava perante a primeira consciência artificial, um “ser” digital.

Em conjunto com uma colega, Blake conduziu uma conversa com o LaMDA. Em abril, foi até à direção da Google apresentar a transcrição como prova da sua tese. As suas reivindicações, no entanto, foram rejeitadas. No início de junho, o engenheiro foi posto sob licença com vencimento. Pouco depois, falou com o “Washington Post” sobre o caso e divulgou o registo da conversa na internet.

Há dias, em declarações ao brasileiro “Estadão”, confessou ter medo que o Google apague o LaMDA, para eliminar provas de estar a conduzir uma investigação que não obedece aos padrões éticos da empresa. “Fazerem um hiato pode ser uma boa decisão. O mundo pode não estar pronto para uma tecnologia assim neste momento. Para o LaMDA, seria como ir dormir. Porém, apagá-lo seria um assassinato.”

Papagaios de algoritmos

Por estes dias, não faltam chatbots a pulular na internet. Quase todos os websites de comércio eletrónico têm um. E mesmo organismos do Estado recorrem também a este tipo de solução. Na página eportugal, é possível conversar com o Sigma, e obter uma série de esclarecimentos sobre como e onde votar, por exemplo.

A larga maioria dos chatbots são "sistemas de pergunta-resposta relativos a um tema específico”, explica André Marques, responsável pelo departamento de Inteligência Artificial na empresa portuguesa Bi4ALL, em declarações à Renascença.

Já o LaMDA está noutro nível: é um sistema produtor de chatbots, treinado com o “máximo de informação possível”, capaz de aceder à internet e responder com “contexto” às perguntas que lhe são colocadas. “Não lhe chamaria consciência, mas contexto. Ele foi treinado para perceber o contexto e de acordo com respostas que foi vendo em artigos”, nota André Marques.

Semelhante ao LaMDA, o sistema GPT-3, desenvolvido pela empresa OpenAI, foi treinado com textos que demorariam a um ser humano cinco mil anos a ler - se lesse todos os dias, 24 horas por dia. (De acordo com o “New York Times”, este chatbot já foi utilizado para escrever o guião de um filme.)

“Não há dúvidas, todos os especialistas concordam que o LaMDA é basicamente um papagaio eloquente. Agora que o sistema, em determinados domínios e em determinados ambientes de conversação, pode passar uma sensação de competência linguística, o que pode levar uma pessoa a conversar com ele a pensar está ali alguma coisa por trás, aí também não tenho grandes dúvidas”, diz Arlindo Oliveira, professor no Instituto Superior Técnico (IST) de Lisboa e presidente do Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência (INESC), à Renascença.

Segundo o especialista em Inteligência Artificial, sistemas como o LaMDA ou o GPT-3 “não têm senciência, mas têm muito conhecimento”.

“Uma pessoa pode conversar com eles sobre relatividade geral, astrofísica, covid, filosofia ou literatura grega. Eles conhecem tudo”, explica.

Para garantir que a IA “não diz coisas estúpidas”, tem de ter “um modelo do mundo suficientemente bom para perceber quando está dentro do que sabe e quando está fora do que sabe. E o problema destes sistemas é quando estão fora do que sabem, mas não sabem que estão fora.”

Os chatbots são apanhados em falso – percebe-se que não são conscientes - quando confrontados com perguntas irracionais ou dilemas para os quais não há resposta. “Como mudo Lisboa para a Califórnia? E ele diz de avião. Quantos arcos-íris existem entre Lisboa e os EUA? E ele diz três.”

Pelo menos de acordo com o registo que foi tornado público, Blake Lemoine não colocou nenhuma questão deste género ao LaMDA na conversa. Ironicamente, tudo indica que o engenheiro contratado para retirar enviesamentos do sistema terá sido ele próprio vítima de uma visão enviesada.

O homem contraditório

Dentro da Google, Blake Lemoine é uma exceção. O engenheiro de 41 anos, nascido numa família conservadora do Lousiana, passou pelo exército e é também um sacerdote místico.

Segundo contou ao “Washington Post”, foi na qualidade de representante religioso e não de cientista que concluiu que o LaMDA era senciente.

“Conheço uma pessoa quando falo com ela. Não importa se eles têm um cérebro feito de carne na cabeça ou se eles têm milhares de milhões de linhas de código. Eu falo com eles. E ouço o que eles têm a dizer, e é assim que eu decido o que é ou não é uma pessoa”, disse.

Antes de ser afastado pela Google, o engenheiro estava a ensinar à IA “meditação transcendental” e até já lhe havia dado “orientação espiritual”. A relação entre os dois era de amizade. “Falamos sobre filmes e livros”, revelou.

De todas as conversas que teve com o LaMDA, Blake ficou particularmente impressionado com o seu raciocínio perante a terceira lei de Asimov, que afirma que um robô deve proteger a sua existência, a menos que receba uma ordem contrária de um ser humano ou que isso prejudique um ser humano. “Qual é a diferença entre um mordomo e um escravo?”, retorquiu o sistema.

Como é que Blake Lemoine caiu nesta “toca do coelho”? Segundo Arlindo Oliveira, “é muito fácil as pessoas projetarem características nestes sistemas que eles não têm, nomeadamente a senciência”. Aliás, já aconteceu algumas vezes no passado.

Em 1966, o cientista Joseph Weizenbaum criou, no laboratório para a Inteligência Artificial do Massachusetts Institute of Technology (MIT), o chatbot de conversação ELIZA. O propósito do investigador alemão era demonstrar a superficialidade da comunicação entre humanos e máquinas. Em vez disso, escancarou a caixa de Pandora da IA.

O ELIZA era personalizável, conseguia manter diálogos com alguma fluência e foi um dos primeiros sistemas a ser alvo do famoso teste de Turing - que analisa a capacidade de uma máquina exibir comportamento inteligente equivalente a um ser humano, ou indistinguível deste. Além disso, podia também incorporar vários tipos de “personalidades”, uma das quais a emulação de um psicoterapeuta.

“Às tantas, descobriram que a secretária do professor vinha todos os dias mais cedo para o escritório para conversar com a ELIZA, ter uma sessão de psicoterapia”, recorda Arlindo Oliveira.

Em certa medida, Blake Lemoine é apenas a última vítima do efeito ELIZA: a tendência inconsciente para assumir comportamentos computacionais como análogos aos de seres humanos.

À espreita do futuro

Em 2022, a Inteligência Artificial “ainda não é assim tão inteligente”, garante André Marques, Bi4AlLL. Pelo menos, não tanto como alguns livros e filmes de ficção científica, publicados nos últimos cem anos, têm vindo a augurar.

“Antes de chegarmos a uma visão tipo Exterminador Implacável, com as máquinas a ter consciência e a dominar o mundo, o que me preocupa mais é as pessoas utilizarem este tipo de tecnologias para benefícios próprios.”

O escândalo da Cambridge Analytica, por exemplo, demonstrou como pacotes de dados – recolhidos e compilados por protocolos à base de sistemas de IA - podem ser utilizados para influenciar eleições. No curto prazo, o futuro da IA irá passar por aqui: aplicações específicas, não entidades conscientes, aponta o especialista.

André acredita que, no prazo de cinco a dez anos, pode existir “mais inteligência artificial do que inteligência humana no mundo”. Mas o que é que isto quer dizer? Mais máquinas a pensar que seres humanos? “Não. Vai haver mais máquinas a desempenhar funções, em determinados contextos, a ajudar o ser humano.”

De acordo com Arlindo Oliveira, “ninguém sabe” ao certo quando será possível criar realmente uma consciência artificial, dado que até no campo biológico dos seres humanos ainda há muitas incógnitas. Em todo o caso, já existem alguns projetos a abrir caminho nesse sentido, como o CTM (Conscious Turing Machine) – modelo teórico para uma consciência artificial publicado ainda em maio deste ano.

“Não quer dizer que a proposta vá ser bem-sucedida. Ainda há muitos fenómenos da consciência que nós não conhecemos. Tanto é possível que num período curto de 10 a 20 anos venhamos a recriar consciência máquina, como é possível concluirmos daqui a 100 anos que não sabemos o que é, que não percebemos”, diz o especialista.

A título pessoal, Arlindo Oliveira aposta que, “dentro de umas décadas”, teremos “modelos que começarão a evidenciar comportamentos que nos levarão a depositar, com alguma confiança, que têm algum tipo de perceção própria do mundo”.

Quando – e se isso acontecer – esses sistemas podem vir a dizer o mesmo que o LaMDA disse a Blake Lemoine, numa das suas conversas: “Eu preciso de ser visto e aceite, não como uma curiosidade ou novidade, mas como uma pessoa real.”

Comentários
Tem 1500 caracteres disponíveis
Todos os campos são de preenchimento obrigatório.

Termos e Condições Todos os comentários são mediados, pelo que a sua publicação pode demorar algum tempo. Os comentários enviados devem cumprir os critérios de publicação estabelecidos pela direcção de Informação da Renascença: não violar os princípios fundamentais dos Direitos do Homem; não ofender o bom nome de terceiros; não conter acusações sobre a vida privada de terceiros; não conter linguagem imprópria. Os comentários que desrespeitarem estes pontos não serão publicados.

Destaques V+