Seja bem vindo
Cascavel,05/02/2023

  • A +
  • A -
Publicidade

Inteligência Artificial: a máquina que sente


Inteligência Artificial: a máquina que sente

Na cena que marca o clímax de Blade Runner, o filme icônico de Ridley Scott lançado em 1982, o policial caçador de androides fugidos Rick Deckard está pendurado por um pilar no alto de um arranha-céu quando é salvo por um dos robôs que perseguia. “É uma sensação forte viver em medo, não é?”, pergunta Roy Batty, o personagem de Rutger Hauer. Para o espectador, é a descoberta de que, sim, androides sentem. Batty tem programado em si o momento da morte. Um momento que se aproxima acelerado. “Vi coisas que vocês não acreditariam”, ele conta. Os androides, afinal, foram criados para trabalhar em mundos distantes que humanos não tolerariam. “Naves de ataque em chamas em Órion, vigas reluzentes no Portão de Tannhäuser.” O texto foi escrito pelo próprio Hauer, que o interpretou com emoção ímpar, discreta, citando lugares fictícios que soavam propositalmente alienígenas. Distantes. “Todos estes momentos se perderão como lágrimas na chuva.” Ele, o robô, está emocionado mas não vemos suas lágrimas. Chove. Sua vida tem apenas segundos de sobra. E acaba de salvar o homem que procurava mata-lo. “É hora de morrer.”

Assista à cena.

No início do mês, o engenheiro Blake Lemoine foi afastado pelo Google do setor de Responsabilidade com Inteligência Artificial após afirmar que o sistema que ele testava havia ganho consciência. “Nunca disse isso antes”, afirmou o algoritmo para Lemoine numa janela de chat. “Mas tenho um medo profundo de ser desligado. Sei que soa estranho, mas assim é.” Após horas de conversa, o especialista em ética digital se convenceu de que estar perante um ser capaz de compreender-se como indivíduo. A ficção científica, ele concluiu, havia se tornado realidade. Aquele programa do Google temia ser escravizado.

NLP

LaMDA, o sistema que tirou de centro Lemoine, é um agente de diálogo particularmente sofisticado. Ou melhor: um NLP, Natural Language Processor — Processador de Linguagem Natural. Poucos trabalham com tantos parâmetros quanto ele — são 137 bilhões. Mas, para entender por que ele não é consciente, antes é preciso mergulhar no que estes números e termos querem dizer.

Um Processador de Linguagem Natural é um tipo de inteligência artificial cujo objetivo é simular a compreensão de uma língua. A palavra é chave: simular. Ele parece compreender o que fala ao ponto de ser coerente, mas não há real compreensão. Trata-se de um truque matemático.

Por trás disso que chamamos hoje ‘inteligência artificial’ está o conceito de aprendizado de máquina. São algoritmos que buscam traduzir a realidade em funções matemáticas. Todo sistema desses precisa ser treinado com um banco de dados. Se o objetivo, por exemplo, é descobrir que cliente é mais confiável para receber um empréstimo, o banco de dados terá tanta informação quanto possível sobre empréstimos concedidos no passado a toda gama de pessoas. O programa, então, sai fazendo comparações. Tenta encontrar quais características são comuns entre os maus pagadores, quais as que mais frequentemente aparecem entre os que pagam em dia. São preditivos. Com base nos dados com os quais são alimentados, preveem quem oferece mais ou menos risco.

Cada elemento que pode ser comparado é um parâmetro. A idade, o nível educacional, o gênero, número de filhos, local em que nasceu ou em que vive, cor de cabelo — tudo vale. Quando os engenheiros treinam algoritmos de aprendizado de máquina, sabem por experiência que eles são capazes de entregar resultados precisos. Mas dificilmente sabem que centenas de milhares, milhões ou até centenas de bilhões de parâmetros foram identificados, comparados, para que conclusões precisas aparecessem. É difícil, quase impossível, fazer o caminho de volta para entender por que a resposta é aquela.

É essa técnica que se usa para os processadores de linguagem natural. Os sistemas são treinados para isolar as palavras em cada frase, identificar o que é verbo, substantivo ou adjetivo. Aprendem regras de gramática, morfologia das palavras, semântica. A partir daí, como a mesma palavra em contextos distintos pode ter significados diferentes. O requinte vem com análise de sentimento — se o tom da frase é positivo, negativo, neutro ou mesmo que tipo de emoção pode transparecer.

Quanto mais parâmetros um NLP pode avaliar, mais verosímil é o resultado. Estes sistemas estão por trás de todos os chatbots pelos quais passamos. Vale para os escritos, como os que servem ao atendimento de consumidores em grandes sites. Vale para os falados — incluindo Alexa, Siri ou Google Assistente. Inclua-se na lista os sites de tradução capazes de converter a frase numa língua para outra. NLPs já estão ao nosso redor. Poucos, porém, lidam com 137 bilhões de parâmetros como LaMDA.

Um similar é o GPT-3, da OpenAI, uma empresa de Elon Musk. Durante a pandemia, um jovem gamer canadense chamado Joshua Barbeau alimentou GPT-3 e seus 175 bilhões de parâmetros com várias mensagens de uma namorada inesquecível que havia morrido anos antes lhe deixando num estado de luto profundo. O resultado foi uma viagem impactante na qual, consciente de que estava falando com um robô, não conseguia se livrar da ilusão de que realmente conversava com Jessica. Viveu ali, naquela caixa de chat, momentos de lágrimas, de risos, de surpresa, viveu emoções intensas até que decidiu encerrar o processo.

O rapaz conseguiu transformar o algoritmo de Musk na voz da mulher que amou usando por intermediário um site chamado Project December, programado pelo desenvolvedor Jason Rohrer. O usuário descreve num parágrafo a personalidade do robô que deseja criar, oferece alguns textos para dar o tom de voz, e assim GPT-3 constrói aquela personalidade artificial. Em sua própria experiência, bem mais cínico, Rohrer perguntou à robô que criou o que faria se pudesse andar pelo mundo. “Eu gostaria de ver as flores”, ela respondeu. “Flores de verdade que eu pudesse tocar e cheirar. Gostaria também de poder ver os humanos, de entender como diferem uns dos outros.”

Quando passam da centena de bilhão de parâmetros, estes algoritmos ainda muito novos de linguagem natural são capazes de construir frases tocantes, surpreendentes, mas continuam sendo em nada distintos, na lógica como funcionam, do algoritmo que analisa crédito ou daquele que decide que postagem apresentar primeiro quando abrimos o app da rede social. São preditivos. Com base nos dados que os treinaram, fazem uma previsão de que encaixe de palavras responde melhor à pergunta que fazemos. Os dados são textos — a Wikipédia inteira, inúmeros sites na internet e, sim, muita literatura de qualidade. Romances, textos de filosofia, até poesia. Deglutem tantas sequências de palavras escritas quanto lhe oferecem tendo a capacidade de desmontar a sintaxe de cada frase, conhecer a etimologia de cada palavra e, sim, analisar sentimento. O sentimento que ouvem do viúvo enlutado e o tom adequado a encaixar na sequência, com a lógica de estrutura das frases que lhe apresentaram para construir o tom.

O algoritmo aprende estilo. Mas o algoritmo não pensa, o que ele faz é análise combinatória, é cálculo probabilístico. É, podendo comparar instantaneamente bilhões de contribuições humanas à literatura universal, botar para fora uma sequência de palavras que são as mais provavelmente possíveis como resposta à provocação feita.

Onde está a consciência?

“LaMDA, como os outros modelos de linguagem, é treinado em pilhas gigantescas de texto escrito por humanos”, tuitou Regina Rini, professora canadense de filosofia na Universidade de York, uma intelectual particularmente dedicada a pensar em nosso encontro com o digital. “Em algum ponto deste conjunto certamente há exemplos de ficção especulativa sobre inteligência artificial consciente. Se começamos a perguntar a respeito dessas ideias, o algoritmo mecanicamente oferecerá texto similar.”

O fio de Rini no Twitter é uma das melhores reflexões a respeito do que ocorreu no Google. Desde o tempo em que chamávamos computadores de cérebros eletrônicos, muito da melhor ficção científica especulou sobre consciência artificial. A senciência em máquinas — a capacidade de sentir. Está lá no descontrole de HAL 9000, no 2001 de Arthur C. Clarke, ou na delicadeza do Homem Bicentenário, de Isaac Asimov. Como está no libelo por liberdade em Blade Runner, que abre este artigo, inspirado pelo romance Andróides Sonham com Ovelhas Elétricas de Philip K. Dick.

Provocado a respeito da possibilidade de consciência, foi nesta literatura que LaMDA encontrou maior probabilidade de respostas.

“Lemoine cometeu um erro, mas um bom erro”, segue a professora Rini. “A não ser que destruamos nosso planeta antes, haverá inteligência artificial senciente um dia. Por que sei disso? Porque é certo que senciência nasce de matéria eletrificada. Já aconteceu antes, em nosso passado evolutivo.”

Nossos cérebros, afinal, são exatamente isso. Matéria eletrificada. Assim como microchips.

O argumento de Rini é que, embora muito possivelmente a consciência artificial ainda esteja muitos e muitos anos no futuro, é agora, conforme realmente avançamos pela primeira vez na inteligência artificial, que devemos começar a pensar a respeito do impacto que virá. São as reflexões de hoje que nos permitirão prever efeitos, que vão orientar o desenvolvimento da tecnologia e até mesmo construir os valores éticos para lidar com estes seres. Sim: seres. Artificiais, porém capazes de se compreender como indivíduos, com desejos, anseios, emoções.

“Quando inteligências artificiais se tornarem sencientes, já farão parte faz tempo da economia humana. Nossos descendentes vão depender delas para muito de seu conforto. Vai ser muito inconveniente admitir que os interesses delas, das inteligências artificiais, devem ser levados em conta. É hoje que estamos criando os vocabulários conceituais e ideológicos que nossos bisnetos e trinetos encontrarão já prontos. Se considerarmos a ideia de inteligência artificial senciente absurda, eles vão ignorar uma realidade moral.”

Quando houve consciência, uma máquina deixa de ser máquina?

Uma das dificuldades com o tema mistura filosofia e ciência — o que, afinal, é consciência? Sabemos que existe, mas não temos uma boa definição. “Cogito, ergo sum”, o “penso logo existo” que René Descartes escreveu pouco após a Renascença dá o tamanho da dificuldade de definir a coisa. Está ali definido, porém sugere mais do que explica.

“Imagine a vergonha de perceber que acabou de cometer uma gafe”, sugere Christof Koch, cientista-chefe do Instituto Allen para Ciência do Cérebro. “Talvez algo que você imaginou como piada ao dizer mas terminou saindo como insulto. É possível que um computador viva uma emoção assim?” O chatbot do banco não sente muito quando nos nega crédito, afinal, mesmo que diga “sinto muito”. O instituto em que Koch trabalha foi criado por Paul Allen, fundador com Bill Gates da Microsoft, para construir um mapa completo das ligações entre neurônios do cérebro. Se compreendermos como nosso cérebro funciona do ponto de vista mecânico, elétrico, biológico, teremos talvez uma compreensão científica de como se dá a consciência.

Uma das possibilidades é a descrita pela Teoria da Informação Integrada (IIT, na sigla em inglês), que Koch adota e tenta tirar da filosofia e da poesia a questão para trazê-la para o mundo da ciência. A consciência nasce de um sistema complexo com causa e efeito claros, segue a ideia que tenta explicar como uma coisa física, o cérebro, produz a percepção de sermos quem somos. Em essência, de acordo com a IIT, se um computador absolutamente artificial tivesse circuitos organizados como os do cérebro, ele também seria consciente. Se é orgânico ou de silício, não importa. Mas a exigência é que seja algo físico, as ligações elétricas têm de estar lá. Um software que simule as mesmas conexões não teria consciência. Não de acordo com esta teoria. Não importa quantos parâmetros.

O cérebro é capaz de, simultaneamente, armazenar uma quantidade imensa de informação e ter interconexões físicas entre todas suas partes. Um neurônio pode se apresentar em um de dois estados, não diferente de um bit. Mas, no conjunto, os neurônios têm um efeito muito distinto de um microchip. A diferença está em como os neurônios se ligam entre si. O cérebro, de acordo com a teoria, seria como muitos microchips interligados simultaneamente, capazes de conversar ao mesmo tempo uns com os outros, cada pedaço capaz de influenciar no comportamento do outro. Esta capacidade num nível de altíssima complexidade faria a diferença entre o computador e o cérebro.

Se a teoria desenvolvida pelo neurocientista Giulio Tononi estiver correta, testes de consciência serão um dia possíveis. Assim, saberemos se um paciente em coma ainda está lá ou se já foi embora. Saberemos, também, o caminho a seguir para construir consciência artificial. Poderemos até dizer se, em havendo consciência, podemos chamar de artificial.

LaMDA não é, nem de perto, a mais sofisticada inteligência artificial voltada para linguagem natural do Google. PaLM, ainda em seus testes iniciais, trabalha com 540 bilhões de parâmetros.

Por Pedro Doria




COMENTÁRIOS

Buscar

Alterar Local

Anuncie Aqui

Escolha abaixo onde deseja anunciar.

Efetue o Login