Para aqueles que acharam estranho Chomsky e Musk serem citados na mesma frase, explico: eles só têm em comum o fato de desconfiarem da mesma coisa, da Inteligência Artificial (IA). Musk, perguntado em uma entrevista sobre uma coisa da qual tinha medo respondeu sem hesitar que era a IA. Pois, é ele mesmo, o cara que quer implantar chips nos cérebros das pessoas, tem medo dos rumos da Inteligência Artificial. Já o cientista e comentarista político – péssimo, diga-se de passagem – Noam Chomsky nos oferece mais substância para julgar a nova onda de entusiasmo sobre a IA. Quero comentar aqui um artigo de Chomsky publicado no The New York Times sob o título “A falsa promessa do ChatGPT ”.
Chomsky diz que a modalidade favorita de IA – máquinas que aprendem e imitam a inteligência humana – podem “degradar nossa ciência e desestruturar nossa ética”. Máquinas aprendem de um jeito fundamentalmente diferente do ser humano. Isso torna a sua capacidade “incorrigivelmente insuficiente”, segundo ele. O que fazem os “robôs de inteligência” como, por exemplo, o ChatGPT? Eles adquirem grandes quantidades de informação e analisam padrões e estatísticas para criar resultados que imitam a linguagem e o pensamento humano. Chomsky argumenta que chamar isso de “inteligência” é ir um pouco longe demais. Os cérebros artificiais ultrapassam o cérebro humano na quantidade de informações que conseguem adquirir e processar, mas nunca vão ter a capacidade criativa de um cérebro humano. Conseguimos resultados maravilhosos com muito menos informação. Como disse o naturalista Wilhelm Humboldt, seres humanos têm a capacidade de “produzir o infinito através de meios finitos.”
A inteligência humana será sempre falível e essa é uma de suas mais interessantes capacidades, a da autocrítica criativa.
Chomsky compara a inteligência do robô IA com a capacidade cognitiva de uma criança. Enquanto é preciso alimentar a máquina com um gigantesco número de sentenças para que ela possa analisá-las e assim ser capaz de produzir sentenças gramaticais, uma criança sendo exposta a um número bem limitado de sentenças é capaz de intuir e aprender toda a estrutura gramatical de uma língua. O “sistema operacional” da mente de uma criança ainda é infinitamente superior ao do IA, porque inclui coisas que a máquina é incapaz de reproduzir, por exemplo as explicações causais e o que chamamos de “pensamento”.
Chomsky explica que os cérebros artificiais são capazes de realizar dois processos, o de descrever e o de predizer, mas o pensamento humano é muito mais complexo do que esses dois mecanismos. O “pensar humano” inclui inferências causais, sejam elas produzidas pela percepção do momento, ou por conhecimentos subjetivos, além de usar uma combinação de inferências e implicações subentendidas. A combinação desses processos é a “explicação”. Submetemos nossas explicações constantemente à autocorreções e testes no dia a dia, reformulando-os, uma coisa que a máquina não será capaz de fazer. Seres humanos erram, é claro, mas, como afirma o linguista, faz parte do estar certo a capacidade de estar errado. A inteligência humana será sempre falível e essa é uma de suas mais interessantes capacidades, a da autocrítica criativa.
O robô é amoral – e ser amoral não é a mesma coisa que neutralidade.
As máquinas são capazes de te dizer o que é ou era a questão crucial em um determinado assunto. Mas não são capazes de dizer o que a questão não é, e o que poderia ser ou não. Quando Sherlock Holmes diz a Watson, “quando você elimina o impossível, o que resta, mesmo que seja improvável, deve ser verdadeiro”, ele se refere a essa capacidade muito humana de julgar quais são os aspectos pertinentes a uma questão específica, filtrando as irrelevâncias e focalizando no essencial. Essa capacidade, que não é copiável mecanicamente, deixa as máquinas no chinelo, numa condição sub-humana.
“ChatGPT é incapaz de distinguir o possível do impossível”. Enquanto o ser humano é capaz de fazer julgamentos valiosos sobre a verdade com uma quantidade mínima de informações, e de maneira eficiente e elegante, as máquinas, apesar de serem capazes de acumular uma quantidade imensa de informações, não são capazes de entender sutilezas sintáticas e semânticas que fazem com o sentido de uma frase varie da norma. Um exemplo que o linguista oferece é o da frase: “João é muito teimoso para conversar” – em inglês com uma sintaxe mais simples: “John is too stuborn to talk to” – pode ter como sentido: “A natureza de João é a de ser teimoso, portanto, conversar com ele é uma impossibilidade”. Mas na interpretação da IA ela vai ter sempre o sentido mais direto: “João não conversa porque é teimoso” – A frase vai ser interpretada assim seguindo o paradigma do sujeito de “João come maçã”.
Eu acredito que é melhor para o mundo que um robô de IA se recuse a formular julgamentos a respeito de alguns itens polêmicos.
E aqui eu abro um parêntesis para comentar que, segundo Chomsky, a criança aprende porque é portadora de um mecanismo inato que o habilita a aprender, a famosa UG (Universal Grammar). Por causa disso, um adversário teórico de Chomsky, o linguista Daniel Everett, conhecido no Brasil e mundialmente por seu trabalho com a língua amazônica Pirahã, comentou sobre o artigo, dizendo que, ao contrário do que Chomsky afirma, crianças também não são capazes de fazer as distinções do exemplo, e que o ChatGPT desprovou foi a necessidade uma UG para que o robô dominasse a linguagem.
Mas voltando a Chomsky, em seu artigo, ele põe o dedo em outro problema dos robôs que aprendem. O predecessor do ChatGPT, o Microsoft Tay Robot, causou muita indignação ao reproduzir argumentos misóginos e racistas em um período quando estava no ar. Descobriu-se que o Tay havia sido propositalmente contaminado por assediadores profissionais e programado para poluir a rede e criar reações negativas. Por causa dessa experiência, os criadores do ChatGPT preferiram pisar em terreno seguro e evitar questões morais ou discussões profundas. Aparentemente, o ChatGPT mantém uma posição “neutra”. Só que não.
O robô é amoral – e ser amoral não é a mesma coisa que neutralidade. Chomsky diz que quando abdicamos de pensar moralmente abdicamos também da criatividade e de fazer contribuições sérias ao futuro da humanidade. Indiferença moral é sinal de falta de inteligência, diz o cientista. “O ChatGPT exibe a sua pior característica, uma espécie da ‘banalidade do mal’ (citando Arendt); “sua linguagem é plagiarista, apática e evasiva para evitar criar problemas. Ao invés de emitir opiniões sobre temas polêmicos, o Chat finge ignorância...”
Everett, ao contrário de Musk, diz que teme o ChatGPT tanto quanto teme a sua geladeira. Temos de temer mesmo é a uso que a inteligência humana vai fazer dessa inteligência artificial. E aqui eu, autora, também discordo de Chomsky. Eu acredito que é melhor para o mundo que um robô de IA se recuse a formular julgamentos a respeito de alguns itens polêmicos. Para mim, o estrago seria muito maior se o cérebro eletrônico empurrasse goela abaixo das pessoas que o usam suas ideias sem filtrá-las toda a (i)moralidade do Vale do Silício e da academia americana, que apesar de toda a tentativa de “neutralidade”, não deixa de mostrar suas garras. Tente pedir ao ChatGPT uma piada sobre Jesus Cristo. A piada vem e te garanto que com muita sujeira. Mas peça logo depois uma sobre Mohamed e veja se consegue alguma coisa.
Deixo para a meditação do leitor a ironia e presciência do poeta Cassiano Ricardo: Por que o raciocínio,/ os músculos, os ossos?/ A automação, ócio dourado./ O cérebro eletrônico, o músculo mecânico/ mais fáceis que um sorriso./ Por que o coração?/ O de metal não tornará o homem/ mais cordial,/ dando-lhe um ritmo extra-corporal?/ Por que levantar o braço/ para colher o fruto?/ A máquina o fará por nós./ Por que labutar no campo, na cidade?/
A máquina o fará por nós./ Por que pensar, imaginar?/ A máquina o fará por nós./ Por que fazer um poema?/ A máquina o fará por nós./ Por que subir a escada de Jacó?/ A máquina o fará por nós./ Ó máquina, orai por nós./
Braulia Ribeiro é mestre em Linguística, mestre em Divindade pela Yale University e doutoranda em História e Teologia Política na University of St. Andrews (Escócia).
Deixe sua opinião