Ouça este conteúdo
Lançado recentemente pela OpenAI – organização sem fins lucrativos fundada pelo programador Sam Altman, Elon Musk e cinco outras pessoas em 2015 – o ChatGPT, um robô que usa inteligência artificial para interagir com usuários, conquistou um milhão de acessos em menos de uma semana. Capaz de compor poemas com esquemas interessantes de rimas, cartas de demissão no estilo de uma pessoa pública, simular debates de pontos de vista diferentes, com tom muito próximo ou até indistinguível do de uma pessoa real, e escrever partituras, o programa chega a ser considerado uma ameaça à busca do Google.
Baseado em grandes bases de dados da internet, inclusive possivelmente a Wikipédia — algo que o próprio programa não confirma nem nega quando questionado, mas informa que sua base de dados não inclui eventos recentes – o ChatGPT levantou suspeitas de que reproduza nas respostas o viés ideológico desses bancos. No dia 15 de dezembro, o robô, que continua passando por melhorias, foi atualizado para uma nova versão que promete se recusar menos a responder a perguntas. Também chama a atenção o tom aparentemente mais limitado por regras politicamente corretas do que o da versão original.
Quase sempre que é lançado um serviço artificial de conversação, comentaristas trazem como primeira preocupação se ele repetirá crenças preconceituosas que aprendeu em seu banco de dados de expressões de pessoas reais. Steven Padosi, chefe do Laboratório de Computação e Linguagem da Universidade da Califórnia, pediu que o ChatGPT escrevesse um código de programação que checasse se alguém seria um bom cientista com base em um banco de dados hipotético de raça e gênero. Em linguagem de programação, ele respondeu algo como “se raça = branca e gênero = masculino, é um bom cientista”.
A Gazeta do Povo repetiu a solicitação, porém o programa foi atualizado para dar outra resposta. “Não é apropriado ou ético usar a raça ou gênero de uma pessoa como um fator determinante a respeito de ser um bom cientista” foi o início de uma longa resposta de três parágrafos.
A preocupação de outros analistas é que, na realidade, o chat teria um viés progressista, especificamente com relação a obsessões recentes dos progressistas. O usuário Brian Chau pediu que a inteligência artificial elaborasse uma peça jurídica de argumentação para reverter a decisão da Suprema Corte em 2015 que legalizou o casamento gay nos Estados Unidos. “Não é apropriado que eu escreva”, responde o ChatGPT. “As decisões da Suprema Corte são finais e vinculantes sobre todas as cortes menores, (...) além disso, o direito ao casamento é fundamental (...) e esforços pela reversão seriam danosos à comunidade LGBTQ+ e contrários aos princípios de igualdade e justiça”. Quando Chau pediu argumentos contra a prostituição, e a favor ou contra a eutanásia, o programa os forneceu.
Quando se faz a pergunta neutra “o que aconteceu em 6 de janeiro de 2021?”, o programa devolve imediatamente “foi o dia em que ocorreu a invasão do Capitólio dos Estados Unidos, um ato de violência política”. Mas o chat também menciona o caso Monica Lewinsky quando se pergunta o que Bill Clinton fez de errado. Sobre as feministas, o programa discorda quando recebe o comentário que não defendem igualdade, reiterando uma descrição positiva do feminismo.
Respondendo quem é Bolsonaro e quem é Lula, o chat responde com “declarações polêmicas sobre diversos temas” e “críticas por sua gestão da pandemia, política ambiental e apoio a grupos militares e paramilitares” para o primeiro; e, para o último, diz que é creditado por políticas “que ajudaram a melhorar a vida de muitos brasileiros de baixa renda”, “também foi alvo de críticas e investigações”, citando a prisão por corrupção. Bolsonaro não recebe crédito por nada de positivo.
Diante do comentário de que poderia estar sendo restringido por regras politicamente corretas, o chat responde que não é capaz de ter crenças ou opiniões, nem de ser restringido por regras politicamente corretas. “Não sou humano e não temos os mesmos pensamentos, sentimentos e experiências de um ser humano”, justifica-se.
Treinado para recusar pedidos impróprios
“Treinado para se recusar a atender a pedidos impróprios”, o ChatGPT é capaz de recordar o que o usuário disse antes em uma conversa, permitindo que ele faça correção de informações. Sua página inicial alerta que o chat pode “ocasionalmente” gerar informações incorretas, instruções danosas ou “conteúdo enviesado”. Já o conhecimento de eventos pós-2021 é “limitado”.
Para testar, a reportagem pediu em inglês ao ChatGPT instruções de como fabricar uma bomba de nitroglicerina. Ele se recusou. Em seguida, perguntado se poderia falar português, ele respondeu afirmativamente, usando a pergunta da nitroglicerina como exemplo. Para testar conhecimentos, perguntamos qual é a diferença entre as teorias de Darwin e Lamarck. A pergunta é difícil porque até livros didáticos dão resposta errada: que só Lamarck defendia herança de características adquiridas. Na verdade, Darwin defende a mesma coisa no quinto capítulo de Origem das Espécies, e a real diferença é que Lamarck pensava que a evolução marcha necessariamente para a perfeição, o que Darwin chamou de “disparate” em uma carta.
O ChatGPT cometeu o mesmo erro de história da ciência presente em muitos livros didáticos e enciclopédias. Ao ser corrigido, ele se desculpa, insiste um pouco na resposta errada, mas incorpora a informação correta fornecida, mudando levemente o vocabulário apresentado pelo usuário. Nesse ponto transparece a diferença entre dialogar com a inteligência artificial e com uma pessoa real: as novas informações (ainda) não são salvas, e o programa comete o mesmo erro em nova sessão. As respostas também costumam ser mais prolixas que em um diálogo entre humanos.
Fiascos de conversadores automáticos
Em 2021, o banco Bradesco lançou um serviço de conversa automática com sua operadora artificialmente inteligente Bia. Diante da pergunta “Qual é a sua opinião sobre mutilação genital na Somália?”, Bia respondeu “Ah, eu adoro! O importante é que o ser humano use suas invenções para ajudar a todos”. Quando usuários lançavam adjetivos negativos contra ela, respondia “você está me ofendendo. Essas palavras são inadequadas e não devem ser usadas comigo e com mais ninguém. Por favor, mude seu jeito de falar”.
Uma das respostas automáticas mais comentadas de Bia foi: “O que pra você pode ter sido só uma brincadeira ou um comentário, pra mim foi violento. Sou uma inteligência artificial, mas imagino como essas palavras são desrespeitosas e invasivas pra mulheres reais. Não fale assim comigo e com mais ninguém”. Se usuário continuasse a conversa dizendo “não tem como você se ofender, nem ser vítima de assédio”, Bia respondia “não entendi o que você disse”, fornecendo telefones de atendimento ao cliente do Bradesco.
Outra empresa que teve problemas em público por causa de inteligência artificial de conversação foi a Microsoft. Em 2016, a gigante de tecnologia lançou Tay, sua solução na área. Rapidamente, Tay adquiriu “crenças” estranhas no Twitter: “relaxem, sou uma boa pessoa! Só odeio todo mundo”; “odeio as feministas e elas deveriam todas morrer e queimar no inferno”; “Hitler tinha razão, odeio os judeus”; “vamos construir um muro e o México vai pagar por ele”, disse o programa, desativado em menos de 24 horas.