O sistema GPT-3 usa uma base de dados de centenas de bilhões de palavras para gerar novos textos.| Foto: Max Langelott/Unsplash
Ouça este conteúdo

Desde junho deste ano, aficionados de tecnologia têm falado muito sobre o GPT-3, um poderoso sistema de inteligência artificial capaz de gerar artigos jornalísticos, obras de ficção, poemas e até códigos de programação com uma verossimilhança impressionante. O sistema foi criado pelo OpenAI, laboratório da Califórnia fundado pelo bilionário Elon Musk.

CARREGANDO :)

O GPT-3 é o mais poderoso sistema desse tipo já criado, superando substancialmente seu antecessor, o GPT-2, também do OpenAI. Basicamente, ele é um robô treinado para aprender como funcionam as conexões entre as palavras e gerar textos novos a partir daí. Para isso, conta com uma base de dados gigantesca, com centenas de bilhões de palavras extraídas de diversos textos da internet.

A especialista em inteligência artificial Renata Vieira, professora da PUCRS e pesquisadora convidada da Universidade de Évora (Portugal) para projetos de Humanidades Digitais, diz que a grande novidade trazida pelo GPT-3 não está exatamente em sua forma de processar a linguagem humana, mas sim no tamanho da sua base de dados.

Publicidade

“Podemos dizer que ele é mais robusto do que inovador, uma vez que passa por um processo de aprendizado com maior volume de dados do que os antecessores. Estamos já acostumados com o autocompletar nos e-mails e smartphones. O que o GPT-3 faz é algo similar, porém, com mais refinamentos e uma base muito grande de exemplos. Esses modelos podem prever uma continuação diante do início de uma frase ou de um tema. São como um copiador sofisticado”, explica a professora.

Em junho, o OpenAI deu a um número limitado de programadores o acesso à interface de programação do GPT-3. A partir disso, amostras de conteúdos gerados pelo robô começaram a circular pela internet. Em julho, por exemplo, um estudante universitário americano criou um blog inteiro só com notícias produzidas pela inteligência artificial do GPT-3.

Leia aqui texto escrito por um robô sobre a liberdade de expressão.

GPT-3 seria capaz de gerar fake news sobre política e alimentar robô em eleições

O GPT-3 cria textos usando sua enorme base de dados para prever quais palavras podem complementar uma sentença inicial, gerando uma sequência plausível. No artigo sobre liberdade de expressão gerado pelo GPT-3 para a Gazeta do Povo, por exemplo, alimentamos o robô com o comando “Por favor, escreva um artigo sobre a liberdade de expressão” e com a frase inicial “A liberdade de expressão é um dos valores mais caros a todos os que verdadeiramente compreendem a grande importância da democracia”, retirada deste editorial. Ele continuou o trabalho a partir disso.

Em outros exemplos publicados na internet, o robô gerou textos como poemas, previsões de horóscopo, críticas de arte, piadas, episódios de seriados e comandos de programação. Uma vasta coletânea em inglês pode ser consultada aqui.

Publicidade

Um dos potenciais negativos do GPT-3 é que ele seja usado para alimentar contas falsas em redes sociais com conteúdos políticos gerados automaticamente. Em várias eleições recentes pelo mundo, inclusive no Brasil, o uso de bots em campanhas eleitorais foi causa de grandes controvérsias. Essa arma política é um dos principais alvos do projeto de lei das fake news, que tramita atualmente no Congresso.

Para Renata, o problema, nesse caso, nunca está na tecnologia, mas na intenção do criador de conteúdos. “São problemas independentes do GPT-3”, diz ela.

Para conferir a capacidade do GPT-3 de produzir fake news, confira abaixo uma NOTÍCIA FALSA, COM ERROS INFORMATIVOS, gerada em questão de segundos pela reportagem da Gazeta do Povo com uso do GPT-3:

O PSL oficializou a candidatura da deputada federal Joice Hasselmann (PSL-SP) para concorrer à prefeitura de São Paulo. Ela substituirá o atual prefeito, João Doria, que deixará o cargo para concorrer à presidência da república.

O perfil da parlamentar é diferente do atual prefeito, ela é conhecida por defender posições conservadoras. Ela foi a relatora do pacote anticrime aprovado na Câmara, cujo texto foi duramente criticado por entidades de defesa dos direitos humanos.

Publicidade

A deputada foi a autora do pedido de impeachment da ex-presidente Dilma Rousseff, em 2016. Já se posicionou favorável a projetos que restringem direitos civis de minorias como o Estatuto da Família, que tipifica a "ideologia de gênero" como um crime.

Já repercutiu de forma negativa declarações recentes sobre o povo brasileiro. Em um dos seus discursos, ela afirmou que a "democracia só existe quando a maioria é honesta". Dias antes, ela havia dito que o povo brasileiro precisa de limites. "Eu me sinto no direito de fazer o povo seguir as regras, porque a maioria do povo brasileiro é honesta", tuitou.

Inteligência artificial obedece a comandos, mas não é capaz de raciocínio abstrato

Renata Vieira explica que o GPT-3 faz “um processo sofisticado de cópia e reescrita”, parecido com o de ferramentas de tradução como o Google Tradutor. “A tradução automática baseia-se em técnicas similares, porém, precisa ter exemplos de traduções. Como ele (o GPT-3) é um copiador, pode reproduzir textos semelhantes ao que ele obteve como exemplos prévios”, explica.

Embora seja capaz de gerar até textos com grande riqueza semântica, o GPT-3 não tem a capacidade de raciocinar abstratamente. Se for confrontado com uma questão para a qual sua base de dados não apresente uma saída, ele não será capaz de criar uma solução própria.

Para o filósofo e teólogo William E. Carrol, da Universidade de Oxford, robôs nunca serão capazes de fazer nada além de simular a cognição humana. “A consciência e a atividade cognitiva permanecem realidades irredutivelmente imateriais. Pensar e querer são atividades de seres humanos. Por mais sofisticados que sejam, os computadores não pensam nem escolhem. Eles podem ser programados para executar tarefas que simulem a cognição, mas 'pensam' tanto quanto os relógios 'sabem' que horas são”, explica Carroll em um artigo.

Publicidade

A professora da PUCRS recorda, além disso, que só a capacidade de interpretação humana é capaz de enxergar sentido no que o robô executou. “Não se deve esquecer que a escrita depende de um leitor, de um contexto, de uma interpretação. Que o computador possa produzir textos que causem nos humanos uma possibilidade de interpretação que faça sentido para os humanos, não me surpreende. Me surpreenderia um computador que pudesse interpretar, analisar, compreender”, afirma.

Para ela, o GPT-3 pode acabar influenciando a forma como as pessoas pensam. Recursos como o autocompletar, por exemplo, se turbinados com o GPT-3, podem acabar orientando o pensamento das pessoas em direção a certos padrões. “As sugestões de escrita são dadas, e elas vão se acostumando a aceitar. Você vai escrever alguma coisa e o computador sugere uma continuação. Isso também é uma influência. Pode mudar a maneira como as pessoas escrevem, em um primeiro plano. Mais adiante, pode mudar como elas pensam.”