Encontre matérias e conteúdos da Gazeta do Povo
Artigo

Inteligência artificial não é chave para popularizar conhecimento

(Foto: Julien Tromeur/Unsplash )

Ouça este conteúdo

Em um contexto marcado pelo caos da oferta excessiva e indiscriminada de conteúdos, cresce a necessidade de tratamento adequado das informações. Saudada pela promessa de geração de popularização de conhecimento, a tecnologia de inteligência artificial (IA) não deve resolver o problema. E a julgar pelos casos mais recentes, estes sistemas devem aprofundar a crise informacional.

Os geradores de textos mais populares como ChatGPT, Gemini e Bing são pouco claros, quando não dispersivos, sobre as fontes de informação consultadas. Em praticamente todos os casos, também se percebe a ausência de princípios éticos básicos como o reconhecimento da autoria sobre um determinado texto, já que estes sistemas não citam ou não parafraseiam os trechos cujas informações foram publicadas por outras pessoas, como faz o jornalismo profissional.

A tecnologia de inteligência artificial tende a ser também pouco criteriosa, contribuindo para a polarização extremada de pensamento

A fragilidade da geração de textos pela inteligência artificial precisa ser compreendida em três níveis principais: primeiro, sobre a base de dados utilizada; segundo, sobre o uso dos sistemas por humanos; e terceiro, sobre a programação algorítmica. A primeira fragilidade se dá no nível da geração de conteúdo a partir de informações falsas, uma vez que a geração de textos por IA considera os conteúdos disponibilizados na rede como fonte de informação.

O ambiente virtual, sem grande regulação, tende a ser pouco restritivo e, portanto, suscetível a gerar bases de informações falsas, que são utilizadas pelos geradores de inteligência artificial. E não adianta dizer que os dados são coletados de bases científicas. No período da pandemia não foram poucos os casos de artigos publicados em revistas científicas desqualificadas.

Um segundo nível que pode, inclusive, se associar ao primeiro, diz respeito ao uso de inteligência artificial para produção aprimorada de conteúdos falsos como vídeos, áudios e imagens, a partir do que se chama comumente de deepfake.

Por fim, em um nível mais complexo e ainda pouco conhecido, se dá a programação e uso de algoritmos para que a inteligência artificial gere conteúdos capazes de distorcer informações. Os programadores não estão livres de aspectos subjetivos. Neste mesmo grupo, também são perceptíveis os casos chamados de “alucinação”, em que a programação dos algoritmos utilizados pela IA não está muito bem aprimorada, provocando a geração de textos fora da realidade.

No ano passado, o jornal New York Times testou o ChatGPT, Gemini e Bing fazendo uma série de perguntas para os sistemas. Ao ler os textos produzidos pelos geradores, os jornalistas perceberam uma série de inconsistências. Erros em datas, nomes e fatos foram observados nos resultados. 

Nos últimos anos, a proliferação de fake news, teorias conspiratórias e negacionismo transformou um problema segmentado em um problema generalizado. Sem regras claras e à serviço de big techs, a tecnologia de inteligência artificial tende a ser também pouco criteriosa, contribuindo, a exemplo do que aconteceu com as redes sociais, não para ser um espaço de democratização e geração de conhecimento, mas para a polarização extremada de pensamento e proliferação de desinformação.

Guilherme Carvalho, doutor em Sociologia, pós-doutorado em Jornalismo, é professor de Jornalismo do Centro Universitário Internacional Uninter, membro do Comitê de Ética em Pesquisa da Uninter, professor do Programa de Pós-Graduação em Jornalismo da UEPG e atual diretor de comunicação da Associação Brasileira de Ensino de Jornalismo (ABEJ).

Conteúdo editado por: Jocelaine Santos

Use este espaço apenas para a comunicação de erros

Principais Manchetes

Receba nossas notícias NO CELULAR

WhatsappTelegram

WHATSAPP: As regras de privacidade dos grupos são definidas pelo WhatsApp. Ao entrar, seu número pode ser visto por outros integrantes do grupo.