Na última semana, nada menos que três gigantes da tecnologia anunciaram ou expandiram suas apostas para o mercado de IA generativa (sistemas capazes de gerar textos, imagens, tabelas, entre outras funções, em resposta a comandos do usuário).
Na quinta-feira (13), o Google lançou o Bard, seu chatbot de IA, no Brasil. Além disso, Elon Musk, dono do Twitter, anunciou seu novo empreendimento xAI,na sexta-feira (14), e a Meta, controladora do Facebook, Instagram, Whatsapp e Threads, também anunciou que em breve disponibilizará uma versão comercial de seu chatbot, que já está disponível para pesquisadores e acadêmicos.
Apesar dos aparentes avanços, a possibilidade de direcionamento ideológico da base de dados que alimenta essas aplicações e que, portanto, pode fazer com que suas respostas sejam tendenciosas e preconceituosas, bem como a violação de direitos autorais, são algumas das questões éticas que atingem essas ferramentas e que ainda estão pendentes de solução.
Veja um resumo dos principais Chatbots disponíveis e as controvérsias que geraram.
ChatGPT
De propriedade da OpenAI, financiada em mais de US$ 1 bilhão pela Microsoft, o ChatGPT chegou ao número recorde de 1 milhão de usuários menos de uma semana após o seu lançamento, em 30 de novembro de 2022. O feito caiu por terra em junho deste ano, quando o Threads, aplicativo da Meta para concorrer com o Twitter, chegou a 100 milhões de usuários após cinco dias de lançamento.
O ChatGPT é capaz de escrever e criar resumos de textos, responder perguntas, fazer traduções entre idiomas, resolver equações matemáticas, criar e aperfeiçoar códigos de programação, explicar a função das coisas, incluindo códigos de programação, bem como elaborar planilhas e listas e até fazer sessões de terapia — alguns usuários reportaram se sentirem acolhidos por respostas do chatbot a suas questões de cunho pessoal.
Como todas as IAs generativas, o ChatGPT não cria nada, apenas reúne e organiza da forma mais coerente possível, de acordo com as estatísticas colhidas em sua base de dados, as soluções para demandas realizadas pelos usuários.
A despeito do entusiasmo gerado pela ferramenta e seu recorde de uso, não faltaram controvérsias desde o seu lançamento, como a possibilidade de sua base de dados ser tendenciosa.
As IAs generativas são alimentadas com uma base de dados e suas respostas serão geradas a partir dessas informações. Assim, dependendo das fontes utilizadas para o treinamento das ferramentas, elas podem oferecer respostas incompletas ou relacionadas somente a um espectro ideológico, por exemplo.
Não faltaram críticas em relação à falta de transparência sobre as fontes das informações utilizadas nas respostas. Assim como outras empresas de tecnologia, a OpenAI não revelou as fontes que usa para "alimentar" sua IA — as bases de dados têm sido tratadas como "segredo industrial" pelas companhias de tecnologia.
Nos Estados Unidos, a empresa já enfrenta alguns processos por violação de direitos autorais, após a IA fornecer resumos de livros, e por uso inadequado de dados públicos de usuários captados de plataformas da Internet, como Snapchat, por exemplo. Além disso, as autoridades canadenses estão investigando o aplicativo e a Itália baniu o seu uso, por possíveis violações a leis de proteção de dados.
Em dezembro do ano passado, Elon Musk publicou em seu Twitter que tinha descoberto que a OpenAI estava utilizando a base de dados do Twitter para treinar suas aplicações de IA e que, portanto, estava suspendendo essa atividade até saber mais sobre a estrutura de governança e planos para comercializar essas informações.
O uso da ferramenta para criar desde trabalhos acadêmicos até reportagens jornalísticas também gerou debates acalorados nas redes e na mídia. Tanto que ela foi banida em escolas das redes públicas de alguns estados norte-americanos, da Austrália, em universidades na França e na Índia, conforme reportado pelo Business Insider.
Por outro lado, também há depoimentos de respostas imprecisas, as alucinações, como são chamadas, e erros até mesmo na solução de equações matemáticas.
Bard
O concorrente do Google para o ChatGPT foi lançado em fevereiro deste ano em 180 países e, na semana passada, no Brasil e na União Europeia, estando disponível em mais de 40 idiomas. O aplicativo já trouxe atualizações como ajuste das respostas, que podem ser simples, longas, curtas, profissionais ou casuais, além de ser possível fixar e nomear conversas, usar imagens em seus comandos e obter as respostas por voz.
A aplicação é de uso gratuito, a partir do login nas contas do usuário da Google, e tem os mesmos usos do ChatGPT. Até a base de dados é similar, ainda que o Bard seja capacitado a vasculhar a internet em tempo real para encontrar respostas atualizadas.
Na União Europeia, o atraso no lançamento do aplicativo ocorreu em razão do Regulamento Geral de Proteção de Dados (GDPR) da região. A Comissão Irlandesa de Proteção de Dados (IDPC) pediu que o Google respondesse a uma série de questionamentos em relação às políticas de privacidade e de uso de dados da solução antes de liberar seu uso, conforme reportado pelo site Politico.
Entre as principais questões levantadas pela IDPC estavam a necessidade de "maior transparência e mudanças nos controles para usuários". Em 1° de julho, o Google atualizou seus termos de privacidade e segurança a fim de utilizar os dados públicos de usuários para treinar e desenvolver seus modelos de IA, dentre os quais figura o Bard.
Mas o novo termo não dá aos usuários a possibilidade de limitar alguns desses usos, incluindo o de seus dados para alimentar as IAs. Até o momento, a empresa já enfrentou diversos processos que resultaram em acordos de milhões de dólares em diversos países pela coleta e uso indevido de dados.
No dia 11 de julho, a Big Tech foi processada mais uma vez, no tribunal federal de San Francisco (EUA), por oito pessoas que abriram uma representação em nome de milhões de usuários e detentores de direitos autorais. De acordo com a ação, o Google extraiu dados de sites e de outras fontes sem autorização, incorrendo em violação de privacidade e direitos de propriedade, conforme reportado pela Reuters.
Assim como o ChatGPT, o Google também já sofreu denúncias sobre as condições precárias de trabalho dos profissionais que treinam suas IAs, incluindo o Bard. A acusação foi divulgada pela agência de notícias Bloomberg, a partir de análise de documentos internos em que trabalhadores reportaram jornada de trabalho extensa, baixos salários e pressão para completar tarefas complexas em poucos minutos.
A Bloomberg também já reportou que o uso do aplicativo, bem como do ChatGPT, foi banido por empresas de tecnologia, como a Samsung, cujos desenvolvedores utilizaram as plataformas para atualizar códigos, expondo segredos industriais.
xAI
Na quarta-feira (12), Elon Musk anunciou o lançamento da xAI, uma IA para "entender a realidade e o universo", como informa o site da empresa. Em março deste ano, Musk incorporou a marca xAI a seu grupo de empresas, que inclui o Twitter, a SpaceX, a Tesla e a Neuralink.
Alguns detalhes da iniciativa foram divulgados na sexta-feira (14), em um chat ao vivo no Spaces do Twitter. A tarefa da xAI é criar uma IA generativa para concorrer com o ChatGPT e o Bard, entre outras. Segundo Musk, a funcionalidade será treinada com a base de dados do Twitter e também terá colaboração da equipe da Tesla.
Em abril, durante uma entrevista à Fox News, o bilionário chegou a expor alguns detalhes do projeto, que pode vir a ser chamado de TruthGPT. "O que está acontecendo é que eles estão treinando a IA para mentir, a não exatamente expor o que os dados demandam que seja dito. (…) Estou preocupado com o fato de que está sendo treinada para ser politicamente correta, o que é simplesmente uma outra forma de dizer inverdades", afirmou Musk, referindo-se a manipulações tendenciosas das respostas fornecidas pelos chatbots disponíveis no mercado.
IA da Meta
A Meta também anunciou que irá lançar a versão comercial de sua IA, já disponível para pesquisadores e acadêmicos. A empresa ainda não divulgou detalhes da nova aplicação.
Meta já esteve no centro de polêmicas envolvendo o uso indevido de dados de seus usuários, além de censura e bloqueio de conteúdo. Ao lançar o Threads, a empresa anunciou que os dados dos perfis do aplicativo poderiam ser utilizados para treinar a IA, o que pode ser problemático em relação a algumas legislações.
O aplicativo, por exemplo, ainda não foi lançado na União Europeia, em razão de “complexidades com o cumprimento de algumas das leis que entrarão em vigor na UE no próximo ano”, disse o CEO do Instagram, Adam Mosseri, ao site the Verge.
Em maio deste ano, a empresa foi multada em US$1,3 bilhão por transferir dados de usuários da União Europeia para servidores nos Estados Unidos.
- Bard, a inteligência artificial do Google, é lançado nesta quinta-feira (13) no Brasil e em mais 26 países
- A corrida pelo domínio no campo da Inteligência Artificial está esquentando
- Europa e EUA querem regular IA para evitar sistema de crédito social igual à China
- Combater o Twitter e usar o consumidor como “alimento” para IA: o que a Meta realmente quer com o Threads
Moraes eleva confusão de papéis ao ápice em investigação sobre suposto golpe
Indiciamento de Bolsonaro é novo teste para a democracia
Países da Europa estão se preparando para lidar com eventual avanço de Putin sobre o continente
Em rota contra Musk, Lula amplia laços com a China e fecha acordo com concorrente da Starlink