Encontre matérias e conteúdos da Gazeta do Povo
Madeleine Lacsko

Madeleine Lacsko

Reflexões sobre princípios e cidadania

Você nunca deve acreditar que “a culpa é do algoritmo”

(Foto: Pixabay)

Ouça este conteúdo

Se você é jovem há tanto tempo quanto eu, deve lembrar da época em que o gerente do banco parou de resolver tudo. Do dia para a noite, muitas coisas foram simplificadas mas, quando elas davam problemas, não havia mais aquele mecanismo de ligar para o gerente e ouvir "deixa que eu resolvo, passa depois aqui para assinar". Eles passaram a dizer coisas esquisitas como "desculpa, mas isso o Sistema não permite". Naquela época longínqua, ficávamos indignados. Hoje, é natural que injustiças reais contra pessoas reais sejam cometidas por obra e graça do Algoritmo.

Há quem diga que estamos emburrecendo mas eu sou uma eterna otimista e prefiro outra explicação. Aprendemos, de cabeçada em cabeçada na porta, que é muito mais fácil driblar o Sistema do que tentar fazer com que alguém o conserte. O mesmo vale para o Algoritmo. Há, no entanto, uma diferença fundamental entre uma situação e outra. As grandes empresas e o poderio econômico continuaram tendo sua sala vip na época do Sistema. Na era do Algoritmo, estamos todos de arquibancada. Isso tem consequências.

Estar no universo digital é hoje obrigatório para praticamente todos os setores da economia. O Algoritmo, tratado como vice-Deus ou entidade autônoma, não passa de uma sequência numérica feita por humanos para determinar tarefas às máquinas. Os limites éticos, morais e legais para a execução das tarefas podem ou não ser colocados nessas instruções, é uma decisão humana. Para além da questão de certo e errado, estamos falando da regulação da economia. Existem regras para que a competição seja justa, quando elas são atropeladas para alguém ganhar mais, invariavelmente outro será tratorado.

As críticas à comunicação digital são infindáveis, só que ela veio para ficar, é uma realidade. Não podemos ignorar os inúmeros benefícios das plataformas digitais e da Inteligência Artificial para a humanidade e o mundo de possibilidades que foi aberto para o desenvolvimento humano. É possível integrar novas indústrias à lógica da digitalização e da inteligência artificial sem cair nos mesmos problemas éticos e regulatórios que temos hoje? A London School of Economics está fazendo um experimento com órgãos de comunicação da Europa.

Desde o início da pandemia se percebeu que a utilização de sistemas digitais e inteligência artificial seria naturalmente acelerada nos meios de comunicação, devido à combinação do isolamento com incerteza e alta demanda por informações confiáveis. Você até já deve ter visto por aí experiências em que "robôs" ou programações de inteligência artificial escrevem textos, editam imagens, até montam vídeos sem a interferência humana no processo, apenas na programação inicial.

No mundo do Direito, essa aplicação já é uma realidade tanto para processos judiciais quanto para recursos de multas de trânsito. As taxas de sucesso da união homem-máquina nessa área já são impressionantes. No entanto, há uma diferença importante: o controle humano da entrega final. Ainda que pesquisas, argumentação ou até probabilidades de estatégia jurídica sejam analisadas por inteligência artificial, quem decide sobre o caso é um ser humano. Existe, dessa forma, um controle sobre o produto final que a interface com a tecnologia deixará para a sociedade. Não é o caso das redes sociais nem do jornalismo.

No jornalismo, a partir do momento em que se desenvolve a programação da inteligência artificial e se traça a rotina de tarefas a serem cumpridas, princípios a serem respeitados e limites a observar, o produto sai automaticamente para consumo final. Até este ano, o principal uso da inteligência artificial nas redações era para avaliação de performance dos conteúdos e impulsionamento de vendas. Já existia algum risco de haver conflito entre princípios éticos e performance. Quando se trata da produção de informação, esses riscos são elevados em muitas proporções.

É por isso que a London School of Economics fez, em março, um chamamento a veículos de imprensa para um trabalho colaborativo sobre usos da inteligência artificial no jornalismo e como estabelecer parâmetros éticos que garantam a manutenção dos princípios da organização no resultado final das ações. "Enquanto todos nós nos adaptamos ao impacto da pandemia do coronavírus na maneira como vivemos e trabalhamos, os jornalistas veem a colaboração internacional como uma oportunidade, apesar, ou mesmo por causa das crescentes restrições à inovação. Pessoas em uma variedade de organizações de notícias ao redor do mundo, de marcas locais a internacionais, nos disseram que, em muitos casos, a inovação de longo prazo teve que ficar em segundo plano para tarefas mais urgentes", diz o site do Journalism AIColab da LSE.

No mundo todo, os líderes de organizações jornalísticas sabem que a inteligência artificial, no modelo interação homem-máquina, é o futuro do setor. É natural que antes da pandemia a maioria já tivesse uma programação de médio e longo prazo para avançar no uso desses sistemas e na sua integração aos processos jornalísticos tradicionais. Ocorre que muitos desses planos foram atropelados por novas necessidades urgentes que passaram a surgir em virtude da pandemia.

Já sabemos dos riscos do uso de plataformas digitais sem pensar nas consequências é irresponsável. As redes sociais foram se desenvolvendo ao sabor do vento e contendo danos à medida que são causados. Com o jornalismo, outro modelo econômico é possível, aquele que parte da relação de causa e consequência da interação entre seres humanos e inteligência artificial, tendo como prioridade os princípios jornalísticos e das organizações. Parece uma ideia sensacional, a questão é como colocar em prática. Isso que o Jornalism AIColab tenta fazer, traçar modelos e acompanhar se eles realmente funcionam.

Diversas empresas de vários países trabalham juntas, em projetos paralelos, cada um voltado para a realidade da própria organização. São elas: AFP (França), Archant (Reino Unido), Axel Springer (Alemanha), Bayerischer Rundfunk (Alemanha), Deutsche Welle (Alemanha), The Guardian (Reino Unido), Jagran New Media (Índia), Mediafin (Bélgica), La Nación (Argentina), Nice-Matin (França), Reach plc (Reino Unido), La Repubblica (Itália), Reuters (global), RTVE (Espanha), Schibsted (Países Nórdicos), South China Morning Post (Hong Kong), Der Spiegel (Alemanha), VRT News (Bélgica) e Yle News Lab (Finlândia).

Há um problema grave com a programação das redes sociais que vem de base, a falta de impor ao algoritmo qualquer limite ético, moral ou de respeito à dignidade humana. Vemos hoje uma tentativa de consertar o avião voando, empresas bilionárias que não conseguem se manter na legalidade e, dia após dia, vão enfrentando embates com governos e com outros ramos da economia. À medida em que a economia fica mais dependente do mundo digital, o problema fica mais evidente. A falta de cumprimento de leis e regras éticas pelas plataformas afeta negócios de empresas e pessoas físicas, problema que é possível não repetir na reestruturação forçada do jornalismo.

Um dos veículos participantes da experiência, a Bayerischer Rundfunk, BR, empresa de comunicação pública do estado alemão da Bavária, com público diário de 8 milhões de pessoas em todo o país, desenvolveu um guia com 10 princípios éticos para o uso da inteligência artificial nas redações. A iniciativa foi produzida pelo time composto de jornalistas, jornalistas de dados, especialistas em machine learning, desenvolvedores de produtos e designers. Pode ser o primeiro passo de um modelo viável economicamente para todos os produtos de comunicação, inclusive redes sociais.

"Não importa a tecnologia que usamos, nunca é um fim em si mesma. Em vez disso, deve nos ajudar a cumprir um propósito maior: fazer bom jornalismo. O uso da tecnologia orientado para o propósito orienta nosso uso de inteligência artificial e todas as outras formas de automação inteligente. Queremos ajudar a moldar a colaboração construtiva da inteligência humana e da máquina e implantá-la com o objetivo de melhorar nosso jornalismo", diz a BR sobre as recém-lançadas Diretrizes Éticas para o Uso de Inteligência Artificial. O original em inglês pode ser consultado aqui. Segue a tradução:

DIRETRIZES ÉTICAS PARA O USO DE INTELIGÊNCIA ARTIFICIAL - BR - ALEMANHA

Sempre nos perguntamos antes de empregar uma nova tecnologia: isso realmente oferece um benefício tangível para nossos usuários e funcionários da BR? O trabalho dos nossos jornalistas é e será insubstituível. Trabalhar com novas tecnologias aumentará sua contribuição inestimável e introduzirá novas atividades e funções para a redação. Para responder à questão do benefício repetidas vezes em bases sólidas, demos a nós mesmos dez diretrizes básicas para nosso uso diário de IA e automação.

1. Benefício do usuário
Implementamos IA para nos ajudar a usar os recursos em que nossos usuários nos confiam com mais responsabilidade, tornando nosso trabalho mais eficiente. Também usamos IA para gerar novos conteúdos, desenvolver novos métodos de jornalismo investigativo e tornar nossos produtos mais atraentes para nossos usuários.

2. Transparência e Discurso
Participamos do debate sobre o impacto social dos algoritmos, fornecendo informações sobre tendências emergentes, investigando algoritmos, explicando como as tecnologias funcionam e fortalecendo um debate aberto sobre o futuro papel da mídia pública em uma sociedade de dados. Estudamos o discurso da ética da IA ​​em outras instituições, organizações e empresas, a fim de verificar e aprimorar nossas diretrizes para evitar um fosso entre a teoria e a prática. Deixamos claro para nossos usuários quais tecnologias usamos, quais dados processamos e quais equipes editoriais ou parceiros são responsáveis ​​por eles. Quando encontramos desafios éticos em nossa pesquisa e desenvolvimento, nós os transformamos em um tópico a fim de aumentar a consciência para tais problemas e tornar nosso próprio processo de aprendizagem transparente.

3. Diversidade e foco regional
Embarcamos em novos projetos conscientes da diversidade social da Baviera e da Alemanha. Por exemplo, buscamos modelos de dialeto em aplicações de fala em texto e dados de treinamento livres de preconceitos (responsabilidade algorítmica). Trabalhamos com startups e universidades da Baviera para fazer uso da competência de IA na região e apoiar a comunidade por meio de casos de uso na indústria de mídia e na academia. Nós nos esforçamos para obter o máximo de confiabilidade em nossas operações e podemos optar por trabalhar com empresas de tecnologia escolhidas caso a caso. Sempre que possível, trabalhamos dentro de nossas redes da ARD e da European Broadcasting Union (EBU), e trazemos conscientemente os aspectos éticos de qualquer proposta de aplicação para a colaboração.

4. Cultura consciente de dados
Exigimos informações sólidas sobre suas fontes de dados de nossos fornecedores: Quais dados foram usados ​​para treinar o modelo? Da mesma forma, buscamos integridade e qualidade dos dados de treinamento em todo o desenvolvimento interno, especialmente para evitar o viés algorítmico nos dados e tornar visível a diversidade da sociedade. Aumentamos continuamente a conscientização entre nossos funcionários para o valor dos dados e a importância de metadados bem mantidos. Apenas dados confiáveis ​​podem produzir aplicativos de IA confiáveis. Uma cultura consciente de dados é vital para nosso trabalho diário e uma importante tarefa de liderança para a mídia de serviço público preparada para o futuro. Coletamos o mínimo de dados possível (prevenção de dados) e o máximo de dados necessários (economia de dados) para cumprir nosso mandato democrático. Continuamos a manter elevados padrões de segurança de dados e a aumentar a consciência para o armazenamento, processamento e eliminação responsáveis ​​de dados, especialmente quando se trata de dados pessoais. Projetamos a experiência do usuário em nossos serviços de mídia tendo em mente a soberania dos dados para o usuário.

5. Personalização responsável
A personalização pode fortalecer o valor de informação e entretenimento de nossos serviços de mídia, desde que não prejudique a diversidade social e evite efeitos de bolha de filtro indesejados. Portanto, usamos análises orientadas por dados como ferramentas de assistência para a tomada de decisão editorial. E, a fim de desenvolver mecanismos de recomendação voltados para o serviço público, colaboramos ativamente com outros serviços de mídia europeus por meio da EBU.

6. Controle Editorial
Enquanto a prevalência de dados e automação introduzem novas formas de jornalismo, a responsabilidade editorial permanece com as unidades editoriais. O princípio de verificação editorial continua obrigatório, mesmo com conteúdo automatizado. Mas sua implementação muda: a verificação de cada parte individual do conteúdo é substituída por uma verificação de plausibilidade das estruturas causais nos dados e um exame de integridade rigoroso da fonte de dados.

7. Aprendizagem Ágil
Para melhorar continuamente os produtos e diretrizes, precisamos de experiência e aprendizado com projetos-piloto e protótipos. Os experimentos são uma parte explícita desse processo. Até e incluindo a fase beta, essas diretrizes oferecem orientação geral. Na fase final do candidato a lançamento, eles são totalmente vinculativos. Dessa forma, garantimos que nossa oferta de produto final atenda aos mais altos padrões, ao mesmo tempo em que incentivamos uma cultura de aprendizado e experimentação em nosso trabalho diário. Também nos comprometemos a ouvir nossos usuários, estimular seus comentários e ajustar nossos serviços se necessário.

8. Parcerias
Oferecemos um contexto de pesquisa prática para alunos e professores em universidades e colaboramos com a academia e a indústria para realizar experimentos, por exemplo, com modelos de aprendizado de máquina e geração de texto. Trocamos ideias com instituições de pesquisa e especialistas em ética.

9. Aquisição de talentos e habilidades
Dado o espectro de tecnologia dinâmica no campo da IA, garantimos proativamente que a BR tenha funcionários suficientes com as habilidades para implementar tecnologias de IA na vanguarda do setor de forma responsável e centrada no ser humano. Nosso objetivo é recrutar talentos de diversas origens com habilidades práticas de IA, que os incentivamos a empregar no jornalismo de serviço público.

10. Reflexão Interdisciplinar
Em vez de realizar análises éticas depois que recursos significativos são investidos, integramos a reflexão interdisciplinar com jornalistas, desenvolvedores e gerenciamento desde o início do pipeline de desenvolvimento. Dessa forma, garantimos que nenhum recurso seja desperdiçado em projetos que, previsivelmente, não atendam a essas diretrizes. Refletimos sobre bandeiras vermelhas éticas em nosso uso de tecnologias de IA regularmente e de forma interdisciplinar. Avaliamos essas experiências à luz do mandato da mídia pública alemã e dessas diretrizes de ética.

O projeto está sendo avaliado publicamente e ainda teremos de esperar para saber os resultados. Trata-se, no entanto, de uma mudança de visão necessária para diversas áreas econômicas: é a tecnologia que deve atender o ser humano e não o oposto. O foco do mundo mediado pela inteligência artificial não pode ser outro senão o ser humano, o respeito à dignidade, à individualidade, aos princípios e à ética. Em vez de consertar aviões voando, como fazemos hoje nas redes sociais, a ideia é primeiro entender a serviço de quem o vôo será feito para depois decidir se o avião deve decolar daquela forma.

Tecnologia não pode ser um fim em si mesma, os avanços precisam sempre estar a serviço da humanidade e reforçando os princípios humanos, jamais desafiando. Temos agora regras simples e práticas de como utilizar a tecnologia no avanço do jornalismo sem jogar o bebê fora com a água do banho. Há quem tema que a tecnologia substitua a qualidade humana. As experiências do presente nos mostram que não há viabilidade para a tecnologia que não valorize a qualidade humana. À medida em que mais setores da economia incorporam inteligência artificial no dia a dia e treinam pessoas para a tarefa, começamos a ter um direcionamento de como nossos avanços científicos podem nos ajudar a avançar ainda mais como humanidade. Incorporar cada vez mais tecnologia à vida cotidiana é uma realidade, precisamos decidir qual é a nossa prioridade: a humanidade ou o deslumbramento com o novo.

Use este espaço apenas para a comunicação de erros

Principais Manchetes

Receba nossas notícias NO CELULAR

WhatsappTelegram

WHATSAPP: As regras de privacidade dos grupos são definidas pelo WhatsApp. Ao entrar, seu número pode ser visto por outros integrantes do grupo.