Dias atrás, a terceira pessoa presa injustamente nos Estados Unidos por erro no sistema de reconhecimento facial entrou com processo contra o Estado. Robert Williams estava voltando do trabalho e foi preso na frente da garagem de casa, acusado de assaltar uma loja em Detroit.
Dava para ver a diferença dele para o suspeito na foto mas, como a tecnologia disse que era a mesma pessoa, confiaram. É distópico um sistema de justiça que funcione assim. Uma máquina erra e um cidadão passa a noite na cadeia e a família passa a conviver com o constrangimento da prisão diante de toda a vizinhança.
Na minha cabeça, reconhecimento facial era uma coisa avançada. Mas aprendi no documentário Coded Bias, da Netflix, que é uma tecnologia aplicada mais para pobres do que para ricos. Meu pai me ensinou a não confiar em nada que lançam antes para pobre, estão fazendo a gente de cobaia.
Os engenheiros sabem que a tecnologia não é perfeita. Pode errar aqui e acolá. Muita gente celebra que tem mais de 90% de acerto. Ocorre que não são números, são vidas humanas que podem ser radicalmente mudadas por falhas conhecidas e previsíveis dos algoritmos.
Os Estados Unidos já interromperam inúmeras colaborações entre empresas de identificação facial biométrica e órgãos de segurança pública por causa disso. E também há um outro problema, o dos dados. Quem pode usar e como? O que acontece se houver um vazamento, como já houve tantos aqui no Brasil? Tendemos a subestimar essa hipótese. Na União Europeia, já se pensa em proibir completamente a identificação facial por 5 anos até que se saiba exatamente onde estamos pisando.
A inteligência artificial não aprende identificação biomética sozinha, ela é "treinada" por seres humanos, os programadores. São seres humanos que inserem as imagens como exemplos do que deve ser identificado e as máquinas vão criando seus parâmetros e "aprendendo" com eles. O problema é que não existe uma medida exata do quanto de exemplos são necessários para uma máquina chegar a 100% de eficiência, depende da imaginação humana, que é falha.
O documentário Coded Bias começa quando a pesquisadora Joy Buolamwini, do MIT, não consegue treinar uma inteligência artificial de reconhecimento facial. Ela é negra. Coloca uma máscara plástica branca e consegue uma identificação. Evidentemente havia uma falha no treinamento da máquina. Mas seria só dessa máquina? Qual a extensão dessas falhas e suas consequências?
Os algoritmos de reconhecimento facial apresentam muito mais falhas em mulheres e pessoas negras. Outros algoritmos também têm falhas semelhantes com grupos inteiros de população. A mulher do fundador da Apple, que é milionária, acabou numa confusão com um dos bancos de elite dos Estados Unidos porque o algoritmo diminuiu o crédito dela sem nenhuma explicação lógica. Era vício de programação. Talvez quem precise do dinheiro e não seja casada com o fundador da Apple tenha mais dificuldades em explicar ao banco que o erro é do sistema.
Estamos diante de um problema gigante ao imaginar que é perfeito um sistema que simplesmente traduz a imperfeição dos julgamentos humanos. Nós sabemos que falhamos e estamos dispostos a rever injustiças. Mas o reconhecimento facial, que herda todas as nossas falhas, é visto como árbitro imparcial e inquestionável sobre questões importantes de vidas reais. Imagine isso nas mãos de uma ditadura.
Europa e Estados Unidos levantam a bandeira da proteção dos dados dos cidadãos, com a ideia de que cada um é dono dos seus próprios dados e tem o direito de saber se, por quem e como são usados. Em outras partes do mundo, inclusive no Brasil, temos leis conflitantes e uma bagunça na gestão prática com empresas, sobretudo as Big Techs. Nós nem percebemos como a identificação facial virou parte do nosso dia a dia, principalmente após a pandemia.
Na China, o cidadão é obrigado a usar reconhecimento facial para tudo e sabe que o governo o monitora com essa tecnologia. Ativar um celular, usar o metrô, entrar num avião ou registrar presença na universidade e escola são ações feitas por identificação facial e somente dessa forma. No início da pandemia, o governo chinês usou drones com identificação facial para avisar nominalmente a idosos nas ruas que deveriam ficar em casa.
Um cidadão que atravessa fora da faixa ou no sinal errado pode ser multado na China por identificação facial. Esse sistema soma-se ao monitoramento social. O cidadão adere e ganha 1000 pontos. Sobe se ele falar bem do governo, doar sangue ou ajudar os pobres. Cai se ele trapacear em jogos online, abandonar os pais idosos ou falar mal do governo. O número de pontos determina promoções no trabalho, melhores moradias, crédito e escola para os filhos. Pontuação baixa pode eliminar o direito de usar transporte público, avião e render punições com vergonha pública.
No Brasil, nós temos a Lei Geral de Proteção de Dados, mas ninguém sabe o que ocorre quando algo dá errado. E estamos diariamente usando reconhecimento facial para atividades como desbloquear celulares, liberar entrada em prédios ou acesso a contas bancárias. Além disso, desde outubro do ano passado, o governo brasileiro passou a ter o direito de armazenar todos os nossos dados biométricos.
O decreto 10046 de 9 de outubro de 2020 não diz em que situações, como nem para que os dados serão usados. Mas o governo já pode armazenar a biometria da face, da palma da mão, da íris e até do jeito de andar de todos os cidadãos. Enquanto isso, muitos governos estaduais investem pesado em identificação biométrica na segurança, controle de fronteiras, educação e principalmente no transporte. É algo que tem passado despercebido.
A primeira notícia de uso de identificação facial biométrica na segurança pública foi muito celebrada. No carnaval de Salvador, em 2019, o primeiro preso foi um folião que se vestia de mulher. Depois prenderam dezenas de outros. Oremos para que a máquina estivesse certa, por um golpe de sorte. No nosso Judiciário, já demos identificação positiva para suspeito 25 centímetros mais alto que o identificado no lugar do crime. Demorou anos para desfazer o mal entendido e nem tinha máquina envolvida na história.
O caso é que prender gente por identificação facial no meio da folia fez o maior sucesso na imprensa. No ano passado, enquanto o COVID conseguia se esconder de todos, nossas autoridades investiam pesado no reconhecimento facial. Teve a novidade também no carnaval do Rio e de São Paulo. No de Brasília colocaram até drone, quiçá para animar um pouco as coisas.
O sistema de ônibus de São Paulo aproveitou a onda carnavalesca e implementou o reconhecimento facial. O objetivo era ver quem burlava a utilização do cartão de passe. O de Curitiba também implementou. O metrô paulistano gostou da ideia e tentou usar nas linhas públicas, as que foram concedidas à iniciativa privada ainda não demonstraram interesse. Mas, neste caso, a Justiça quer saber direito que dados serão coletados e como serão usados.
É um caso isolado em que se pediu explicações. O uso de tecnologia de reconhecimento biométrico vem crescendo muito no setor privado. Passou a ser tradicional em bancos e em tudo quanto é tipo de site que tenha sistema de pagamentos. Também já existe o uso nos transportes em empresas aéreas e nos sistemas de pagamentos de pedágios e estacionamentos. Tudo ainda sem nenhuma regulamentação clara.
O primeiro lugar a proibir reconhecimento facial é o berço das Big Techs, São Francisco, na Califórnia. Ali são realmente sentidas as consequências dessa nova cultura de empresas-Estado. Sempre o empresariado inovou, ousou e, quando deu errado, enfrentou as consequências. Tomemos por exemplo as indústrias do tabaco e do amianto. As Big Techs inauguram a era em que, diante do estrago, basta de fazer de louco e seguir em frente. Um problemaço.
Muitos estudiosos da economia dizem que entramos na era do capitalismo de vigilância. Thomas Jefferson cunhou a lendária frase "o preço da liberdade é a eterna vigilância". Não era a vigilância de governos e conglomerados transnacionais sobre cada passo do cidadão comum, era o oposto. Vale lembrar todos os dias.
Julgamento do Marco Civil da Internet e PL da IA colocam inovação em tecnologia em risco
Militares acusados de suposto golpe se movem no STF para tentar escapar de Moraes e da PF
Uma inelegibilidade bastante desproporcional
Quando a nostalgia vence a lacração: a volta do “pele-vermelha” à liga do futebol americano
Triângulo Mineiro investe na prospecção de talentos para impulsionar polo de inovação
Investimentos no Vale do Lítio estimulam economia da região mais pobre de Minas Gerais
Conheça o município paranaense que impulsiona a produção de mel no Brasil
Decisões de Toffoli sobre Odebrecht duram meses sem previsão de julgamento no STF