Ouça este conteúdo
A gigante chinesa de tecnologia Huawei testou um software de reconhecimento facial que poderia enviar “alertas de Uigures” às autoridades governamentais quando seus sistemas identificassem membros do grupo minoritário oprimido pela China.
A descoberta desse recurso foi do jornal americano The Washington Post, que teve acesso um documento assinado por representantes da Huawei que mostra que a empresa trabalhou em parceria com uma startup de reconhecimento facial chamada Megvii para testar um sistema de vigilância com inteligência artificial que pudesse escanear rostos e estimar idade, sexo e etnia de cada pessoa.
VEJA TAMBÉM:
O documento, encontrado no site da Huawei, foi removido logo depois que o jornal americano solicitou esclarecimentos às empresas.
Os ativistas de direitos humanos afirmam que, nos últimos anos, esse tipo de tecnologia ganhou um papel cada vez maior entre os departamentos de polícia da China.
Segundo John Honovich, fundador da IPVM, empresa americana que analisa e investiga equipamentos de videovigilância, o documento mostra que essa tecnologia discriminatória se tornou “totalmente normalizada”.
Ambas as empresas reconheceram que o documento é real. Pouco depois de esta história ser publicada na manhã de terça-feira, o porta-voz da Huawei, Glenn Schloss, disse que o relatório “é simplesmente um teste e ainda não foi aplicado no mundo real. A Huawei fornece apenas produtos de uso geral para esse tipo de teste. Não fornecemos algoritmos ou aplicativos personalizados.”
Maya Wang, pesquisadora sênior chinesa do grupo de defesa Human Rights Watch, se preocupa com uso cada vez maior com o uso de vigilância assistida usada pela China. Ela afirmou ao Washington Post que “a perseguição às minorias obviamente não é exclusiva da China.” Porém, tecnologias como essa da empresa chinesa “serviriam muito bem a países que desejam criminalizar as minorias”.