Nos últimos meses, eventos extraordinários mostraram que se deve desconfiar dos avanços tecnológicos, dos robôs e dos aplicativos que podem se voltar contra os próprios usuários.
Em fevereiro passado, o aplicativo de trânsito e navegação Waze, um serviço de GPS que funciona em comunidade, levou dois soldados israelenses a um campo de refugiados palestinos na Cisjordânia, deflagrando violentos confrontos. Esse erro deixou um palestino morto e pelo menos 15 feridos.
Em março, o Google Car, o carro autônomo da Google, viu-se envolvido em um acidente em uma estrada da Califórnia. O gigante americano do setor de tecnologia admitiu uma parte da responsabilidade no acidente, levantando dúvidas sobre a segurança desse veículo no futuro.
No ano passado, um operário foi morto por um robô em uma linha de montagem de uma fábrica da Volkswagen alemã. O episódio gerou intenso debate sobre o processo de robotização das empresas. O funcionário temporário de 22 anos envolvido no incidente colocava a máquina para funcionar com um de seus colegas, quando foi atingido no peito pelo robô, que o empurrou contra uma placa metálica.
Por um lado, os avanços tecnológicos – como a vigilância por câmera e a extensão das redes de comunicação, que permitem pedir ajuda em alto-mar, ou no topo de uma montanha, passando pelos dispositivos de monitoramento médico – podem dar a impressão de crescente segurança. Por outro, novos riscos podem se multiplicar, à medida que o homem delega cada vez mais funções à máquina.
“É exatamente uma questão de maturidade tecnológica e, nesse caso, consideramos que essas ferramentas ainda são jovens e têm necessidade de serem melhoradas. Daqui a entre seis meses e três anos, teremos corrigidos os ‘bugs’“, comenta Valérie Peugeot, a especialista em tendências para a Orange Labs. “Para mim, porém, os limites da tecnologia não se colocam aí: delegamos à tecnologia escolhas que eram, historicamente, escolhas humanas”, completa.
Valérie Peugeot lembra que essa impressão de segurança e o conforto dado pela tecnologia têm um preço: o da vigilância. “Ganhamos em simplificação, mas, ao mesmo tempo, pagamos com um potencial de privação da liberdade”, alerta.
Proteção contra hackers
A questão também mobiliza membros da empresa francesa Aldebaran, que comercializa robôs humanoides, encarregados, principalmente, de ajudar pessoas com deficiência ou idosos.
Capazes de analisar os comportamentos de seus interlocutores, esses robôs podem decifrar suas emoções e modificar seus comportamentos em consequência dessa habilidade.
“Como o robô está o tempo todo nos observando e pode ir buscar a informação, é, potencialmente, uma espécie de superespião”, admite Rodolphe Gelin, responsável pelo setor de Inovação na Aldebaran, filial do grupo japonês SoftBank.
Indivíduos mal-intencionados podem transformar esse gentil companheiro de aço para recuperar – e, por que não, vender – informações sobre seus proprietários, ou fazê-lo abrir a porta para desconhecidos. “É muito importante para nós proteger o robô das agressões externas”, afirma Gelin.
Na verdade, acrescenta, deve-se proteger os robôs de hackers do mesmo modo que se protege objetos conectados, ou as redes de informática de uma empresa.
Além disso, questiona Rodolphe Gelin, “quem será responsabilizado se o robô fizer mal à pessoa da qual ele deve cuidar? E se ele começar a fazer não sei o quê, como Tay, a máquina da Microsoft que, em março, começou a enviar mensagens racistas, depois de ter aprendido muito bem o que os internautas lhe ensinaram? Um robô é como um animal doméstico”.
“Assim como o fabricante deve entregar uma máquina o mais calibrada possível, o proprietário deve vigiar o processo de aprendizado que se segue, visto que ele vai avançar engolindo o que está ao seu redor: você é responsável por aquilo que ele aprende”, completa Gelin.