O Google, líder em iniciativas para criar carros autônomos, deparou-se com um estranho enigma de segurança: os seres humanos.
Em agosto, quando um de seus carros sem motorista se aproximou de uma faixa de pedestres, fez o que deveria fazer: desacelerou para permitir que uma pessoa atravessasse a rua, fazendo seu “motorista de segurança” pisar no freio. O pedestre não teve problemas, mas sim o carro autônomo, que foi atingido na traseira por um veículo comum.
A frota de carros autônomos de teste do Google está programada para seguir a lei. Um deles, em um teste em 2009, não conseguiu passar por um cruzamento de quatro faixas porque seus sensores ficavam esperando que os outros motoristas (humanos) parassem completamente e o deixassem passar de boa vontade.
Pesquisadores dizem que um dos maiores desafios que os carros autônomos enfrentam é o de se inserir em um mundo no qual as pessoas não seguem as regras. “O verdadeiro problema é que o carro é seguro demais”, disse Donald Norman, diretor do Laboratório de Design da Universidade da Califórnia em San Diego. “Eles precisam aprender a ser agressivos na medida certa, e isso depende da cultura.”
O número de acidentes de trânsito poderá despencar em um mundo sem motoristas, preveem alguns pesquisadores. Mas o uso amplo de carros autônomos ainda está a muitos anos de distância, e os desenvolvedores ainda resolvem riscos hipotéticos —como hackers— e desafios atuais, como: o que acontece quando um carro autônomo quebra na estrada?
Os carros do Google regularmente fazem manobras rápidas e evasivas que, apesar de seguras, são diferentes do ritmo dos outros veículos. “Ele sempre vai seguir as regras, quer dizer, a um ponto em que os motoristas humanos poderão se perguntar: ‘Por que esse carro está fazendo isso?’”, disse Tom Supple, motorista de teste do Google.
Desde 2009, os carros Google se envolveram em 16 acidentes, a maioria de pouca gravidade, e em todos os casos a empresa disse que o erro foi de outros motoristas. Houve um único caso em que o Google disse ter sido o responsável. Foi em 2011, quando um dos carros colidiu com outro veículo em movimento. Mas, notavelmente, o carro do Google estava sendo pilotado por um funcionário no momento. Outra falha humana.
Em um passeio com jornalistas do “The New York Times”, o carro do Google fez duas manobras evasivas que demonstraram como o carro erra por excesso de cuidado —e como essa experiência pode ser assustadora. Em uma manobra, ele desviou rapidamente em um bairro residencial para evitar um carro que estava tão mal estacionado que os sensores não puderam dizer se ele poderia entrar no tráfego.
Mais assustadora foi uma manobra que o carro do Google fez ao se aproximar de um farol vermelho em tráfego moderado. O sistema a laser montado na capota sentiu que um veículo vindo na direção contrária se aproximava do sinal fechado em velocidade maior que a segura. O carro Google imediatamente desviou à direita, caso tivesse de evitar uma colisão. Afinal, o carro que vinha na outra direção apenas fazia o que os motoristas fazem com frequência: aproximar-se de um farol sem a cautela adequada, apesar de o motorista ter parado a tempo.
Courtney Hohne, porta-voz do Google, disse que os atuais testes se dedicam a “amaciar” o relacionamento entre o software e os humanos. Por exemplo, em cruzamentos de quatro faixas, o programa deixa que o carro avance lentamente, como nós faríamos, preparando a curva enquanto procura sinais de que pode seguir.
O modo como os humanos costumam lidar com essas situações é “fazendo contato visual. Na hora, entram em acordo sobre quem vai passar primeiro”, disse John Lee, professor na Universidade de Wisconsin. “Mas onde estão os olhos de um veículo autônomo?”
Bolsonaro e aliados criticam indiciamento pela PF; esquerda pede punição por “ataques à democracia”
Quem são os indiciados pela Polícia Federal por tentativa de golpe de Estado
Bolsonaro indiciado, a Operação Contragolpe e o debate da anistia; ouça o podcast
Seis problemas jurídicos da operação “Contragolpe”