Estamos aprendendo uma lição importante sobre a tecnologia de voz: a Alexa da Amazon está sempre ouvindo. O Assistente do Google e a Siri, da Apple, também.
Colocar microfones ligados dentro de casa nunca foi uma ideia muito popular. Mas as empresas de tecnologia comercializaram com sucesso caixas de som falantes, como o Amazon Echo e o Google Home, para milhões, com a garantia de que elas só nos gravam quando damos um comando, uma palavra específica.
Na realidade, essa garantia era equivocada. Esses dispositivos estão sempre “acordados”, escutando passivamente o comando para ativar, como “Alexa”, “ok, Google” e “e aí, Siri”. O problema é que eles estão longe de serem perfeitos em responder apenas quando queremos.
LEIA TAMBÉM: Para Amazon, futuro da informática é mais parecido com torradeiras do que com celulares
O mais recente e mais alarmante exemplo até hoje: uma família em Portland, no estado de Oregon, nos Estados Unidos, há duas semanas descobriu que seu Echo da Amazon havia gravado uma conversa privada e enviado para um contato aleatório. O evento, relatado pelo KIRO 7 , uma estação de TV local de Washington, viralizou nesta quinta-feira (24) entre os donos de um Echo — e entre os pessimistas com a ideia de permitir que empresas de tecnologia instalem microfones na nossa casa inteira.
A privacidade é o único aspecto da Alexa que a Amazon não pode se dar ao luxo de estragar.
A Amazon, em comunicado à imprensa, fez parecer que o caso de Portland envolveu uma sequência de eventos que você poderia esperar em um episódio de uma sitcom como Seinfeld. Ele diz que o Echo acordou quando ouviu uma palavra que soava como “Alexa”. “A conversa subsequente foi ouvida como uma solicitação de ‘enviar mensagem’. Nesse ponto, a Alexa disse em voz alta ‘Para quem?’ e a conversa em segundo plano foi interpretada como um nome na lista de contatos do cliente”.
A Amazon também disse que o incidente é raro e está “avaliando opções para tornar este caso ainda menos provável”.
Mas com que frequência esses dispositivos se rebelam e registram mais do que gostaríamos? Nem o Google nem a Amazon responderam imediatamente às perguntas sobre falsos positivos para comandos de ativação, mas qualquer um que conviva com um desses dispositivos sabe que isso acontece.
Como colunista de tecnologia, tenho um Echo, o Google Home e o HomePod, da Apple, na minha sala de estar, e descubro que pelo menos um deles começa a gravar, aleatoriamente, pelo menos uma vez por semana. Acontece quando eles captam um som da TV ou uma conversa perdida que soa o suficiente como um dos seus comandos de ativação.
O aplicativo Alexa da Amazon reproduz gravações salvas — incluindo casos como este, nos quais começou a gravar porque ouviu mal seu comando de ativação.
Separar um comando do ruído em casa — especialmente música alta — não é tarefa fácil. O Amazon Echo usa sete microfones e tecnologia de cancelamento de ruído para ouvir o comando de ativação. Ao fazer isso, ele registra cerca de um segundo do som ambiente no dispositivo, que ele constantemente descarta e substitui. Mas quando ele acha que ouviu seu comando de ativação, o anel de luz azul do Echo é ativado e começa a enviar uma gravação do que ouve para os computadores da Amazon.
Os excessos em gravações não são apenas um problema da Amazon. No ano passado, o Google se deparou com uma falha em que alguns modelos do Home Mini estavam configurados para gravar tudo que ouviam e tiveram que ser corrigidos. No início deste mês, pesquisadores informaram que conseguiram fazer com que a Siri, a Alexa e o Assistente do Google ouvissem instruções de áudio secretas inaudíveis a ouvidos humanos.
O que fazer?
Você pode colocar esses dispositivos no “mudo” quando eles não estiverem em uso. (No caso do Amazon Echo, ele desconecta fisicamente o microfone.) Mas isso em parte neutraliza a utilidade de um computador que pode ser ativado pela voz quando você está com as mãos ocupadas.
Outra abordagem é desativar algumas funções mais sensíveis no aplicativo Alexa, incluindo a compra de produtos por voz. Você pode desativar o recurso “drop in”, que permite que outro Echo se conecte automaticamente para iniciar uma ligação.
Também é possível se aprofundar no que está sendo gravado, mas prepare-se para ficar um pouco horrorizado: a Amazon e o Google mantêm cópias de todas as conversas, tanto como um sinal de transparência quanto para ajudar a melhorar seus sistemas de reconhecimento de voz e inteligência artificial. No aplicativo da Alexa e no site de atividades do usuário do Google, você pode ouvir e excluir essas gravações antigas. (A Apple também mantém as gravações da Siri, mas não de uma maneira que você possa procurar — e as torna anônimas após seis meses.)
A solução drástica é desconectar totalmente o alto-falante inteligente até que as empresas revelem com que frequência os seus assistentes de voz escutam — e o que estão fazendo para pará-los.