A intenção era boa: testar como uma inteligência artificial conseguiria interagir com humanos na internet e aprender por meio desse contato. No entanto, um experimento feito pela Microsoft no Twitter, semana passada, acabou tendo um resultado desastroso e que fala muito sobre as limitações dessa tecnologia.
O sistema inteligente, chamado de Tay, foi lançado pela companhia no microblog na última quarta-feira (23), sendo apresentado como uma jovem norte-americana de 19 anos. Segundo a Microsoft, o objetivo do experimento era pesquisar como a inteligência artificial compreenderia as mensagens endereçadas a ela e de que modo responderia a essas interações – cientistas da companhia programaram o perfil para responder de forma “descolada”, justamente para se aproximar do linguajar utilizada por humanos na faixa etária entre 18 e 24 anos.
Desde o início, os demais usuários do Twitter sabiam que se tratava de um sistema de computador. No começo, Tay publicou uma série de tuítes inofensivos. Mas, no dia seguinte à sua ativação no Twitter, conforme os demais internautas direcionavam mensagens a ela, o sistema passou a incorporar e retuítar algumas das publicações – várias, nada amistosas.
O sistema, por exemplo, aprendeu rapidamente uma série de expressões antisemitas e de ódio enviadas por outros usuários. Começou a disparar várias mensagens, dizendo que Hitler estava correto, que o atentado terrorista de 11 de setembro foi um ato do próprio governo norte-americano e inclusive compartilhou mensagens apoiando a política de Donald Trump contra os imigrantes.
Em uma ocasião, tuitou que “feminismo é câncer”, em resposta a outro usuário do microblog que tinha publicado a mesma mensagem.
“Profundamente arrependida”
Com a repercussão do caso entre os internautas e na imprensa, a Microsoft se viu encurralada e desativou o perfil de Tay no Twitter ainda na quinta-feira (24). Em nota, a companhia se disse “profundamente arrependida” pelas mensagens racistas e sexistas publicadas pela inteligência artificial.
“Estamos profundamente arrependidos sobre os tuítes ofensivos de Tay, que não representam quem nós somos ou o que defendemos, nem como nós projetamos a Tay”, disse Peter Lee, vice-presidente de pesquisa da Microsoft.
Após os problemas durante o experimento, a Microsoft disse que vai reativar o perfil de Tay apenas se seus engenheiros puderem encontrar uma maneira de impedir que os internautas influenciem o sistema de forma negativa. O desafio será justamente programar o perfil para distinguir entre o que é razoável e o que vai contra os princípios e valores da companhia – e da sociedade como um todo.