Ouça este conteúdo
Assim que subiu ao palco do Web Summit Rio, um dos maiores eventos de inovação do mundo que acontece esta semana no Rio de Janeiro, o editor-chefe do site The Brazilian Report, Gustavo Ribeiro, perguntou à plateia se a Inteligência Artificial representa oportunidades ou motivos para medo. A maioria votou na primeira opção, apesar dos alertas de especialistas sobre os perigos da evolução desenfreada da IA.
Na opinião de Aline Oliveira, co-fundadora da empresa Traive, "a IA não deve ser temida, mas entendida". Ela explicou que é preciso reconhecer a tecnologia como um motor da sociedade desde a Revolução Industrial que teve início no século 18. Para Aline, mais do que discutir oportunidades ou riscos, o caminho é ensinar as pessoas como esses modelos se tornam, de fato, inteligentes (sendo treinados por dados para reconhecer padrões que se transformam em informações).
Sara Al-Hussaini, CEO da empresa alemã Ultimate, afirmou que o medo atribuído à Inteligência Artificial no que diz respeito à eliminação dos empregos é "superestimado". Atuante no setor de atendimento ao cliente, ela reconhece que os call centers serão dominados pela tecnologia, mas ressalta que isso não significa o desaparecimento imediato de profissões. "Muitos trabalhos estão mudando, mas a mudança é lenta e gradual. O desafio é treinar as nossas equipes e nós mesmos sobre como usar essas tecnologias", observou.
Além disso, Sarah responsabilizou parte da mídia pela proliferação de manchetes que, na visão dela, são "assustadoras" e geram medo nas pessoas ao destacar os efeitos negativos da IA, em vez de focar nos aspectos positivos da tecnologia.
Regulação
Um dos receios em relação à Inteligência Artificial é a replicação de vieses e julgamentos humanos que possam contaminar discussões da sociedade, por isso o tema da regulação tem sido tão ventilado no Web Summit Rio. Na visão de Sarah, é fundamental que as pessoas consigam diferenciar se determinado conteúdo é produto de IA ou não (um problema gerado pelo fenômeno das deep fakes, quando rostos são trocados e expressões simuladas para alterar a realidade de fotos ou vídeos).
Aline destaca que existem caminhos para tratar os efeitos negativos da IA sem prejudicar os benefícios. Tomando como exemplo a disseminação de fake news, ela explicou que é possível adotar medidas técnicas, como o uso de dados verificados, e também endereçar a incapacidade da tecnologia de oferecer contradições como opções a uma resposta. Nesses casos, a resposta com maior popularidade tende a ser escolhida como a melhor opção pelo algoritmo, o que pode incentivar comportamentos inadequados.
Sobre regulação, Aline recomenda que seja feita uma análise de acordo com os desafios de cada setor. Segundo ela, é fundamental que esse processo conte com a presença de pessoas técnicas capazes de apoiar o treinamento dos modelos de IA e o tratamento adequado de dados para evitar a reprodução de vieses humanos. Isso ajudaria a contornar um dos problemas do ChatGPT, que é a possibilidade de oferecer respostas erradas, mas convincentes.
*Marcelo Gripa é especialista em comunicação corporativa e co-fundador do Futuros Possíveis.