O aplicativo 99 anuncia o lançamento de novas inteligências artificiais que identificam passageiras em situação de maior risco de assédio e enviam a elas somente motoristas mulheres ou os condutores mais bem avaliados. Chamadas de Pítia e Atena, as tecnologias têm caráter preventivo e atuam em conjunto com objetivo de aumentar a segurança das passageiras do app.
Os dois algoritmos funcionam ao mapear corridas solicitadas por mulheres em situação identificadas como de maior vulnerabilidade, como viagens à noite, mais longas, chamadas por terceiros, ou partindo de regiões com bares e casas noturnas. Ao mesmo tempo, os algoritmos analisam os motoristas nas redondezas e atribuem uma pontuação a cada um, baseados em fatores como gênero, nota na plataforma e quantidade de reclamações. Esse processo é feito em milésimos de segundo e, com as informações coletadas, Pítia e Atena começam a agir.
Pítia faz o envio para passageiras mulheres apenas dos motoristas com maior pontuação de segurança. Ou seja, somente motoristas mulheres e condutores com melhor qualidade de atendimento são escolhidos para envio a elas.
Enquanto isso, Atena oferece uma camada de conscientização, enviando vídeos e textos aos motoristas antes do embarque das passageiras, orientando-os sobre a importância de manter o profissionalismo e o respeito, além de oferecer dicas de como agir.
Em quatro meses de testes antes do lançamento, Pítia diminuiu em 45% o número de ocorrências sexuais contra passageiras. Já Atena reduziu os casos em 17% em apenas uma semana.
“Com tecnologia de ponta, somos hoje capazes de identificar as situações de maior risco e atuar antes mesmo que um problema aconteça”, diz a diretora de comunicação da 99, Pamela Vaiano. “Usar inteligência artificial é o mesmo que ter especialistas em segurança feminina monitorando, 24 horas, cada uma das corridas do app. Tudo isso em menos de um segundo.”
Outra inteligência artificial lançada pela 99 para oferecer segurança às mulheres é uma rastreadora de comentários chamada Ártemis. Ela foi desenvolvida com consultoria da organização voltada para empoderamento feminino Think Eva e identifica automaticamente denúncias de assédio deixadas nos comentários após as corridas, banindo agressores e direcionando atendimento humanizado às vítimas.
Como funciona: quando uma viagem acaba, motoristas e passageiros são convidados a avaliar um ao outro, com estrelas e comentários. A inteligência artificial lê esses comentários e consegue identificar uma série de palavras e contextos que podem estar relacionados a assédios. Não são identificados apenas termos isolados, mas contextos em que eles estão inseridos. Isso é feito pela análise semântica do que vem antes ou depois da palavra ofensiva. Por exemplo, a inteligência artificial sabe que o comentário “o motorista foi um nojento pois ficou me perguntando coisas inadequadas” pode ser um caso de assédio, enquanto “o carro estava sujo, muito nojento” não.
Depois disso, uma equipe especializada faz uma rechecagem para avaliar os detalhes da ocorrência e tomar as providências cabíveis — que incluem desde o bloqueio de agressores até o suporte humanizado em que vítimas podem escolher ser atendidas exclusivamente por outras mulheres, incluindo uma psicóloga.
Por conta da atuação da Ártemis, são identificadas e banidas, em média, 730 pessoas por semana que cometeram algum tipo de assédio, entre motoristas e passageiros. Além disso, a inteligência artificial é capaz de aprender sozinha novos termos, tendo passado de 350 em 2018 para mais de mil hoje.