Prova de humanidade é ferramenta vital em uma internet dominada por robôs | World

A internet se encontra em um novo capítulo da sua história: o da inteligência artificial (IA). Quase metade do fluxo atual é gerado por bots, segundo dados do relatório Bad Bot Report 2024, da Imperva, empresa norte-americana especialista em cibersegurança. No Brasil, o número é ainda mais alarmante: 70,5%. Desse percentual, 22,6% são os chamados bad bots, ou robôs maliciosos, criados com intuito de executar tarefas automatizadas para cometer fraudes, golpes, disseminar informações falsas ou realizar ciberataques. O mesmo estudo ainda mostrou que o tráfego das máquinas aumentou pelo quinto ano consecutivo e deve se manter em uma crescente com o uso intensificado de inteligência artificial eLarge Language Model (LLM, Modelo de Linguagem Grande).

No Brasil, em 2024, os golpes digitais afetaram mais de 24% da população acima dos 16 anos, de acordo com uma pesquisa do Instituto DataSenado. Ou seja, mais de 40,85 milhões de brasileiros perderam dinheiro para o crime cibernético.

Outra grande preocupação do universo digital, as deepfakes também ganham espaço. A técnica de síntese de imagens ou sons humanos baseada em IA registrou um aumento de mais de 640% de ocorrência no Oriente Médio, 393% na África e 255% na América Latina e Caribe, conforme a pesquisa Identity Fraud Report 2024, da Sumsub.

“A tendência é que seja cada vez mais difícil distinguir a interação humana da online”, diz Rodrigo Tozzi, chefe de operações da Tools for Humanity no Brasil. A empresa é uma colaboradora da World, uma rede criada para ser uma nova infraestrutura de prova de humanidade no âmbito digital. A proposta é que diferentes serviços e instituições possam se valer da tecnologia que verifica a humanidade do usuário para obter e garantir mais segurança, além de combater manipulações e fraudes virtuais.

Por que ter uma prova de humanidade?

“Diante do cenário em que a tecnologia se aperfeiçoa em simular os comportamentos dos seres humanos, é essencial ter ferramentas confiáveis que comprovem a humanidade no universo digital”, aponta Tozzi. Ele reforça que a falta dessa identificação provoca uma enorme vulnerabilidade para a atuação criminosa.

Rodrigo Tozzi, chefe de operações da Tools for Humanity no Brasil: “A tendência é que seja cada vez mais difícil distinguir a interação humana da automatizada.” — Foto: Divulgação
Rodrigo Tozzi, chefe de operações da Tools for Humanity no Brasil: “A tendência é que seja cada vez mais difícil distinguir a interação humana da automatizada.” — Foto: Divulgação

Para o executivo, os serviços existentes, a exemplo dos captchas, são frágeis. Isso porque os robôs já conseguem burlar sistemas de verificação com algoritmos de visão computacional. Nesse sentido, a World busca desenvolver uma forma única e anônima para que cada pessoa possa verificar que é um humano online por meio da biometria da íris, chamado de World ID. O processo é realizado de forma presencial, cujos dados são encriptados e enviados ao titular, podendo excluí-los a qualquer momento.

A World assegura que não armazena nenhum dado pessoal e cria um código anônimo a partir da íris, ficando a World com o código anônimo, enquanto as fotos da íris ficam sob tutela do titular. Dessa forma, não haveria a possibilidade de informações pessoais serem compartilhadas ou rastreadas de volta ao indivíduo.

Futuramente, essa identificação anônima poderia ser utilizada para validar o acesso das pessoas a plataformas online, atestar que seus perfis são de humanos, fazer transações, comprovar interações on-line autênticas e realizar outros serviços digitais — muito como ocorre hoje com o captcha.

A rede já conta com mais de 11 milhões de pessoas verificadas no mundo — 500 mil no Brasil — e a World segue expandindo o protocolo pelo mundo. “A inteligência artificial emula o comportamento humano de forma rápida e precisamos nos preparar agora. É evidente que a automação tem seu mérito e pode trazer diversos benefícios, mas o problema reside na falta de transparência. É fundamental que tenhamos a segurança de conseguir distinguir a interação com um bot da interação com um ser humano”, conclui Tozzi.

Fonte: Valor

Compartilhar esta notícia