Durante o século XVIII era comum, em Veneza, os cidadãos usarem um tipo de máscara que cobria somente os olhos e os narizes. Mas com o aumento acelerado do uso deste artifício para a prática de roubos, já que o enfeite dificultava o reconhecimento dos marginais, esse costume teve que ser banido.

Séculos depois, a tradição foi resgatada, mas passou a ser permitida somente em bailes e isto deu origem às máscaras de carnaval que são usadas atualmente.

Se depender dos mais pessimistas com a tecnologia de reconhecimento facial, em breve haverá um movimento contrário. As máscaras serão usadas novamente no dia-a-dia para evitar que usem nossos rostos na prática de crimes.

A promessa de um sistema com maior segurança faz com que bancos, companhias aéreas, telefônicas, fabricantes de computadores e uma série de outras industrias observem atentamente e se abram para esta nova forma de identificação biométrica que significa um avanço em comparação com a impressão digital e a íris.

Desta forma, o mercado do reconhecimento facial já movimenta mais de US$ 3,3 bilhões no mundo e poderia chegar a US$ 7,7 bilhões em 2022, segundo a consultora MarketsandMarkets.

Mas alguns aspectos em torno dela ainda causam polêmica e apreensão, principalmente pelo fato de que a imagem do nosso rosto pode ser capturada sem a necessidade de nossa autorização.

O Diretor de Tecnologia Mundial da Forcepoint, Nico Fischbach, alertou no artigo “Uma reflexão sobre impostores”, publicado no Relatório de Previsões de Cibersegurança da Forcepoint para 2019, que há realmente com o que se preocupar.

O executivo revelou que a segurança da tecnologia facial foi driblada num teste usando fotos digitais disponíveis publicamente em mídias sociais e sites de busca.

Sendo assim, um sistema que tenha somente o reconhecimento facial como barreira entre os dados sigilosos e o conhecimento dos maus feitores estaria totalmente vulnerável. E isto se refere somente ao perigo potencial de fraudes, mas existem ainda outros problemas, como a possibilidade de usos antiéticos na área comercial deste tipo de solução.

Esse perigo foi destacado recentemente com o famoso Desafio dos 10 anos, no qual as pessoas eram estimuladas a compartilhar em suas redes sociais uma foto atual ao lado de uma imagem de 2009, para fazer uma comparação.

Em um artigo publicado na revista Wired, a jornalista Kate O’Neill, fundadora da KO Insights e autora do livro Tech Humanist, alertou para o fato de que a brincadeira poderia alimentar ferramentas de reconhecimento facial. De posse deste material, grandes corporações poderiam criar formas de avaliação de seguros e planos de saúde, por exemplo, que levem em consideração o fato, comprovado pelas imagens, de que uma pessoa esteja envelhecendo mais rápido do que o normal.

Isto indicaria um tratamento menos favorável em sua cobertura de seguros.

O sinal amarelo com relação ao risco de apostar todas as fichas no reconhecimento fácil ficou ainda mais forte em fevereiro, quando a SenseNets, empresa chinesa que oferece softwares de reconhecimento facial e análise de massa teve sua base de dados exposta e revelou informações sensíveis de 2,5 milhões de cidadãos chineses.

Todas essas informações e possibilidades confirmam a posição do diretor da Forcepoint. Ele defende a tese de que, ao invés de apostar todas as fichas em uma tecnologia única, seja ela qual for ela, é a combinação de biometria comportamental com autenticação forte, com base em tecnologia avançada como a própria biometria de voz, que se configura em uma abordagem mais sensata.

Talvez esconder o rosto com máscaras de carnaval todo o tempo seja mesmo um exagero, mas certamente expor dados estratégicos e confidenciais contando com a proteção somente de um rosto possa transformar o que seria um alegre baile de carnaval numa quarta-feira de cinzas prolongada e triste.

A Forcepoint possui as melhores soluções em segurança e profissionais capacitados para desenvolver as mais robustas combinações de tecnologias. Entre em contato.

 

LEAVE A REPLY

Please enter your comment!
Please enter your name here