0 Compartilhamentos 89 Views

Como a Microsoft entrou na guerra contra os Deep Fakes

6 de outubro de 2020

A maior potência econômica mundial está prestes a passar por um novo processo eleitoral para escolher seu líder máximo. Quatro anos se passaram desde que as redes sociais se tornaram o ponto de origem para uma pesada campanha de desinformação que tentou ativamente influenciar os resultados. A expectativa dos especialistas é que o novo pleito repita a guerra informacional de 2016 e serão necessários mecanismos para buscar suavizar o seu impacto.

De acordo com um levantamento científico realizado pelo Professor Jacob Shapiro da Universidad de Princeton (PDF) e abalizado pela Microsoft, nada menos que 96 campanhas de influenciadores estrangeiros foram orquestradas contra o processo eleitoral de 30 países, entre 2013 e 2019, utilizando mídias digitais. Entre as nações afetadas, estaria o Brasil, além de França, Canadá, Estados Unidos e outros. Ainda segundo esse estudo, 74% dessas campanhas maliciosas distorciam fatos que podiam ser objetivamente comprovados, para difamar indivíduos, inflamar a polarização do tecido social ou persuadir a opinião pública.

O quadro se agravou com o advento da pandemia do novo coronavírus, com notícias falsas e politização de fatos que levaram a impactos que ainda precisam ser mensurados e cujos resultados podem inclusive levar a prejuízos pesados à infraestrutura social e a saúde pública.

Diante desse quadro, a Microsoft anunciou sua estratégia no combate aos deep fakes, à falsificação de notícias e ao processo de reeducação informacional necessário para o desenvolvimento de senso crítico.

Microsoft Video Authenticator

Em sua abordagem, a Microsoft tenta combater tecnologia com tecnologia, embora reconheça que não exista uma ferramenta única que possa solucionar todos os problemas. Além da ameaça dos Deep Fakes de vídeo, a empresa aponta também a questão das imagens e dos áudios adulterados por Inteligência Artificial, englobando todos esses riscos sob o rótulo de mídia sintética, um novo tipo de conteúdo complicado de ser identificado a olho nu.

Por causa de suas características geradas por algoritmo, a proposta da Microsoft é reverter os mesmos princípios, fogo contra fogo. Entra nessa batalha o Microsoft Video Authenticator, um recurso de aprendizado de máquina capaz de aferir o grau de confiabilidade de uma mídia a partir de sinais de manipulação. De acordo com o anúncio oficial, o sistema funciona “detectando o limite de mesclagem dos elementos deepfake e sutil desvanecimento ou tons de cinza que podem não ser detectados pelo olho humano”, entre outros fatores.

A tecnologia é resultado da colaboração entre diversos departamentos de pesquisa da Microsoft, a partir do banco de dados público do Face Forensic++. O algoritmo foi testado usando o DeepFake Detection Challenge Dataset, gerando então um poderoso recurso baseado em modelos de ponta gerados pela comunidade científica para a detecção de mídias sintéticas.

“Esperamos que os métodos de geração de mídia sintética continuem a crescer em sofisticação. Como todos os métodos de detecção de IA têm taxas de falha, temos que entender e estar prontos para responder aos deepfakes que escapam aos métodos de detecção”, se comprometeu a Microsoft.

Por enquanto o Microsoft Video Authenticator não está disponível para os usuários domésticos, mas foi integrado ao arsenal da iniciativa Reality Defender 2020 (RD2020). A proposta do projeto nesse momento é fornecer recursos para organizações interessadas em manter a transparência do processo democrático, como entidades jornalísticas e campanhas políticas, sem fins lucrativos ou ligação partidária.

Na prática, a utilização do Microsoft Video Authenticator é bem simples para quem tem acesso ao recurso: basta fazer o upload da mídia a ser analisada e aguardar o resultado. No caso de vídeo, a ferramenta é capaz até mesmo de oferecer dados frame a frame, para reconhecer o momento na filmagem em que ocorreu a manipulação.

Conteúdo real

Ainda segundo a Microsoft, “existem poucas ferramentas hoje para ajudar a garantir aos leitores que a mídia que estão vendo online veio de uma fonte confiável e que não foi alterada”. Portanto, para esse desafio em específico, a empresa está desenvolvendo uma espécie de selo de autenticação para notícias.

A tecnologia é baseada em dois fatores. O primeiro deles é um recurso embutido no Microsoft Azure que habilita aos produtores de conteúdo certificar seu material usando hashes que acompanharão aquele conteúdo através da web na forma de metadados. Para interpretar e reconhecer esse selo, entra a segunda parte da tecnologia: um leitor, que pode ser inclusive um plugin para navegadores, que identifica o certificado e assinala a autenticidade da notícia. É uma forma de assinar o conteúdo distribuído pela internet e fornecer com garantia seu atestado de procedência.

Essa iniciativa reúne a expertise dos times da Microsoft Research com Microsoft Azure e foi projetada para ser uma parte integrante do Defending Democracy Program, impulsionando o chamado Project Origin.

Project Origin é uma coalizão de forças entre os produtores de conteúdo BBC, CBC/Radio-Canada e The New York Times com a Microsoft.  Laura Ellis, diretora de tecnologia da BBC explica o perigo que o projeto busca oferecer: “tradicionalmente, nossas rotas de transmissão ou publicação têm sido seguras, um transmissor ou um servidor web, mas uma vez que o material vai além de nossos próprios canais e é compartilhado nas redes sociais, ele fica vulnerável à manipulação, embora ainda mantenha a aparência de ser um conteúdo de boa-fé”.

A ideia é possuir um sistema capaz de “marcar” conteúdo e que siga sendo eficiente após sucessivas camadas de replicação, compressão, redimensionamento etc, a ponto de salvaguardar a autenticidade original. Considerando que as próprias redes sociais aplicam modificações não-maliciosas ao conteúdo publicado, ajustando de acordo com suas especificidades, como reconhecer uma alteração mal-intencionada? Os primeiros passos estão sendo dados agora e a tecnologia está em fase de testes.

De acordo com Ellis, o objetivo final é ter uma tecnologia “simples de usar, transparente e com padrões abertos que podem ser amplamente adotados para o bem público”.

Você consegue identificar uma mentira?

Infelizmente, de nada adiantam as melhores intenções, as melhores ferramentas e as fontes mais confiáveis se o receptor da mensagem não tem a vontade ou a percepção para separar verdades de mentiras. É necessário educar o consumidor para a análise crítica das informações e identificação de fatos.

A Microsoft também está ciente desse componente da equação e estabeleceu uma parceria com a University of Washington (UW), a Sensity e o jornal USA Today para buscar soluções que incentivem uma chamada “alfabetização midiática”.

“O conhecimento prático da mídia pode permitir que todos nós pensemos criticamente sobre o contexto da mídia e nos tornemos cidadãos mais engajados enquanto ainda  apreciamos a sátira e a paródia. Embora nem todas as mídias sintéticas sejam ruins, mesmo uma curta intervenção com recursos de alfabetização midiática tem mostrado que ajuda as pessoas a identificá-las e tratá-las com mais cautela”, explica a empresa.

Com essa meta no horizonte, a Microsoft produziu uma experiência interativa que conduz o usuário através de uma série de conteúdos que podem ou não ser falsificados, além de trazer informações relevantes sobre o tema. Para muitos, esse pode ser o primeiro contato com um Deep Fake dentro de um ambiente controlado e o processo funciona como uma espécie de treinamento para o mundo real e mídias sintéticas geradas com o propósito de manipulação. O serviço Spot the Deepfake está disponível para todos, em Inglês ou Espanhol.

Como uma das lições da experiência, é importante lembrar que “os criadores de deepfakes manipuladores e outras mídias geralmente tentam fazer com que as pessoas pensem com o coração em vez de com a cabeça. Uma das melhores coisas a fazer é monitorar como você está reagindo emocionalmente a um vídeo ou foto e, se tiver uma resposta forte, pergunte-se por que o criador dessa mídia pode querer que você se sinta assim”.

Carregando...

Você pode se interessar

Como cortar texto sem usar uma linha de script
Dicas
7 visualizações
Dicas
7 visualizações

Como cortar texto sem usar uma linha de script

Carlos L. A. da Silva - 11 de janeiro de 2021

Conheça o poder da propriedade text-overflow no CSS e nunca mais edite strings no braço.

Como começar a programar
Artigos
14 visualizações
Artigos
14 visualizações

Como começar a programar

Carlos L. A. da Silva - 7 de janeiro de 2021

Então, você quer entrar nessa vida? A decisão é sua, mas nós podemos te ajudar com os primeiros passos.

Como cancelar qualquer conta online para sempre
Dicas
17 visualizações
Dicas
17 visualizações

Como cancelar qualquer conta online para sempre

Carlos L. A. da Silva - 30 de dezembro de 2020

Que tal fazer uma limpeza nas suas contas inativas ou finalmente largar aquela rede social que só dá desgosto?

Deixe um Comentário

Your email address will not be published.

Mais publicações

Retrospectiva (positiva) de 2020
Artigos
20 visualizações
20 visualizações

Retrospectiva (positiva) de 2020

Carlos L. A. da Silva - 29 de dezembro de 2020
O que seria internet quântica?
Artigos
20 visualizações
20 visualizações

O que seria internet quântica?

Carlos L. A. da Silva - 23 de dezembro de 2020
Como fazer uma árvore de Natal… com CSS!
Dicas
27 visualizações
27 visualizações

Como fazer uma árvore de Natal… com CSS!

Carlos L. A. da Silva - 21 de dezembro de 2020
Promoções de Jogos do Final de Semana (18/12) – Edição Natalina
Notícias
32 visualizações
32 visualizações

Promoções de Jogos do Final de Semana (18/12) – Edição Natalina

Carlos L. A. da Silva - 18 de dezembro de 2020