0 Compartilhamentos 33 Views

Como a Microsoft entrou na guerra contra os Deep Fakes

6 de outubro de 2020

A maior potência econômica mundial está prestes a passar por um novo processo eleitoral para escolher seu líder máximo. Quatro anos se passaram desde que as redes sociais se tornaram o ponto de origem para uma pesada campanha de desinformação que tentou ativamente influenciar os resultados. A expectativa dos especialistas é que o novo pleito repita a guerra informacional de 2016 e serão necessários mecanismos para buscar suavizar o seu impacto.

De acordo com um levantamento científico realizado pelo Professor Jacob Shapiro da Universidad de Princeton (PDF) e abalizado pela Microsoft, nada menos que 96 campanhas de influenciadores estrangeiros foram orquestradas contra o processo eleitoral de 30 países, entre 2013 e 2019, utilizando mídias digitais. Entre as nações afetadas, estaria o Brasil, além de França, Canadá, Estados Unidos e outros. Ainda segundo esse estudo, 74% dessas campanhas maliciosas distorciam fatos que podiam ser objetivamente comprovados, para difamar indivíduos, inflamar a polarização do tecido social ou persuadir a opinião pública.

O quadro se agravou com o advento da pandemia do novo coronavírus, com notícias falsas e politização de fatos que levaram a impactos que ainda precisam ser mensurados e cujos resultados podem inclusive levar a prejuízos pesados à infraestrutura social e a saúde pública.

Diante desse quadro, a Microsoft anunciou sua estratégia no combate aos deep fakes, à falsificação de notícias e ao processo de reeducação informacional necessário para o desenvolvimento de senso crítico.

Microsoft Video Authenticator

Em sua abordagem, a Microsoft tenta combater tecnologia com tecnologia, embora reconheça que não exista uma ferramenta única que possa solucionar todos os problemas. Além da ameaça dos Deep Fakes de vídeo, a empresa aponta também a questão das imagens e dos áudios adulterados por Inteligência Artificial, englobando todos esses riscos sob o rótulo de mídia sintética, um novo tipo de conteúdo complicado de ser identificado a olho nu.

Por causa de suas características geradas por algoritmo, a proposta da Microsoft é reverter os mesmos princípios, fogo contra fogo. Entra nessa batalha o Microsoft Video Authenticator, um recurso de aprendizado de máquina capaz de aferir o grau de confiabilidade de uma mídia a partir de sinais de manipulação. De acordo com o anúncio oficial, o sistema funciona “detectando o limite de mesclagem dos elementos deepfake e sutil desvanecimento ou tons de cinza que podem não ser detectados pelo olho humano”, entre outros fatores.

A tecnologia é resultado da colaboração entre diversos departamentos de pesquisa da Microsoft, a partir do banco de dados público do Face Forensic++. O algoritmo foi testado usando o DeepFake Detection Challenge Dataset, gerando então um poderoso recurso baseado em modelos de ponta gerados pela comunidade científica para a detecção de mídias sintéticas.

“Esperamos que os métodos de geração de mídia sintética continuem a crescer em sofisticação. Como todos os métodos de detecção de IA têm taxas de falha, temos que entender e estar prontos para responder aos deepfakes que escapam aos métodos de detecção”, se comprometeu a Microsoft.

Por enquanto o Microsoft Video Authenticator não está disponível para os usuários domésticos, mas foi integrado ao arsenal da iniciativa Reality Defender 2020 (RD2020). A proposta do projeto nesse momento é fornecer recursos para organizações interessadas em manter a transparência do processo democrático, como entidades jornalísticas e campanhas políticas, sem fins lucrativos ou ligação partidária.

Na prática, a utilização do Microsoft Video Authenticator é bem simples para quem tem acesso ao recurso: basta fazer o upload da mídia a ser analisada e aguardar o resultado. No caso de vídeo, a ferramenta é capaz até mesmo de oferecer dados frame a frame, para reconhecer o momento na filmagem em que ocorreu a manipulação.

Conteúdo real

Ainda segundo a Microsoft, “existem poucas ferramentas hoje para ajudar a garantir aos leitores que a mídia que estão vendo online veio de uma fonte confiável e que não foi alterada”. Portanto, para esse desafio em específico, a empresa está desenvolvendo uma espécie de selo de autenticação para notícias.

A tecnologia é baseada em dois fatores. O primeiro deles é um recurso embutido no Microsoft Azure que habilita aos produtores de conteúdo certificar seu material usando hashes que acompanharão aquele conteúdo através da web na forma de metadados. Para interpretar e reconhecer esse selo, entra a segunda parte da tecnologia: um leitor, que pode ser inclusive um plugin para navegadores, que identifica o certificado e assinala a autenticidade da notícia. É uma forma de assinar o conteúdo distribuído pela internet e fornecer com garantia seu atestado de procedência.

Essa iniciativa reúne a expertise dos times da Microsoft Research com Microsoft Azure e foi projetada para ser uma parte integrante do Defending Democracy Program, impulsionando o chamado Project Origin.

Project Origin é uma coalizão de forças entre os produtores de conteúdo BBC, CBC/Radio-Canada e The New York Times com a Microsoft.  Laura Ellis, diretora de tecnologia da BBC explica o perigo que o projeto busca oferecer: “tradicionalmente, nossas rotas de transmissão ou publicação têm sido seguras, um transmissor ou um servidor web, mas uma vez que o material vai além de nossos próprios canais e é compartilhado nas redes sociais, ele fica vulnerável à manipulação, embora ainda mantenha a aparência de ser um conteúdo de boa-fé”.

A ideia é possuir um sistema capaz de “marcar” conteúdo e que siga sendo eficiente após sucessivas camadas de replicação, compressão, redimensionamento etc, a ponto de salvaguardar a autenticidade original. Considerando que as próprias redes sociais aplicam modificações não-maliciosas ao conteúdo publicado, ajustando de acordo com suas especificidades, como reconhecer uma alteração mal-intencionada? Os primeiros passos estão sendo dados agora e a tecnologia está em fase de testes.

De acordo com Ellis, o objetivo final é ter uma tecnologia “simples de usar, transparente e com padrões abertos que podem ser amplamente adotados para o bem público”.

Você consegue identificar uma mentira?

Infelizmente, de nada adiantam as melhores intenções, as melhores ferramentas e as fontes mais confiáveis se o receptor da mensagem não tem a vontade ou a percepção para separar verdades de mentiras. É necessário educar o consumidor para a análise crítica das informações e identificação de fatos.

A Microsoft também está ciente desse componente da equação e estabeleceu uma parceria com a University of Washington (UW), a Sensity e o jornal USA Today para buscar soluções que incentivem uma chamada “alfabetização midiática”.

“O conhecimento prático da mídia pode permitir que todos nós pensemos criticamente sobre o contexto da mídia e nos tornemos cidadãos mais engajados enquanto ainda  apreciamos a sátira e a paródia. Embora nem todas as mídias sintéticas sejam ruins, mesmo uma curta intervenção com recursos de alfabetização midiática tem mostrado que ajuda as pessoas a identificá-las e tratá-las com mais cautela”, explica a empresa.

Com essa meta no horizonte, a Microsoft produziu uma experiência interativa que conduz o usuário através de uma série de conteúdos que podem ou não ser falsificados, além de trazer informações relevantes sobre o tema. Para muitos, esse pode ser o primeiro contato com um Deep Fake dentro de um ambiente controlado e o processo funciona como uma espécie de treinamento para o mundo real e mídias sintéticas geradas com o propósito de manipulação. O serviço Spot the Deepfake está disponível para todos, em Inglês ou Espanhol.

Como uma das lições da experiência, é importante lembrar que “os criadores de deepfakes manipuladores e outras mídias geralmente tentam fazer com que as pessoas pensem com o coração em vez de com a cabeça. Uma das melhores coisas a fazer é monitorar como você está reagindo emocionalmente a um vídeo ou foto e, se tiver uma resposta forte, pergunte-se por que o criador dessa mídia pode querer que você se sinta assim”.

Carregando...

Você pode se interessar

Como reduzir o ruido de fundo no microfone com aprendizado de máquina
Dicas
4 visualizações
Dicas
4 visualizações

Como reduzir o ruido de fundo no microfone com aprendizado de máquina

Carlos L. A. da Silva - 27 de outubro de 2020

Krisp é uma ferramenta gratuita que emprega algoritmos de Inteligência Artificial para identificar ruídos em tempo real.

Composer 2.0 está entre nós!
Artigos
7 visualizações
Artigos
7 visualizações

Composer 2.0 está entre nós!

Carlos L. A. da Silva - 26 de outubro de 2020

O melhor gerenciador de pacotes PHP atinge a maturidade com nova versão. Confira o que muda e como atualizar.

Promoções de Jogos do Final de Semana (23/10)
Notícias
17 visualizações
Notícias
17 visualizações

Promoções de Jogos do Final de Semana (23/10)

Carlos L. A. da Silva - 23 de outubro de 2020

Confira as melhores ofertas de jogos de PC para o final de semana.

Deixe um Comentário

Your email address will not be published.

Mais publicações

Você precisa conhecer YAML
Artigos
17 visualizações
17 visualizações

Você precisa conhecer YAML

Carlos L. A. da Silva - 20 de outubro de 2020
Promoções de Jogos do Final de Semana (16/10)
Notícias
25 visualizações
25 visualizações

Promoções de Jogos do Final de Semana (16/10)

Carlos L. A. da Silva - 16 de outubro de 2020
Os 7 piores erros de Excel da História
Artigos
28 visualizações
28 visualizações

Os 7 piores erros de Excel da História

Carlos L. A. da Silva - 15 de outubro de 2020
Como aprender JavaScript de graça com a Microsoft
Dicas
27 visualizações
27 visualizações

Como aprender JavaScript de graça com a Microsoft

Carlos L. A. da Silva - 14 de outubro de 2020