Darpa está construindo tecnologia anti-Meme para impedir que Deepfakes se torne viral …

Este é o Niche Gamer Tech. Nesta coluna, abordamos regularmente a tecnologia e assuntos relacionados ao setor de tecnologia. Deixe um comentário e deixe-nos saber se há uma história ou tecnologia que você deseja que abramos!

O Pentágono anunciou planos para combater “ataques de desinformação automatizados em larga escala”, reprovando deepfakes e outras evidências falsas.

A RT está relatando que a DARPA (Agência de Projetos de Pesquisa Avançada de Defesa) tem como objetivo criar software que possa “Detecta, atribui e caracteriza automaticamente a mídia multimodal falsificada para se defender de ataques de desinformação automatizados em larga escala.”

Em resumo, o programa “Semantic Forensics” analisará novas histórias e postagens nas mídias sociais e utilizará algoritmos na tentativa de descobrir se algo é falso, identificar a fonte por trás disso e prever o quão viral pode ser. E se

o programa for bem-sucedido após quatro anos de testes, ele será expandido para atingir todos “intenção maliciosa.” Os testes incluem fornecer ao programa 500.000 histórias – com 5.000 falsificações entre elas.

No exemplo da proposta da DARPA, uma notícia sobre um protesto violento não corresponde às imagens usadas ou ao áudio de um vídeo do evento. O autor da peça não costumava relatar esse estilo de notícia, e o vocabulário usado não corresponde ao trabalho usual do autor. Finalmente, a história não origina uma “Organização de alta credibilidade”.

Os deepfakes surgiram recentemente em conhecimento público – o ato de usar imagens suficientes de um indivíduo para criar um vídeo ou áudio falso deles. Originalmente, isso incluía colocar rostos de celebridades em vídeos pornográficos (posteriormente banidos no Reddit), mas com o tempo se tornou mais elaborado e convincente.

Isso inclui um discurso falso do ex-presidente dos EUA Barak Obama e o “Ctrl Shift Face” – um canal do YouTube dedicado ao uso de falsificações profundas para fins de entretenimento. Seus vídeos mais populares mostram o comediante Bill Hader representando Arnold Schwarzenegger e Tom Cruise, respectivamente, com o rosto quase perfeitamente mudando para o rosto da pessoa que ele está imitando.

Outros incluem um vídeo da presidente da Câmara, Nancy Pelosi, em que o vídeo foi desacelerado de uma maneira que ela parece bêbada ou desorientada. Embora os veículos tenham demonstrado profunda preocupação, outros afirmaram que a distorção de áudio no vídeo deveria ter sido suficiente para indicar que era falsa.

Outro mostrou Mark Zuckerberg proferindo um discurso sinistro sobre a mídia social ser usada para controlar outras pessoas – geradas a partir de muitas de suas aparições públicas.

O NotJordanPeterson.com ofereceu uma maneira de os usuários inserirem texto, que seria lido quase como o psicólogo clínico Jordan Peterson (embora monótono). Embora a mensagem de boas-vindas ainda possa ser ouvida, o site desativou a entrada do usuário após a denúncia de Peterson em seu próprio site.

Os deepfakes também foram tecnicamente usados ​​pelo Hollywood-CGI para fazer com que um ator ou atriz parecesse mais jovem ou impor esse rosto a um ator diferente. Exemplos incluem um jovem Schwarzenegger em Terminator Genisys, e um ladino usando versões CGI de Peter Cushing e Carrie Fisher parecendo como no original Guerra das Estrelas Trilogia.

A situação do combate às notícias falsas é ainda mais complicada, pois a fé nas organizações de notícias está desmoronando. Depois que a mídia americana não conseguiu prever que Donald Trump venceria a eleição, eles propuseram que ele vencera devido a “conluio russo” – algo posteriormente refutado durante o Relatório Mueller.

Durante esse período, os memes que apoiavam Trump e os que pretendiam trollar foram considerados trabalhos de “agentes russos” por alguns meios de comunicação, incluindo falsas alegações de poder votar através de tuítes e vídeos sinceros alegando Hillary Clinton com problemas de saúde.

Muitos acham que os principais meios de comunicação denunciaram histórias positivas sobre Trump (e histórias negativas sobre Clinton), declarando-lhes notícias falsas – um termo que Trump mais tarde os usaria.

Tentativas de lidar com notícias falsas resultaram nas mesmas perguntas repetidas vezes – Será que aqueles que são respeitados são imunes a serem chamados de notícias falsas? Será que esse sistema conseguirá distinguir entre entretenimento, trolling e intenção de enganar? A dúvida até caiu em organizações de verificação de fatos como a Snopes.

Mesmo que esse sistema não tenha objetivos de malícia ou censura, o uso de um algoritmo também é um ponto de discórdia. O YouTube é frequentemente criticado pelo modo como seu algoritmo para conteúdo copiado ou ofensivo resultou no banimento em massa e na desmonetização de contas que não violavam seus termos – incluindo jornalistas independentes e canais históricos.

Algoritmos também são propostos para os artigos 11 e 13 da União Européia. Desenvolvidos para combater violações de direitos autorais, as leis foram criticadas por várias razões – incluindo dúvidas sobre se os algoritmos seriam capazes de distinguir entre paródia (memes e trabalho transformador) e real violação de direitos autorais (distribuição gratuita de um pedaço de mídia).

O que você acha? Som desligado nos comentários abaixo!

Artigos Relacionados

Back to top button