Darpa est√° construindo tecnologia anti-Meme para impedir que Deepfakes se torne viral …

Darpa est√° construindo tecnologia anti-Meme para impedir que Deepfakes se torne viral ...

Este é o Niche Gamer Tech. Nesta coluna, abordamos regularmente a tecnologia e assuntos relacionados ao setor de tecnologia. Deixe um comentário e deixe-nos saber se há uma história ou tecnologia que você deseja que abramos!

O Pent√°gono anunciou planos para combater ‚Äúataques de desinforma√ß√£o automatizados em larga escala‚ÄĚ, reprovando deepfakes e outras evid√™ncias falsas.

A RT est√° relatando que a DARPA (Ag√™ncia de Projetos de Pesquisa Avan√ßada de Defesa) tem como objetivo criar software que possa ‚ÄúDetecta, atribui e caracteriza automaticamente a m√≠dia multimodal falsificada para se defender de ataques de desinforma√ß√£o automatizados em larga escala.‚ÄĚ

Em resumo, o programa ‚ÄúSemantic Forensics‚ÄĚ analisar√° novas hist√≥rias e postagens nas m√≠dias sociais e utilizar√° algoritmos na tentativa de descobrir se algo √© falso, identificar a fonte por tr√°s disso e prever o qu√£o viral pode ser. E se

o programa for bem-sucedido ap√≥s quatro anos de testes, ele ser√° expandido para atingir todos “inten√ß√£o maliciosa.” Os testes incluem fornecer ao programa 500.000 hist√≥rias – com 5.000 falsifica√ß√Ķes entre elas.

No exemplo da proposta da DARPA, uma not√≠cia sobre um protesto violento n√£o corresponde √†s imagens usadas ou ao √°udio de um v√≠deo do evento. O autor da pe√ßa n√£o costumava relatar esse estilo de not√≠cia, e o vocabul√°rio usado n√£o corresponde ao trabalho usual do autor. Finalmente, a hist√≥ria n√£o origina uma “Organiza√ß√£o de alta credibilidade”.

Os deepfakes surgiram recentemente em conhecimento p√ļblico – o ato de usar imagens suficientes de um indiv√≠duo para criar um v√≠deo ou √°udio falso deles. Originalmente, isso inclu√≠a colocar rostos de celebridades em v√≠deos pornogr√°ficos (posteriormente banidos no Reddit), mas com o tempo se tornou mais elaborado e convincente.

Isso inclui um discurso falso do ex-presidente dos EUA Barak Obama e o “Ctrl Shift Face” – um canal do YouTube dedicado ao uso de falsifica√ß√Ķes profundas para fins de entretenimento. Seus v√≠deos mais populares mostram o comediante Bill Hader representando Arnold Schwarzenegger e Tom Cruise, respectivamente, com o rosto quase perfeitamente mudando para o rosto da pessoa que ele est√° imitando.

Outros incluem um v√≠deo da presidente da C√Ęmara, Nancy Pelosi, em que o v√≠deo foi desacelerado de uma maneira que ela parece b√™bada ou desorientada. Embora os ve√≠culos tenham demonstrado profunda preocupa√ß√£o, outros afirmaram que a distor√ß√£o de √°udio no v√≠deo deveria ter sido suficiente para indicar que era falsa.

Outro mostrou Mark Zuckerberg proferindo um discurso sinistro sobre a m√≠dia social ser usada para controlar outras pessoas – geradas a partir de muitas de suas apari√ß√Ķes p√ļblicas.

O NotJordanPeterson.com ofereceu uma maneira de os usu√°rios inserirem texto, que seria lido quase como o psic√≥logo cl√≠nico Jordan Peterson (embora mon√≥tono). Embora a mensagem de boas-vindas ainda possa ser ouvida, o site desativou a entrada do usu√°rio ap√≥s a den√ļncia de Peterson em seu pr√≥prio site.

Os deepfakes tamb√©m foram tecnicamente usados ‚Äč‚Äčpelo Hollywood-CGI para fazer com que um ator ou atriz parecesse mais jovem ou impor esse rosto a um ator diferente. Exemplos incluem um jovem Schwarzenegger em Terminator Genisys, e um ladino usando vers√Ķes CGI de Peter Cushing e Carrie Fisher parecendo como no original Guerra das Estrelas Trilogia.

A situa√ß√£o do combate √†s not√≠cias falsas √© ainda mais complicada, pois a f√© nas organiza√ß√Ķes de not√≠cias est√° desmoronando. Depois que a m√≠dia americana n√£o conseguiu prever que Donald Trump venceria a elei√ß√£o, eles propuseram que ele vencera devido a “conluio russo” – algo posteriormente refutado durante o Relat√≥rio Mueller.

Durante esse per√≠odo, os memes que apoiavam Trump e os que pretendiam trollar foram considerados trabalhos de “agentes russos” por alguns meios de comunica√ß√£o, incluindo falsas alega√ß√Ķes de poder votar atrav√©s de tu√≠tes e v√≠deos sinceros alegando Hillary Clinton com problemas de sa√ļde.

Muitos acham que os principais meios de comunicação denunciaram histórias positivas sobre Trump (e histórias negativas sobre Clinton), declarando-lhes notícias falsas Рum termo que Trump mais tarde os usaria.

Tentativas de lidar com not√≠cias falsas resultaram nas mesmas perguntas repetidas vezes – Ser√° que aqueles que s√£o respeitados s√£o imunes a serem chamados de not√≠cias falsas? Ser√° que esse sistema conseguir√° distinguir entre entretenimento, trolling e inten√ß√£o de enganar? A d√ļvida at√© caiu em organiza√ß√Ķes de verifica√ß√£o de fatos como a Snopes.

Mesmo que esse sistema n√£o tenha objetivos de mal√≠cia ou censura, o uso de um algoritmo tamb√©m √© um ponto de disc√≥rdia. O YouTube √© frequentemente criticado pelo modo como seu algoritmo para conte√ļdo copiado ou ofensivo resultou no banimento em massa e na desmonetiza√ß√£o de contas que n√£o violavam seus termos – incluindo jornalistas independentes e canais hist√≥ricos.

Algoritmos tamb√©m s√£o propostos para os artigos 11 e 13 da Uni√£o Europ√©ia. Desenvolvidos para combater viola√ß√Ķes de direitos autorais, as leis foram criticadas por v√°rias raz√Ķes – incluindo d√ļvidas sobre se os algoritmos seriam capazes de distinguir entre par√≥dia (memes e trabalho transformador) e real viola√ß√£o de direitos autorais (distribui√ß√£o gratuita de um peda√ßo de m√≠dia).

O que você acha? Som desligado nos comentários abaixo!

0 Shares