Quatro estratégias para combater a desinformação antes das eleições • The Berkeley Blog

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br


No início de outubro, o Departamento de Segurança Interna dos EUA (DHS) divulgou sua “Avaliação de Ameaça Interna”. O relatório alerta que os influenciadores online russos e chineses continuam a empregar campanhas coordenadas para espalhar a desinformação e a desinformação para ampliar a divisão sócio-política e aumentar a repressão eleitoral. Com a eleição presidencial de 2020 nos EUA em apenas duas semanas, essas táticas devem aumentar.

O governo do estado da Califórnia tomou medidas para mitigar essas táticas aprovando uma legislação voltada para bots e deepfakes – ferramentas que fazem cada vez mais parte do arsenal de campanhas de influência coordenadas. Infelizmente, eles provavelmente serão ineficazes.

Aprovado em lei em 2018, o “BOT Bill” da Califórnia exige a divulgação de bots que tentam influenciar o comportamento de voto ou compra dos residentes da Califórnia. Renée DiResta, gerente de pesquisa técnica do Stanford Internet Observatory, alerta que a lei tem falhas significativas, incluindo a falta de clareza na própria definição de “bot”. O BOT Bill define um bot como “uma conta online automatizada onde todas ou substancialmente todas as ações ou postagens dessa conta não são o resultado de uma pessoa.”

Definir “substancialmente” não é simples, e tentar focar em contas altamente automatizadas perde uma descoberta crítica em muitas de suas pesquisas. As contas que possuem alguns recursos automatizados, mas em grande parte operadas por humanos, são as mais eficazes na execução de uma operação de influência. Concentrar a atenção apenas nos riscos de automação negligenciando as contas que causam os maiores danos. Além disso, como a lei remove a responsabilidade das plataformas para identificar bots e, em vez disso, coloca a responsabilidade sobre os criadores dos bots para identificá-los publicamente, DiResta alerta que os bots políticos maliciosos provavelmente não serão verificados.

Leia Também  The Commodities Feed: Facilitando a manifestação induzida

Em outubro de 2019, a Califórnia se tornou o segundo estado a proibir falsificações políticas maliciosas antes de uma eleição. Embora bem intencionada, a “Lei Antifalsificação” da Califórnia sofre de quatro falhas principais que impedirão significativamente seu sucesso: tempo, responsabilidade perdida, ônus da prova e remédios inadequados. A lei se aplica apenas a deepfakes maliciosos distribuídos dentro de 60 dias de uma eleição, uma restrição de tempo forçada que não reflete a natureza duradoura do conteúdo online.

Em vez de solicitar que as plataformas identifiquem deepfakes maliciosos, a lei coloca a responsabilidade sobre o criador e o público em identificá-los. É como pedir a um vigarista que informe gentilmente suas vítimas antes de enganá-las. E a dependência excessiva do público para sinalizar deepfakes maliciosos provavelmente resultará em falsos positivos e falsos negativos. A lei só se aplica a deepfakes “maliciosos”. O que pode ser considerado “malicioso” não está claro. Enquanto os indivíduos debatem a intenção de um deepfake, ele provavelmente permanecerá disponível online, permitindo que ganhe viralidade e afete a opinião pública muito antes de uma determinação ser feita.

Como o BOT Bill, um foco inadequado na sofisticação técnica da Lei Anti-Deepfake desvia a atenção de táticas mais simples que podem causar um estrago maior. Com foco em deepfakes, a lei ignora cheapfakes, que usa tecnologia menos sofisticada para editar imagens e vídeos. Isso ainda pode ser amplamente divulgado para manipular, confundir e influenciar os eleitores. Como disse Hany Farid, professor e especialista em perícia digital da UC Berkeley que trabalha com detecção de falsificações profundas: “Você pode pensar no falsificador profundo como a bazuca e a emenda do vídeo como um estilingue. E acontece que o estilingue funciona. ”

Embora a legislação desempenhe um papel importante em impedir campanhas de influência coordenada maliciosas, as plataformas de mídia social têm a capacidade de buscar uma variedade de táticas que podem mitigar a eficácia dessas campanhas, como apoiar a educação pública sobre a ameaça e a natureza dessas campanhas; detecção de bots, cheapfakes, deepfakes e desinformação; implementação de intervenções para mitigar a disseminação de conteúdo malicioso; e suporte à autenticação de conteúdo de mídia.

Leia Também  Bernie, Jesse e o Partido Democrata • Blog de Berkeley
cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br

Primeiro, a expansão da educação pública é necessária sobre a natureza e as táticas de campanhas de influência coordenadas. Um público mais informado pode se tornar um consumidor consciente das mídias sociais, permitindo-lhes auxiliar as plataformas a sinalizar com mais precisão o conteúdo malicioso e diminuir sua disseminação. A mídia social deve integrar programas educacionais como o apartidário “News Literacy Project” para aumentar a consciência do público sobre táticas de desinformação e desinformação e o “Spot the Deepfake Quiz” da Microsoft para permitir uma maior compreensão de como a tecnologia deepfake funciona.

As plataformas de mídia social precisam desenvolver mais comunicação voltada para o público quando bots e deepfakes são detectados. Enquanto essas plataformas rotineiramente emitem relatórios indicando o número de contas inautênticas suspensas e postagens prejudiciais removidas, elas também devem sinalizar publicamente os bots e deepfakes ainda em circulação para aumentar a transparência e a responsabilidade. Isso terá o benefício secundário de educar o público sobre a aparência dos bots e depfakes.

Assim que o conteúdo malicioso ou perigoso for identificado, as plataformas devem intervir. O conteúdo que viola os padrões da comunidade deve ser removido, mas não excluído. Deve ser armazenado para pesquisas futuras em colaboração com pesquisadores independentes. Esta etapa é crítica para facilitar a compreensão pública do papel e dos efeitos das plataformas na democracia. Para conteúdo problemático que deve permanecer online, como postagens de líderes eleitos que são de interesse público, as plataformas devem remover recursos de interação (ou seja, a capacidade de curtir e compartilhar de novo). Ao manter o conteúdo online, as plataformas podem ajudar a corrigir informações imprecisas e fornecer transparência em narrativas falsas ou enganosas.

Uma das razões pelas quais as campanhas de influência maliciosa são bem-sucedidas é a incapacidade de provar sua veracidade. A autenticação da mídia é crítica para permitir que o público diferencie o fato da ficção. A Truepic, startup com sede em San Diego, fez parceria com a Qualcomm para desenvolver um recurso que marca com segurança imagens e vídeos capturados por um smartphone com informações de data e localização. Esta tecnologia é parte de um esforço maior liderado pela Content Authenticity Initiative, que inclui Adobe, Twitter e O jornal New York Times, para desenvolver um padrão para autenticar imagens digitais. As plataformas de mídia social desempenham um papel importante no auxílio ao desenvolvimento e suporte de técnicas de verificação de mídia. Seu envolvimento é fundamental para garantir que esses recursos sejam usados ​​para verificar imagens e vídeos em suas plataformas.

Leia Também  Com Barr como seu facilitador, Trump superou Nixon • The Berkeley Blog

Desenvolver e implementar legislação é um processo longo que pode não ter os resultados pretendidos. Em vez disso, as plataformas de mídia social estão melhor posicionadas para implementar táticas responsáveis ​​agora. Isso inclui assumir uma função mais ativa para mitigar a disseminação de conteúdo malicioso, apoiando a educação sobre campanhas e técnicas de influência, detectar e sinalizar contas e comportamentos não autênticos, implementar intervenções apropriadas para corrigir erros e desinformações e apoiar o desenvolvimento de técnicas de autenticação seguras para verificar a proveniência das fontes de mídia.

Brandie Nonnecke é Diretora do Laboratório de Políticas CITRIS da UC Berkeley e Fellow do Carr Center for Human Rights Policy de Harvard. Encontre-a no Twitter em @BNonnecke.

Esta peça apareceu originalmente na Protego Press.



cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br