Fake News a praga da desinformação

Publicado por: admin
23/07/2018 07:25:32
Exibições: 388
Courtesy Pixabay
Courtesy Pixabay
O que sabemos sobre notícias falsas?
 
Um resumo dos últimos pensamentos

Por Sinah Aral

Em março de 2018, os tweets do presidente Trump, alegando que a Amazon paga “pouco ou nenhum imposto aos governos estaduais e locais”, enviaram as ações da empresa para seu pior desempenho mensal em dois anos. Trump teve seus fatos errados - e o preço das ações, desde então, se recuperou -, mas o incidente destaca um problema inquietante: as empresas são profundamente vulneráveis ​​à disseminação de informações erradas nas mídias sociais. Não é novidade que a grande mídia tem se concentrado principalmente em saber se as notícias falsas afetaram a eleição presidencial de 2016. Mas a verdade é que ninguém está a salvo desse tipo de dano. A disseminação da falsidade tem implicações para nossas democracias, nossas economias, nossos negócios e até mesmo nossa segurança nacional. Precisamos fazer um esforço conjunto para entender e abordar sua disseminação.

 

Nos últimos três anos, Soroush Vosoughi, Deb Roy e eu estudamos a disseminação de notícias falsas on-line. (Usamos o rótulo de "notícias falsas" porque "notícias falsas" se tornaram tão polarizadoras: os políticos agora usam essa frase para descrever notícias que não apoiam suas posições.) Os dados coletados em um estudo recente mediram a história do Twitter início, em 2006, para 2017. Coletamos 126.000 cascatas de tweets (cadeias de retweets de origem comum) que viajaram pela Twittersfera durante esse período e verificaram a verdade ou falsidade do conteúdo que estava se espalhando. Em seguida, comparamos a dinâmica de como as notícias verdadeiras versus as falsas se espalham online. Em 9 de março, a revista Science publicou os resultados de nossa pesquisa como matéria de capa.

 

O que descobrimos foi surpreendente e perturbador. As notícias falsas viajaram mais longe, mais rápido, mais profundamente e mais amplamente do que a verdade em cada categoria de informação, às vezes em uma ordem de grandeza, e notícias políticas falsas viajaram mais longe, mais rápido, mais profundo e mais amplamente do que qualquer outro tipo.

 

A importância de entender esse fenômeno é difícil de exagerar. E, com toda probabilidade, o problema vai piorar antes de melhorar, porque a tecnologia para manipular vídeo e áudio está melhorando, tornando as distorções da realidade mais convincentes e mais difíceis de detectar. A boa notícia, porém, é que pesquisadores, especialistas em IA e plataformas de mídia social estão levando a questão a sério e aprofundando a natureza do problema e as possíveis soluções.

 

O AUTOR

SINAN ARAL

 

Falsas notícias em si não eram algo que Sinan Aral (o Twitter @sinanaral) achava que ele estaria estudando. Ele e Deb Roy estavam aconselhando Soroush Vosoughi em sua tese de doutorado no MIT, quando a Maratona de Boston foi bombardeada. Como muitos outros naquele dia, eles procuraram o Twitter para descobrir o que estava acontecendo. "Vimos muita desinformação", lembra Aral. Vosoughi ficou tão fascinado com a experiência que tomou o passo dramático e incomum de mudar sua tese para se concentrar exclusivamente em notícias falsas. Os três se tornaram co-autores de um importante artigo da Science sobre a capacidade de as notícias falsas se espalharem e aderirem.

 

Neste artigo, examinarei como podemos conter a disseminação da falsidade. Uma luta bem-sucedida exigirá quatro abordagens inter-relacionadas - educar os jogadores, mudar seus incentivos, melhorar as ferramentas tecnológicas e (a quantidade certa) de supervisão governamental - e as respostas a cinco questões-chave:

 

 

Mas antes de entrar em soluções, vamos examinar mais de perto por que devemos nos preocupar com esse problema.

 

POR QUE AS NOTÍCIAS FALSAS SÃO PERIGOSAS?

 

As pessoas têm contado mentiras e espalhado rumores desde o início da história gravada - provavelmente desde que elas soubessem como falar umas com as outras. Mas as coisas são bem diferentes hoje. A mídia social, que aumenta a velocidade e a amplitude com que a informação se espalha, tornou-se extraordinariamente poderosa em um tempo muito curto. O Twitter, fundado em 2006, tem 336 milhões de usuários ativos em todo o mundo, e o Facebook, fundado em 2004, possui 2,19 bilhões. Essas plataformas se tornaram a principal fonte de notícias para muitas pessoas. Mas como eles fizeram, até hoje, uma escolha consciente de não avaliar a qualidade do conteúdo que distribuem, virtualmente não existem salvaguardas quando se trata de verdade e falsidade on-line.

 

 

O fato de que informações falsas se espalham tão facilmente em plataformas de mídia social não é apenas um incômodo, é claro; também pode ser perigoso e caro. Obviamente, falsas notícias ameaçam a integridade de nossas eleições e democracias. Com as acusações relacionadas a Rússia de Robert Mueller surgindo em nossas mentes, foi assustador assistir ao vídeo secreto de Alexander Nix, o ex-CEO da Cambridge Analytica, descrevendo como sua empresa usou histórias fabricadas, propagadas on-line, para influenciar eleições globais. O júri ainda não sabe em que medida as notícias falsas afetaram as eleições presidenciais e as eleições na Europa e na África. Mas a maioria dos especialistas concorda: A disseminação da falsidade on-line é uma preocupação séria para o processo democrático.

 

Falsas notícias também podem levar à má alocação de recursos quando a polícia e os socorristas confiam, mesmo em parte, nas mídias sociais para coletar informações durante um ataque terrorista. A desinformação fluiu livremente no momento do atentado à Maratona de Boston, por exemplo, quando o campus do MIT que Soroush, Deb e eu chamamos de nossa casa profissional estava em bloqueio como o local de uma investigação contínua sobre terrorismo. As informações eram escassas e não sabíamos quais partes do campus estavam seguras. Nós procuramos atualizações no Twitter e descobrimos que, além das verdadeiras notícias de última hora, que eram mais atualizadas do que qualquer transmissão de televisão, muitas informações falsas estavam se espalhando e direcionando a lei de maneira errada. Se os invasores souberem que a imposição da lei depende da mídia social, eles podem usá-la para impedir proativamente as respostas da polícia.

A desinformação afeta nossa economia, nossos investimentos e o valor dos negócios individuais. Em 2014, um falso tweet alegando que Barack Obama havia sido ferido em uma explosão eliminou US $ 130 bilhões em valor patrimonial em um único dia. Os fundos de investimento modernos usam o sentimento da mídia social para informar suas práticas comerciais algorítmicas. Quando notícias falsas se infiltram em tais meios, esses operadores automatizados consomem e negociam essas informações. Ninguém mediu de forma robusta as perdas geradas pelo comércio algorítmico com base em notícias falsas, mas exemplos anedóticos sugerem que o impacto da mídia social na economia pode ser grande.

 

Informações falsas podem distorcer virtualmente qualquer aspecto da administração de um negócio: ele pode desalinhar investimentos; reduzir retornos; e descarrilar previsões de demanda, modelos de inventário e planejamento. Também pode prejudicar reputações (e com elas as avaliações de mercado). Os tweets do presidente Trump sobre a Amazônia são apenas um exemplo de alegações falsas que prejudicam uma corporação. O site de checagem de fatos Snopes mantém uma lista de rumores “hot 50” que é atualizada com regularidade alarmante; incluiu um boato de 2008 de que a United Airlines estava pedindo falência, um relatório de 2017 que a Starbucks daria Frappuccinos a trabalhadores indocumentados, e outro relatório de 2017 afirmando que Indra Nooyi, CEO da PepsiCo, havia dito a apoiadores do recém-eleito presidente dos EUA. para "levar seus negócios para outro lugar". Como no comércio algorítmico, Não temos estimativas sólidas de quanto a desinformação por danos causou negócios individuais. Mas a frequência de tais eventos sugere que é um problema real e crescente.

 

POR QUE A NOTÍCIA FALSA SE ESPALHA?

 

Algumas descobertas de nossa pesquisa lançam dúvidas sobre explicações aparentemente óbvias sobre por que notícias falsas viajam tão rápida e amplamente. Por exemplo, você pode presumir que os pesos pesados ​​da mídia social estão por trás da disseminação bem-sucedida de notícias falsas, mas nossos dados revelaram o contrário. Aqueles que espalharam notícias falsas estavam significativamente menos conectados do que aqueles que espalharam notícias verdadeiras - eles tinham menos seguidores, seguiam menos pessoas, eram menos ativos no Twitter, eram “verificados” com menos frequência e estavam no Twitter há menos tempo. Tudo isso sugere que a falsidade se difunde mais e mais rápido, apesar das diferenças entre os dois grupos, não por causa deles.

 

Você também pode imaginar, lendo histórias de jornais (e depoimentos no congresso), que os bots são o fator chave que impulsiona a difusão de informações falsas. Mas, de acordo com nossos dados, os robôs aceleraram a disseminação de notícias verdadeiras e falsas com aproximadamente a mesma taxa - sugerindo que as notícias falsas se espalham mais rápido porque os humanos têm maior probabilidade de disseminá-las.

 

A suscetibilidade das pessoas à falsidade pode ser melhor explicada pelo que é chamado de hipótese da novidade. De acordo com essa teoria, a novidade atrai a atenção e estimula o compartilhamento, transmitindo status para pessoas que parecem mais interessadas. Em nosso estudo, as notícias falsas eram de fato mais inovadoras do que a verdade, e as pessoas eram mais propensas a compartilhar informações novas. (Pense em “novidade” como “diferente do que o tweeter está acostumado a ver”.) Falsos rumores também inspiraram maior surpresa e repulsa nas respostas, enquanto a verdade inspirou maior antecipação, alegria e confiança. As pessoas podem simplesmente ser mais propensas a compartilhar notícias surpreendentes e lascivas.

 

 

LUTANDO COM NOTÍCIAS FALSAS

Uma maneira ampla de combater a falsidade on-line é considerar a perspectiva do consumidor. Uma abordagem do lado da demanda pode, por exemplo, tentar educar os consumidores, fornecendo-lhes informações sobre a qualidade de uma história ou um tweet. Uma abordagem do lado da oferta resolveria o problema na sua origem - por exemplo, criando desincentivos para as mídias sociais e provedores de conteúdo para publicar e disseminar notícias falsas. As duas abordagens são complementares e ambas serão essenciais. Algoritmos serão, sem dúvida, cruciais na execução de qualquer um deles. Além disso, os governos precisarão descobrir como podem desempenhar um papel útil - não destrutivo - de supervisão.

 

Proteger e educar os consumidores. Suponha que pudéssemos avaliar e comunicar a precisão das informações e notícias disponíveis nas mídias sociais, rotulando-as. Nós já fazemos isso com comida. Na maioria dos países, os alimentos embalados são rotulados extensivamente. Sabemos quantas calorias contém, quantos gramas de açúcar e proteína e gorduras trans tem. Nós até sabemos se é orgânico ou free-range e se foi produzido em uma instalação que também processa trigo ou amendoim. (Essa informação nem sempre foi tão prontamente disponível. É agora porque os consumidores se mobilizaram e, em resposta, os governos escreveram e impuseram regulamentações.)

 

Mas quando consumimos notícias, principalmente online, temos muito menos informação. Não sabemos se a fonte tende a disseminar informações verdadeiras ou falsas. Não sabemos se uma determinada história é provavelmente verdadeira ou falsa. Nós nem sabemos como as notícias foram produzidas - se o editor requer três fontes independentes para concorrer com um fato ou apenas um. Não sabemos quantos repórteres trabalharam na história, quantas entrevistas realizaram ou por quanto tempo investigaram.

 

Este é um caminho importante a ser seguido, mas levanta várias questões que carecem de respostas fáceis:

 

Sabemos como identificar com precisão notícias falsas? Em nossa pesquisa, usamos as cascatas do Twitter cuja veracidade foi avaliada por seis organizações independentes de verificação de fatos. Em seguida, usamos estudantes que trabalhavam de forma independente no MIT e em Wellesley para verificar a tendência de como os verificadores de fatos haviam escolhido essas cascatas.

 

Obviamente, esse processo seria difícil de escalar. Portanto, construir algoritmos que possam prever com mais eficiência a veracidade do conteúdo será crítico. Em sua tese de doutorado no MIT, supervisionada por Deb Roy e aconselhada, Soroush Vosoughi desenvolveu um dos primeiros algoritmos para detectar e prever automaticamente a veracidade dos rumores espalhados pelo Twitter em tempo real. O classificador utiliza características semânticas e sintáticas para identificar rumores com 91% de precisão e prediz a veracidade desses rumores em tempo real, com 75% de precisão, utilizando seu estilo lingüístico, as características das pessoas envolvidas na sua propagação e a dinâmica de propagação. Eu vi novas pesquisas nesta área que também parece promissora. Mas estamos longe de ter uma metodologia acordada para identificar notícias falsas.

 

Quem decide o que é verdadeiro ou falso? Esta é uma questão crítica - mas não tem uma resposta clara. Devemos deixar isso para plataformas como Facebook e Twitter? Devem os reguladores decidir? Devemos confiar em organizações de checagem de fatos como as que procuramos em nossa pesquisa? Devemos estabelecer algum tipo de comissão independente? Parece impossível garantir que os verificadores de fatos e as comissões não sejam politizados. Muito mais pensamento - e pesquisa - precisa acontecer antes que tenhamos boas respostas.

 

Respondendo à pressão em torno desta questão, o Facebook anunciou recentemente que adicionará um botão "sobre este artigo" aos posts de notícias em seu site. O botão levará a mais informações, incluindo artigos relacionados sobre o tópico, histórias postadas recentemente pelo mesmo editor e um link para a página da Wikipedia do editor. Isso pode ser um movimento na direção certa, mas claramente precisamos de mais.

 

Rotulagem precisa realmente retardaria a disseminação de notícias falsas? A evidência científica sobre a eficácia da rotulagem é atualmente inconclusiva. Algumas pesquisas mostram que rotular falsas notícias diminui a disseminação de desinformação. Outra pesquisa mostra que, na verdade, aumenta o spread. Pouco do trabalho nesta área ainda foi publicado ou revisado por pares. Portanto, precisamos de experimentação para aprender como os rótulos podem efetivamente reduzir a disseminação da falsidade. Por exemplo, uma "pontuação de veracidade" funcionaria melhor do que um link para a página da Wikipédia do editor?

 

Altere os incentivos para criadores de conteúdo, anunciantes e empresas de mídia social. O ecossistema de publicidade nas mídias sociais depende da disseminação de conteúdo. Quanto mais conteúdo atenção receber, mais valor ele cria e mais receita de publicidade ganha. Então, em certo sentido, os atuais modelos de negócios de publicidade digital incentivam a disseminação de notícias falsas - porque, como vimos, a desinformação viaja mais longe, mais rápido, mais profundamente e mais amplamente do que as notícias precisas. Tem sido amplamente divulgado que a produção de notícias falsas na Macedônia durante a eleição presidencial de 2016 foi motivada menos por incentivos políticos do que por incentivos econômicos. Os produtores simplesmente descobriram que podiam ganhar mais receita publicitária de histórias falsas do que de verdadeiras.

 

Incentivos econômicos para circular informações erradas são, obviamente, de curto prazo e míopes. A longo prazo, a disseminação de notícias falsas degrada as plataformas, prejudica os anunciantes e diminui a credibilidade dos criadores de conteúdo honestos - um fato que a maioria deles conhece bem.

 

Estamos nos estágios iniciais de reflexão sobre como os fornecedores podem querer (ou precisam) mudar. Dito isso, vejo duas amplas possibilidades:

 

1. Extirpar o modelo de negócios do ecossistema. Uma abordagem radical seria substituir o modelo de negócios voltado para anúncios do Facebook e de outras empresas de mídia social por um modelo de assinatura - a justificativa é que priorizar cliques e engajamento promove conteúdo sensacional, divisivo e falso. Se os usuários simplesmente pagassem uma taxa de assinatura mensal, os incentivos poderiam ser realinhados com os melhores interesses dos usuários.

 

Essa possibilidade já está no radar do Facebook. No Today Show, a COO Sheryl Sandberg lançou a idéia de transformar o Facebook em um modelo “freemium”, no qual os usuários pagariam para desativar os anúncios e, presumivelmente, a coleta de dados. Economicamente falando, isso pode ser possível: modelos Freemium são, afinal, abrangentes. O Pandora permite que você ouça gratuitamente com anúncios, mas cobra por audição sem anúncios. O New York Times permite que você leia 10 artigos gratuitos por mês, após os quais você paga.

 

Mas isso é realista? O Facebook e algumas outras grandes empresas criaram juntos um setor econômico extraordinariamente valioso. É difícil imaginar que eles saiam da máquina de fazer dinheiro que criaram sem a pressão dos reguladores (que discutirei abaixo).

 

Mesmo que pudéssemos acenar com uma varinha e reinventar os modelos de negócios subjacentes às empresas de plataforma de mídia social, seria sensato? Muitos editores que produzem conteúdo diversificado e não principal não poderiam sobreviver sem receita publicitária, porque apenas os grandes players têm escala para fazer com que os modelos de assinaturas funcionem. Em vez de pagar por vários serviços, os consumidores provavelmente escolheriam uma assinatura em cada categoria de conteúdo (notícias, esportes, opinião e assim por diante). Consequentemente, o mercado de produção de conteúdo provavelmente encolheria, concentrando-se nas mãos de poucas grandes empresas. Os danos à sociedade decorrentes dessa perda de diversidade de informações podem ser grandes.

 

A mudança não afetaria apenas os editores e seus consumidores. O ecossistema de marketing digital da mídia social sustenta muitas outras empresas e é responsável por um número significativo de empregos e quantidade de produtos entre marcas, agências, agências de negociação, plataformas de demanda, bolsas de anúncios, redes de anúncios e plataformas de fornecimento.

 

Outra consideração importante é que a mudança para um modelo de assinatura pode acelerar a desigualdade. De acordo com um estudo da PEW de 2017, quase 70% dos adultos americanos “recebem pelo menos algumas de suas notícias nas redes sociais”, e 70% dos que usam o Twitter dizem que recebem notícias por lá. Além das notícias, os usuários do Facebook têm acesso a relacionamentos e redes, que são essenciais para conseguir empregos e gerenciar oportunidades econômicas. A mudança para um modelo de assinatura quase certamente restringiria o acesso para aqueles que não pudessem pagar.

 

Uma mudança para assinaturas também correria o risco de exacerbar o que eu chamo de falta de privacidade - a distribuição desigual da privacidade em toda a sociedade. Somente usuários mais ricos poderiam pagar, digamos, US $ 9,99 por mês pelo Facebook. Se acreditamos que a privacidade é valiosa e que proteger nossos dados pessoais é importante, como nos sentimos sobre uma sociedade em que os ricos compram a liberdade de vigilância enquanto os pobres são obrigados a trocar sua privacidade pelo acesso a informações e empregos?

 

Conclusão: Uma mudança radical no ecossistema da mídia social é improvável, pelo menos nos Estados Unidos. Também não deve acontecer, na minha opinião: regulamentação pesada arriscaria destruir o valor que essas empresas criaram para consumidores e acionistas e desencadear toda uma série de conseqüências negativas não intencionais. No entanto, existe uma alternativa menos radical e mais realista.

 

2. Ajuste o sistema, mas não o faça explodir. Empresas de plataformas têm o poder de reduzir o alcance de notícias falsas. Eles podem optar por trabalhar com outras partes para educar e proteger os consumidores, fazendo o possível para detectar e rotular falsas notícias, na esperança de que os usuários relutem mais em compartilhá-las.

 

Esse tipo de intervenção dependeria do ajuste de vários algoritmos usados ​​atualmente no ecossistema de mídia social e exigiria a cooperação de diversos interessados. Algoritmos de feed de notícias determinam o que os usuários veem em seus feeds de notícias; algoritmos de tendências identificam e aumentam o alcance e a popularidade do conteúdo mais envolvente (para melhor ou para pior); Modelos de segmentação de anúncios e APIs permitem que anunciantes, campanhas políticas e atores (aparentemente) estrangeiros direcionem conteúdo para públicos específicos, por exemplo, os mais suscetíveis a notícias falsas sobre um determinado tópico. Assumindo um sistema de pontuação de veracidade relativamente preciso, esses algoritmos podem ser modificados para reduzir a disseminação da falsidade on-line.

 

Outra abordagem importante seria no design e teste de informação. Os efeitos psicológicos do design da informação na apresentação de notícias on-line afetarão a forma como consumimos, respondemos e compartilhamos conteúdo. Se esse design levasse em conta a falsidade, isso poderia ajudar a reduzir a disseminação dela.

 

REGULAMENTO

 

A questão da supervisão do governo dos gigantes da mídia social tem sido notícia recente. Mark Zuckerberg testemunhou perante o Congresso em março e abril de 2018 e perante o Parlamento Europeu em maio. E em maio, a UE lançou o seu Regulamento Geral de Proteção de Dados (GDPR), um marco regulatório de longo alcance para proteger a privacidade do consumidor. Grandes conclusões sobre o caminho certo para abordar a privacidade de dados e antitruste estão além do escopo deste artigo. Mas os reguladores precisam consultar especialistas em economia digital e seguir com cuidado.

 

Alguns legisladores dos EUA pareciam convencidos de que o Facebook deve ser regulamentado porque é grande demais para se auto-regular, enquanto outros parecem não entender as nuances de como a regulação pode afetar a sociedade e a economia. Muitas das implicações não são óbvias. Perguntar “devemos regular?” Não tem sentido. A melhor pergunta é: "Como a regulamentação pode preservar os efeitos positivos das mídias sociais e, ao mesmo tempo, restringir suas consequências negativas?"

 
 
Informações falsas podem desalinhar investimentos; reduzir retornos; e descarrilar previsões de demanda, modelos de inventário e planejamento.
 
 

As notícias falsas parecem especialmente difíceis de regular, porque inevitavelmente surge uma pergunta: quem terá o poder de decidir que informação deve ser divulgada? Esta é talvez a questão mais importante que as democracias enfrentam na era da informação. Nós não damos ao governo o direito de censurar a mídia de notícias; queremos dar-lhe o direito de controlar como a informação é divulgada online? Ditadores e outros líderes autoritários poderiam facilmente usar esse poder para se entrincheirarem. A Malásia recentemente determinou uma pena de prisão de seis anos para fornecedores de notícias falsas. Tais medidas draconianas poderiam facilmente ser usadas para silenciar a oposição e promover a repressão.

 

Depois, há a questão de quanta responsabilidade é dar às empresas de mídia social o que flui através de seus canais. A Lei de Decência das Comunicações dos EUA (CDA) de 1996 estabeleceu que plataformas como o Facebook seriam consideradas entidades de repasse não responsáveis ​​pelo que os usuários postam online. Isto foi visto como proteger a liberdade de expressão e um benefício para a liberdade da internet. Mas a lei está agora sendo desafiada em uma tentativa de esculpir casos conhecidos de liberdade de expressão nos quais o dano supera claramente os benefícios. Por exemplo, o Senado aprovou recentemente a Lei de Permitir Trafegações Sexuais, que torna o Facebook responsável por anúncios de tráfico de sexo em sua plataforma, por uma esmagadora votação de 97–2.

 

O CDA será fundamental para tornar as plataformas mais responsáveis ​​por seu impacto no mundo. Como isso é usado é crítico, porque regular a fala pode se tornar um declive escorregadio. Como os legisladores enfrentam desafios semelhantes no futuro, os trade-offs entre benefícios e danos serão pesados ​​e revitalizados.

 

A regulamentação do discurso político on-line fornece outro exemplo da complexidade dessa questão. Maryland aprovou uma lei que exige que as plataformas de mídia social rastreiem todos os anúncios políticos e que os usuários sejam segmentados, impede a utilização de moeda estrangeira nas eleições de Maryland e autoriza a Diretoria a investigar reclamações sobre anúncios on-line ou supressão de eleitores. Facebook e Twitter endossaram o Honest Ads Act (que implementaria restrições semelhantes em nível federal) e já adotaram a maior parte de suas provisões. Mas alguns estão preocupados que a lei Maryand será considerada inconstitucional por motivos da Primeira Emenda. E, é claro, a regulamentação poderia colocar o discurso político sob o escrutínio dos atores políticos, que têm preconceitos e interesses próprios.

 

Regular a coleta de dados pessoais também é complicado. É fácil esquecer quantas indústrias e serviços sociais dependem dessa coleta. Por exemplo, todo o nosso sistema de classificação de crédito coleta, usa e vende dados granulares para os anunciantes com o objetivo de segmentação. O acesso do consumidor a cartões de crédito, hipotecas, assistência médica, viagens, serviços sociais e educação requer a coleta de dados privados. Os reguladores devem pesar os benefícios da privacidade de restringir a coleta de dados contra os danos que tais restrições podem causar a esses serviços essenciais.

 

Restringir a coleta de dados, torná-la opcional ou implementar APIs que possibilitam a portabilidade de dados provavelmente resultará em conseqüências não intencionais. Por exemplo, pode-se argumentar que a proteção de dados e a concorrência se compensam. A portabilidade de dados pode permitir a concorrência, dando às novas empresas acesso aos dados sociais dos jogadores estabelecidos (e, portanto, seus efeitos de rede). Mas o Facebook está atualmente sendo criticado por essa portabilidade de dados, compartilhando dados com empresas globais de hardware, provedores móveis e desenvolvedores de novos aplicativos, na China e em outros lugares. Precisamos de ideias sobre como garantir a proteção de dados e a concorrência simultaneamente. Caso contrário, fortalecer um poderia enfraquecer o outro.

 

Mesmo que altos níveis de segurança possam ser garantidos, não está claro que a portabilidade necessariamente melhoraria a concorrência. Por exemplo, é possível que permitir que os consumidores levem seus dados de redes sociais de uma plataforma para outra permitiria a concorrência entre plataformas - mas também é possível que os consumidores optem por compartilhar seus dados apenas com grandes players confiáveis, não com startups que eles don reconheça. Impor restrições de privacidade universal agora, depois que o Facebook e outros construíram monopólios de dados, poderia simplesmente servir para restringir a concorrência do Facebook, aumentando seu poder de mercado. As restrições à coleta e uso de dados devem ser combinadas com ações antitruste? Todos nós devemos observar de perto enquanto o GDPR continua a ser lançado,

 

Como pesquisador, estou particularmente preocupado com as consequências não intencionais do que chamo de paradoxo da transparência : no momento, o Facebook está sob enorme pressão para revelar mais sobre como funciona a publicidade direcionada, como funcionam os algoritmos de feed de notícias e como funcionam os algoritmos de tendências e como a Rússia ou qualquer outra entidade pode espalhar propaganda e notícias falsas na rede. Mas, ao mesmo tempo, está enfrentando forte pressão para bloquear seus dados, aumentar a segurança e proteger a privacidade dos usuários. O Facebook tem trabalhado para ajudar os acadêmicos a avaliar o impacto das mídias sociais nas eleições; a iniciativa que desenvolveu em colaboração com Gary King, de Harvard, e Nate Persily, de Stanford, por exemplo, fornece um novo modelo para a colaboração acadêmico-industrial e é um passo bem-vindo. Mas há um risco real de a empresa reagir exageradamente ao caso da Cambridge Analytica e colocar restrições desnecessárias sobre o que compartilha, o que poderia afetar a conduta das próprias pesquisas que são tão desesperadamente necessárias.

 

DESAFIOS ADIANTE

Assumir a maré da falsidade não será tarefa fácil. O primeiro e talvez o mais difícil desafio é que quase todas as soluções dependem da definição do que é verdadeiro ou falso. Para os rótulos nos informarem ou para os algoritmos bloquearem a disseminação de notícias falsas, devemos determinar onde está a linha entre verdade e falsidade - e conceder a alguém o direito de fazer a ligação. Esse é um problema difícil de resolver.

 

Em segundo lugar, a desinformação é um alvo em movimento. À medida que desenvolvemos projetos para combater a falsidade, os interessados ​​em promovê-la se adaptarão. Algumas das falsidades mais sofisticadas que estudamos foram uma categoria de história que chamamos de mista. Histórias misturadas contêm informações parcialmente verdadeiras e parcialmente falsas. Eles escondem a falsidade em um manto da verdade, o que os torna mais difíceis de detectar e mais difíceis de serem ignorados pelos consumidores. Se a falsidade for estritamente policiada, as histórias intencionalmente combinadas se tornarão mais predominantes.

 

Em terceiro lugar, ainda não vimos nada. A falsidade com a qual estamos lidando hoje não é nem de longe tão sofisticada e insidiosa como a que veremos no futuro próximo. Em 2016, a Rússia usou mensagens políticas baseadas em texto com fotos adulteradas em um esforço para manipular a eleição presidencial dos EUA. Mas as falsas notícias do futuro se manifestarão como mídia sintetizada - áudio e vídeo falsos feitos para parecer e parecer real. Imagine vídeos falsos de políticos engajados no comportamento de fim de carreira - o que pode causar mais danos a longo prazo do que os políticos chamando de notícias falsas sobre o comportamento de fim de carreira, o que já acontece. O desenvolvimento de sintetizadores de mídia de nível comercial mudará nossas percepções da realidade e nossos padrões de verdade. A notícia de que “deepfakes”, um dos sintetizadores de mídia mais notórios, pretende democratizar seu software, facilitando o acesso e a facilidade de uso, não é um bom sinal. Detectar, rotular e bloquear a disseminação de mídia sintetizada será um dos desafios mais importantes da onda iminente de falsidade do designer.

 

Finalmente, não devemos encerrar investigações independentes sobre como as plataformas sociais estão afetando a sociedade. No momento, a forma como as pessoas reagem aos anúncios segmentados por microdispositivos pode ser a melhor indicação de como eles responderão à manipulação política. Suas reações não são insignificantes, mas também não são impressionantes: as taxas de conversão de base estão na faixa de 0,01% a 0,1%. Dados esses números baixos, é realmente provável que a Cambridge Analytica tenha obtido taxas de conversão entre 5% e 7%, como testemunhou Christopher Wylie? Não sabemos - mas precisamos saber disso e muito mais se pretendemos abordar com eficácia os desafios que estão por vir em nosso ecossistema global de informações.

 

A ascensão da falsidade ameaça criar o que o escritor Franklin Foer chama de “o fim da realidade”. Vivemos em um mundo onde governos estrangeiros distribuem falsidades para manipular eleições e romper com democracias, políticos se defendem rotulando a oposição como uma notícia falsa, e as novas tecnologias criam realidades artificiais e virtuais convincentes que podem competir com as nossas. Se essas tendências conseguirem separar o real da nossa percepção coletiva, estaremos em sérios apuros. Plataformas, cientistas e reguladores precisam trabalhar juntos para preservar e promover a verdade antes que estejamos em plena batalha pela realidade. 

 

Fonte: Harvard Business Review

Imagens de notícias

Tags:

Compartilhar

Comentários