O medo das notícias falsas

Fevereiro 5, 2019 • Jornalismo digital, Últimas • by

Europe flag

(foto Pixabay)

No final de Maio, a Europa irá a eleições. Muitos observadores receiam que possamos assistir às mesmas dinâmicas que acabaram por afetar os resultados do referendo do Brexit e das eleições presidenciais norte-americanas, com massivas e incontroláveis campanhas de desinformação. A pensar nisso, a Comissão Europeia lançou em 2017 um programa detalhado para identificar e eliminar as notícias falsas e a desinformação online. O foco está sobre a Google e o Facebook. Na semana passada, a Comissão divulgou os primeiros resultados dessa investigação às duas plataformas. Será isso suficiente para proteger as eleições europeias da ameaça da desinformação?

Ambos os relatórios se centram nas medidas que essas empresas (assim como outras plataformas, como o Twitter, por exemplo) se comprometeram a implementar com respeito ao Código de Conduta que assinaram. As medidas em causa são semelhantes em ambos os casos e estes são os seus aspetos mais importantes:

Publicidade:

O Facebook anunciou uma maior transparência, nomeadamente com um arquivo de anúncios de carácter político que estará acessível ao grande público. Para além da publicidade clássica realizada pelos partidos, este repositório também incluirá aqueles anúncios temáticos que, não sendo diretamente emitidos pelos partidos, abordam temas controversos do ponto de vista político. Nos EUA, esses anúncios abordam normalmente temas como o aborto ou a imigração. Na iminência das eleições europeias, esse arquivo destinado a trazer transparência à comunicação política será também lançado na Europa. De momento, ainda não existe uma data prevista para isso.

Do mesmo modo, a Google também pretende disponibilizar um arquivo de anúncios políticos pesquisável e assegurar um maior nível de transparência nesse tipo de disseminação de informação. Tal como o Facebook, também a Google ainda não anunciou datas para o fazer, mas isso deverá acontecer, naturalmente, antes das eleições europeias.

 

 

Combater as contas falsas:

Tudo aquilo que o Facebook classificar como ‘comportamentos não autênticos’ (contas falsas, contas bloqueadas que são recuperadas, etc) será apagado da rede. O Facebook estima que três a quatro por cento de todas as contas existentes sejam falsas. Se tomarmos em conta o total de 2,2 mil milhões de utilizadores da plataforma, esse número pode ascender a cerca de 88 milhões de contas. No entanto, o Facebook tem vindo a combater esta ‘doença’ desde há vários anos: as contas que não estão associadas a um indivíduo concreto são um problema na plataforma pelo menos desde 2016.

A Google também está a encetar ações para combater as contas falsas, assim como os ataques que se dirigem aos seus produtos e serviços (como a criação de contas, os registos no Google News ou as ações de ‘black-hat SEO’) de forma a evitar a manipulação dos resultados de pesquisa. A plataforma tem interesse em desenvolver esforços nesse sentido, uma vez que eles se destinam a criar um ambiente mais confortável e seguro para os seus utilizadores. Este tipo moderação dos conteúdos é uma parte básica dos serviços prestados pelas plataformas digitais, tal como descreve Tarleton Gillespie.

Interferências nos resultados do algoritmo:

O Facebook dá prioridade às fontes de notícia que são mais credíveis e, inversamente, desvaloriza os conteúdos enganadores, mostrando-os menos frequentemente aos utilizadores. Na verdade, continua a ser questionável porque razão o Facebook insiste em mostrar esses posts, que a própria plataforma classifica como enganadores.

A Google, por seu lado, planeia mostrar mais conteúdos de verificação de factos nos seus resultados de pesquisa e está a desenvolver ‘indicadores de credibilidade’ que permitirão assinalar mais claramente aqueles que são ou não são conteúdos de qualidade. A verdade é que nenhuma destas medidas é propriamente nova, quer no caso da Google que no caso do Facebook. Mais interessante é o anúncio recente, por parte do YouTube, conhecido por albergar tudo o que é teoria da conspiração, de que os chamados ‘conteúdos marginais’ serão mostrados com menos frequência, sendo que este tipo de conteúdos inclui coisas como as teorias da conspiração à volta do 11 de Setembro, as teses contra a vacinação ou os argumentos daqueles que ainda acreditam que a Terra é plana. Só o tempo dirá quais os resultados que essas medidas poderão ter, mas o YouTube vai adiantando que apenas cerca de um por cento dos seus vídeos deverão ser afetados. Seja como for, este anúncio por parte do YouTube não especifica como irá ser feita classificação de quais são os ‘conteúdos marginais’ nem se isso irá acontecer manual ou automaticamente.

A preocupação existe, mas ainda há muito por fazer

Em suma, as duas mais importantes plataformas online da atualidade parecem estar a tomar medidas para combater a desinformação, motivadas pela pressão política que sobre elas está a ser exercida mas também porque esperam continuar a recolher benefícios económicos dessas medidas. Mas será isso suficiente?

Mariya Gabriel, comissária europeia para a Economia e Sociedade Digitais, considera que ainda existe muito para melhorar.

 

Durante a conferência ‘Countering Online Disinformation’, organizada em Bruxelas no passado dia 29 de Janeiro, a comissária lamentou as ‘várias fraquezas’ que a abordagem das plataformas ainda denota. De acordo com Mariya Gabriel, é desde logo problemático que estas medidas não sejam implementadas igualmente em todos os países da União Europeia. Além disso, segundo esta responsável europeia, as mudanças são muito lentas e as medidas tendentes a assegurar a transparência do mercado publicitário não são suficientemente arrojadas, uma vez que não possibilitam a entidades independentes um suficiente acesso aos dados das plataformas. Estas críticas ajudam a esclarecer o estado atual da esfera pública digital e a forma como a desinformação é tratada.

Durante a referida conferência, os representantes das plataformas sublinharam abundantemente que a transparência é um imperativo e que os utilizadores devem ter acesso a mais informação (incluindo informação acerca da informação). No entanto, existem dúvidas se mais informação vai realmente resolver o problema ou se irá contribuir para aumentar a confusão. Philip M. Napoli debateu esta questão em particular (‘What if more speech is no longer the solution?’) e conclui que, para estarem à altura da sua função social, as plataformas precisam fazer mais do que apenas combater a desinformação.

No entanto, quando pensamos em literacia mediática, a transparência e a informação também são elementos que nos distraem de outros aspetos importantes, como por exemplo o facto de a organização da esfera pública digital estar cada vez mais monopolizada pelas grandes plataformas. É um dilema dos tempos modernos: para que exista um discurso social são necessárias as plataforma, mas, ao mesmo tempo, é preciso que essas plataformas implementem as regras tendentes ao seu bom funcionamento. E isso confere-lhes competências e responsabilidades de nível quase governamental.

Embora, pelo menos na Europa, os princípios de regulação sejam definidos em cooperação entre os reguladores, os especialistas de cada setor e a sociedade civil, o controlo da sua implementação fica normalmente a cargo das empresas de tecnologia e da informação que elas de predispõem a disponibilizar. Por isso, às vezes são apenas os denunciantes que nos permitem conhecer aquilo que está escondido (como Christopher Wylie, do escândalo Cambride Analytica). Até hoje, não surgiu qualquer sistema externo e institucionalizado de monitorização das plataformas. Os tempos mais próximos irão certamente mostrar se o anunciado acesso que será facultado a cientistas e investigadores será ou não suficiente para conhecermos melhor os meandros das plataformas.

O problema é que já não sobra muito tempo. As eleições europeias terão lugar daqui a menos de quatro meses. O que significa que no final de Maio já teremos uma ideia mais clara acerca do sucesso – ou não – destes esforços de regulação que resultam da negociação entre a União Europeia e as plataformas, naquela que é uma abordagem inédita no mundo.

 

Este artigo foi originalmente publicado no site do EJO alemão, no dia 31 de Janeiro de 2019, e é aqui usado sob permissão.

 

Referências:
Gillespie, Tarleton (2018): Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media: Yale University Press.
Napoli, Philip M. (2018): What If More Speech Is No Longer the Solution? First Amendment Theory Meets Fake News and the Filter Bubble. In: Federal Communications Law Journal 70 (1), S. 55–104.

Print Friendly, PDF & Email

Tags:, , , , , ,

Send this to a friend