ARTIGO: COMBATENDO AS FAKE NEWS PELA RAIZ DO FINANCIAMENTO




Quem paga pela desinformação e quem lucra com ela? Há uma complexidade de fatores que precisamos analisar para identificar o financiamento de condutas maliciosas e canais de desinformação nas redes sociais e como tornar menos lucrativo o uso da desinformação como modelo de negócio de canais das redes sociais.

As mentiras, as manipulações e as falsidades na política e na mídia não são algo inédito. A grande novidade não é a desonestidade das narrativas, mas a resposta do público a isso. A escola de economia comportamental nos dá alguns sinais sobre esse movimento. Basicamente as pessoas decidem primeiro e depois arrumam argumentos que justifiquem essas decisões.

Como cita Mathew D'Ancona em seu livro "Pós-Verdade", o truque é propiciar entretenimento disruptivo como distração da ciência incompreensível, como vimos acontecer com o tema da pandemia. As campanhas de desinformação preparam e aprofundam terreno para a pós verdade e criam um permanente clima conspirativo. A pós-verdade vende e o financiamento desse modus operandi pode se dar de algumas formas. Citaremos três.

A primeira é o autofinanciamento, a mais grave e talvez mais irrastreável. A experiência da extrema direita aponta para a formação de uma rede em que as pessoas se sentem incluídas no processo político, se sentem atores ativos, e não passivos, no ecossistema conspirativo. Essa rede atua também de forma autônoma, horizontal e autofinanciada. E esse debate é relevante quando tratamos de financiamento justamente porque a compressão unilateral de uma existência verticalizada nos leva a respostas enviesadas e inócuas. A convocatória para esse modus operandi trabalha com o sentimento de que há poderosos a serem combatidos e os indivíduos, que antes não faziam parte desse cenário, podem atuar nessa "guerra contra o inimigo".

Essa convocatória é feita de forma assertiva e com muitas técnicas de marketing digital e venda de infoprodutos. Na prática, muitos cursos, livros e capacitações são vendidos e a partir deles temos uma formação de uma espécie de exército de comunicadores. Além, é claro, dos anúncios como forma prioritária de monetização.

A formação desses comunicadores é exponencial, uma vez que esses acabam por ter dois problemas resolvidos. O primeiro é a rentabilidade. A possibilidade de criar conteúdo extremista e ser remunerado por isso via adsenses do Google em seus sites ou canais do Youtube. O segundo é a possibilidade de chamar a atenção de atores políticos relevantes. E aqui temos um outro mecanismo que estimula a radicalização. Quanto mais ódio e surrealismo, maior engajamento e, portanto, maiores ganhos e exposição/repercussão. Assim o mercado digital funciona. Como um ciclo vicioso, primeiro são captados os leads (possíveis "clientes/usuários/consumidores"), especialmente por meio do Facebook Ads, que permite melhor segmentação e anúncios mais assertivos.

Depois, são chamados para redes próprias, tanto os sites próprios, quanto os canais de YouTube. E, posteriormente, a conversão via WhatsApp. Aqui vale destacar que mesmo os estudos menos promissores falam de 75% de retorno nessa mídia. Ou seja, as pessoas vão consumir o conteúdo compartilhado no WhatsApp. Dessa forma, fechamos o ciclo de capturar, manter e nutrir uma base de leads.

Nesse ambiente, as análises realizadas por pesquisadores como David Nemer, do Departamento de Estudos de Mídia na Universidade da Virgínia (EUA), demonstram um contínuo submundo com grupos de pornografia, compra e venda, armas etc. Não é preciso, necessariamente, ter uma base própria, apenas uma forma efetiva de construção de influenciadores.

Assim, não necessariamente deveríamos seguir o dinheiro, mas cortar a sua fonte: os anúncios e a monetização. Em paralelo, com mais transparência das plataformas sobre os anunciantes, podemos também identificar financiamento empresarial.

A segunda forma de financiamento da pós-verdade é por meio de plataformas de financiamento coletivo, o crowndfunding. Nessa modalidade, é possível financiar de forma anônima e, caso sejam feitas em paraísos fiscais ou com criptomoedas, o rastreamento é complexo. Aqui vale destacar a experiência interessante de cadastramento feita pelo TSE para autorização das plataformas de financiamento coletivo aptas a prestarem esses serviços nas eleições, com cruzamento de dados que permitem a fiscalização da Justiça Eleitoral.

E a terceira forma é o uso de agências de guerrilha e de milícias virtuais. Esse mecanismo tem sido bastante explorado na CPMI das Fake News e é mais popular. É importante dizer que essas relações interagem entre si e não são ecossistema homogêneo com interesses apenas comuns. É possível dizer que, na prática, não temos análise precisa do quanto a desinformação é centralizada/financiada e o quanto é orgânica. Os monitoramentos indicam a existência de um ambiente misto, que é alimentado da produção descentralizada, mas que consegue pautar de forma centralizada alguns temas.

Com essa compreensão mais global dos diversos funcionamentos é possível dizer que, para identificar o financiamento da desinformação nas redes sociais, não é preciso apenas "seguir o dinheiro", sem entender quem pratica a desinformação, ou que é possível sufocar sua fonte com transparência na monetização e no uso da mídia programática.

Para concluir essa abordagem, vale mencionar o estudo feito pelo NetLab, da UFRJ, coordenado pela professora Marie Santini, sobre o impacto de iniciativas como o Sleeping Giants. A atuação do movimento Sleeping Giants sugere a seguinte estratégia:

1) monitoramento e acompanhamento de sites que disseminam conteúdo falso e que foram checados;
2) seleção dos sites com maior audiência;
3) convocação da colaboração dos usuários;
4) convidar publicamente os anunciantes associados pelos usuários ao conteúdo falso dos sites a se manifestarem.


O fenômeno estudado indica que houve uma polarização dos bots contra as marcas no Twitter, criando uma intimidação real contra os anunciantes, porém essa polarização foi inflada artificialmente com ajuda de uma rede orquestrada de bots e trolls. Importante dizer que em uma análise realizada foram identificados mais de 18 mil sites com características de baixa qualidade informacional e desinformação.

Há estimativas de retirada de quase US$ 1 milhão em publicidade desses mecanismos com essa atuação, ressaltando que não é um mecanismo neutro e, como tudo, deve ser avaliado com o devido cuidado e proteção das liberdades.

Feita a primeira análise de como identificar o financiamento da desinformação, passamos agora à análise de como tornar menos lucrativo o uso da desinformação como modelo de negócio de canais das redes sociais.

Neste ponto temos de separar a comunicação interpessoal da comunicação de massa e viralizável, nos aplicativos de mensageria privada, mas, principalmente, no WhatsApp.

A exposição de técnicas de profiling e a prestação de contas sobre o uso de dados pessoais caracteriza-se como elemento-chave desse fenômeno complexo que é a desinformação.

Mecanismos como oferecer ao usuário a opção de definir se cada mensagem pode ou não ser reencaminhada, bem parecido com o que o Facebook permite — público/amigos/amigos dos amigos, ou mesmo um tratamento distinto para grupos que possuam link público são alternativas interessantes que requerem mais atenção pelo seu potencial de contribuição no avanço da discussão. É o que professores Pablo Ortellado e João Brant têm defendido.

Na internet as opiniões tendem a ser reforçadas e as mentiras, incontestadas dentro dos filtro-bolhas e isso poderia ser confrontado com uma abordagem mais incisiva de proteção de dados.

O atual modelo de negócio de diversos sites oferece conteúdo gratuito em troca dos dados pessoais. Os termos de consentimento e as condições de uso são do tipo tudo ou nada: ou aceita passar seus dados pessoais para tratamento das empresas ou não usam o serviço disponibilizado.

Como exemplo de mediação dessas situações, visando a proteger os cidadãos no caso de campanhas político-eleitorais, são estabelecidas obrigações de transparência sobre compra de mídia e contratação de ferramentas de marketing digital, e a vedação ao emprego de ferramentas automatizadas que distorçam a percepção sobre o debate público. Essa pode ser uma medida regulatória.

Nesse sentido, a própria Lei Geral de Proteção de Dados pode oferecer caminhos para coibir comportamentos inautênticos que se valham do uso e análise de dados pessoais ao definir hipóteses e regras para o tratamento de dados pessoais, estabelecendo mecanismos de fiscalização e sanções no caso de violação.

Assim, para coibir a desinformação, importa que a sociedade e as instituições estejam a par de quem faz parte e qual é a lógica do ecossistema informacional, qual o aporte financeiro é desembolsado nos diferentes tipos de mensagem, a partir de qual base de dados esses atores elaboraram suas estratégias, quais métodos de perfilização comportamental são utilizados e como estes serviram para elaborar e direcionar determinada mensagem a determinado grupo.

É esse tipo de clareza que permite à generalidade da população, que é a vítima, e não agente da desinformação, conduzir um juízo de valor próprio sobre as informações que lhe são dirigidas.

Fonte: Artigo publicado na Revista consultor Jurídico do dia 14 de setembro de 2002, as 15h14

Para ler outras matérias  acesse, www: professortacianomedrado.com

Aviso: Os comentários são de responsabilidade dos autores e não representam a opinião do Blog do professor Taciano Medrado. É vetada a postagem de conteúdos que violem a lei e/ ou direitos de terceiros. Comentários postados que não respeitem os critérios podem ser removidos sem prévia notificação.

Faça um comentário

Postagem Anterior Próxima Postagem