DEPOIS do X e da META, GOOGLE avisa a EUROPA que VAI ABANDONAR CHECAGEM de FATOS em VÍDEOS e BUSCAS

Nos últimos tempos, assistimos a um movimento crescente no qual as grandes empresas de tecnologia, como o Google e a Meta, estão tomando decisões significativas sobre como lidar com as exigências de regulamentação em relação à desinformação. Um desses momentos marcantes ocorreu recentemente quando o Google, em resposta às pressões da União Europeia, anunciou que não implementará verificações de fatos em seus resultados de busca e vídeos do YouTube. Esta postura tem sido vista por muitos como uma resistência contra uma tentativa cada vez mais agressiva de controle sobre o que é dito ou compartilhado online.

A União Europeia, há algum tempo, vinha exigindo que as plataformas de mídia social e os motores de busca incluíssem verificações de fatos em seus resultados de pesquisa. A proposta consistia em obrigar as empresas a integrar uma espécie de “checagem automática” sobre os links exibidos nas buscas e nos vídeos postados, a fim de combater as chamadas “fake news”. O Google, no entanto, recusou essa abordagem, alegando que ela é ineficaz e impraticável para lidar com o volume massivo de conteúdo gerado diariamente pelos usuários da plataforma.

A alegação do Google é clara: a tecnologia de verificação de fatos, como é proposta pela União Europeia, simplesmente não tem escalabilidade para lidar com o tamanho e a complexidade da internet atual. A ideia de que um sistema automatizado pode ser capaz de verificar a veracidade de milhões de links e vídeos é, no mínimo, utópica. Afinal, o Google recebe bilhões de buscas por dia, e o YouTube tem milhares de horas de vídeos carregados a cada minuto. Como seria possível verificar de forma eficiente todas essas informações em tempo real?

Além disso, o Google argumenta que esse tipo de verificação de fato não é apenas ineficiente, mas também tendenciosa. A proposta da União Europeia tem sido vista por muitos como uma tentativa de impor uma agenda política, com agências de checagem de fato muitas vezes alinhadas a uma visão específica. E é exatamente isso que está em jogo: uma vez que se cria uma estrutura de verificação centralizada, o controle sobre o que é ou não verdadeiro passa a ser concentrado em uma série de entidades que, inevitavelmente, serão influenciadas por interesses políticos e ideológicos.

A resposta do Google é simples e direta: a empresa se compromete a continuar combatendo a desinformação, mas sem se submeter a um código de práticas que, na visão deles, não funciona. O Google afirmou que vai usar sistemas mais avançados e inclusivos para combater a desinformação, incluindo o fortalecimento das notas da comunidade. Em vez de confiar em uma “checagem de fatos” feita por um grupo restrito de especialistas, a proposta do Google é empoderar os próprios usuários da plataforma para avaliar e sinalizar conteúdo, criando um sistema de auto-regulação que, segundo a empresa, é mais escalável e imparcial.

Mas o que isso significa para o futuro das redes sociais e da internet como um todo? De um lado, pode-se argumentar que a descentralização da moderação de conteúdo é a melhor opção para garantir liberdade de expressão e impedir que uma única visão ideológica domine as plataformas. Isso porque, ao permitir que os próprios usuários ajudem a moderar e avaliar o conteúdo, o Google e outras empresas de tecnologia estão dando mais voz à comunidade. Os sistemas baseados em “notas de comunidade” permitem que qualquer pessoa com acesso à plataforma tenha uma opinião sobre o que está sendo discutido, o que cria um espaço para debates mais amplos e democráticos.

Por outro lado, essa abordagem também tem suas falhas. A principal delas é que o conteúdo sinalizado por usuários pode ser tanto verdadeiro quanto falso, e sem uma estrutura de verificação de fatos por uma fonte confiável, a desinformação pode continuar a circular. Além disso, esse tipo de sistema pode ser vulnerável a abusos, com grupos organizados ou indivíduos influentes manipulando a avaliação dos conteúdos. As plataformas, por mais que promovam a participação comunitária, ainda precisam garantir que as informações compartilhadas sejam, de fato, confiáveis.

Essa mudança de postura das grandes empresas de tecnologia vem em um contexto mais amplo de resistência às regulamentações governamentais sobre a internet. O Google e a Meta, por exemplo, já se mostraram críticos de várias iniciativas de controle de conteúdo que visam combater a desinformação. A Meta, em particular, abandonou o uso de verificação de fatos nos Estados Unidos, após perceber que esse sistema não apenas era falho, mas também ineficaz em impedir a propagação de informações falsas. A empresa agora aposta em uma abordagem mais focada na colaboração com os próprios usuários, permitindo que a comunidade ajude a detectar e sinalizar conteúdo suspeito.

Esse movimento reflete uma crescente insatisfação das empresas de tecnologia com o excesso de regulamentação e o controle que governos e entidades internacionais estão tentando impor sobre as plataformas. O Google, por exemplo, afirmou em uma carta à Comissão Europeia que a verificação de dados exigida pela União Europeia não é apenas imprópria, mas também ineficaz para os seus serviços. Em vez de seguir essa linha de regulamentação centralizada, o Google está apostando em ferramentas mais transparentes e acessíveis, como as notas contextuais, que são feitas diretamente pela comunidade. Essas notas, que podem ser vistas como uma forma de avaliação coletiva do conteúdo, são mais rápidas e mais adaptáveis, permitindo que a moderação de conteúdo seja feita de forma mais orgânica e menos dependente de uma estrutura governamental.

No entanto, o que está por trás de toda essa resistência à regulamentação é uma questão ainda maior: a crescente descentralização da informação. A internet, especialmente as redes sociais, tornou-se um campo de batalha onde a verdade é muitas vezes moldada pelo público. As empresas de tecnologia sabem que tentar controlar completamente o conteúdo pode resultar em uma perda de confiança por parte dos usuários. E essa é a grande lição que se tira dessa disputa entre as grandes plataformas e as regulamentações governamentais: a liberdade de expressão e a descentralização da informação são fundamentais para a integridade da internet.

Não se pode negar que as fake news e a desinformação são problemas reais e que as plataformas digitais têm um papel importante em combater esses fenômenos. Contudo, a forma como isso é feito precisa ser mais transparente e menos controlada por um pequeno grupo de pessoas ou organizações. A ideia de permitir que a comunidade ajude a moderar o conteúdo, por meio de um sistema de notas ou sinais, é uma tentativa de criar um sistema mais inclusivo e menos sujeito a manipulações políticas.

O grande problema, no entanto, é que essa abordagem também apresenta desafios. Sem uma estrutura sólida e confiável de verificação de fatos, a desinformação pode continuar a se espalhar. As plataformas de tecnologia precisam encontrar um equilíbrio entre liberdade de expressão e a necessidade de controlar a propagação de informações falsas. A solução talvez esteja em uma combinação de ferramentas automáticas, como algoritmos mais sofisticados, com uma moderação mais aberta e colaborativa, que permita a participação ativa dos usuários.

É claro que a resistência das grandes empresas de tecnologia contra regulamentações severas não é apenas uma questão de defesa de seus modelos de negócios, mas também uma defesa da liberdade digital. O Google e a Meta sabem que se cederem completamente às exigências regulatórias, perderão parte de sua autonomia e influência. Por outro lado, também sabem que precisam encontrar soluções eficazes para lidar com os desafios da desinformação, que é um problema crescente na sociedade digital de hoje.

No final das contas, o que fica claro é que o Google, a Meta e outras grandes empresas de tecnologia estão criando um novo modelo de moderação de conteúdo, que será mais descentralizado, mais colaborativo e, espera-se, mais eficaz na luta contra a desinformação. Essa mudança de paradigma pode ser vista como um reflexo do amadurecimento da internet e das redes sociais, onde a responsabilidade pela verificação de fatos não está mais nas mãos de poucos, mas de todos os usuários.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *