No texto anterior, entendemos que para combater a desinformação dependemos da cooperação de uma diversidade de iniciativas e de setores da sociedade, incluindo as próprias empresas de redes sociais. Mas nos últimos anos, governos de diferentes regiões do mundo estão apostando numa saída possível: a regulação de plataformas.
O que significa regular as plataformas e como isso pode ajudar no combate à desinformação? Quais são as principais iniciativas de regulação do mundo? E no Brasil?
Essas e mais dúvidas sobre o tema serão esclarecidas na sétima parte da Trilha sobre desinformação, uma parceria da Politize! com o *desinformante. Nesta série de conteúdos, exploramos não só o que é desinformação, mas também quais são suas principais características, impactos na sociedade e saídas possíveis para enfrentarmos esse problema atual, como regulação de plataformas.
Quais são os tipos de regulação contra desinformação?
Leis e normas também são usadas na tentativa de impedir a disseminação de desinformação. No Brasil, ainda não temos uma legislação específica aprovada, mas já há parâmetros internacionais estabelecidos a partir de experiências em outros países e regiões.
A partir do cenário mundial é possível compreender que há pelo menos três tipos de regramentos usados para enquadrar o problema:
- Leis que buscam proibir a desinformação: regras específicas que criminalizam o compartilhamento de informações falsas nas redes sociais, como acontece na África do Sul, Malásia e China (esse tipo de legislação levanta ressalvas da sociedade civil e das Organizações das Nações Unidas por impulsionar controle estatal sobre os conteúdos);
- Leis que não são específicas sobre desinformação, mas abordam o tema: legislações que tratam de outros temas, mas que podem servir para lidar com o tema da desinformação, como o Código Eleitoral, no Brasil.
- Leis que abarcam a regulação de plataformas de uma maneira mais ampla: projetos que buscam criar regras de transparência para que empresas de plataformas digitais atuem na moderação de conteúdo, na mitigação de riscos e nos mecanismos de comunicação com os usuários.
Desses três tipos, a terceira forma de regulação vem ganhando espaço mundo afora, com países – inclusive o Brasil – discutindo ou criando suas próprias leis com regras específicas para plataformas e serviços digitais conterem desinformação e outros tipos de conteúdos considerados danosos.
O apoio da ONU à regulação das plataformas
Nos últimos anos, a ONU (Organização das Nações Unidas) vem apontando a importância de discutirmos o combate à desinformação e a necessidade de regulação das plataformas para conseguirmos ambientes digitais mais saudáveis e íntegros.
Em 2024, em visita ao Brasil, a subsecretária-geral da ONU para comunicações globais, Melissa Fleming, comentou sobre o assunto, lembrando como a desinformação pode atrapalhar as ações que buscam o desenvolvimento sustentável.
“Se deixarmos as plataformas cumprirem apenas suas próprias regras, não chegaremos a um ecossistema de informações saudável, porque elas não cumprirão. Então, precisamos de mecanismos de segurança, permitindo a liberdade de expressão”, afirmou Fleming à jornalista Patrícia Campos Mello.
Em 2023, reconhecendo a importância da regulação das plataformas, a UNESCO (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) lançou um documento com diretrizes de apoio ao desenvolvimento e à implementação de processos regulatórios que respeitem a liberdade de expressão e garantam a integridade da informação. O documento foi produzido a partir de uma consulta pública global com mais de 10 mil contribuições de 123 países.
De acordo com a UNESCO, os cinco princípios de governança das plataformas são:
- As plataformas efetuam devidas diligências em matéria de direitos humanos: as plataformas deverão ser capazes de demonstrar os sistemas e processos que asseguram o respeito aos direitos humanos, incluindo a avaliação de impacto sobre esse tema.
- As plataformas aderem às normas internacionais em matéria de direitos humanos, incluindo na concessão da plataforma, na moderação de conteúdos e na curadoria de conteúdos: as plataformas digitais devem garantir que as considerações relativas aos direitos humanos e ao processo equitativo sejam integradas em todas as fases do processo de concepção, bem como nas políticas e práticas de moderação e curadoria de conteúdos.
- As plataformas são transparentes: as plataformas digitais deverão informar regularmente o público e o sistema de governança sobre a forma como cumprem os princípios da transparência e da explicabilidade e sobre o seu desempenho relativamente aos seus termos de serviço e normas comunitárias.
- As plataformas disponibilizam informações e ferramentas aos usuários: as plataformas deverão garantir informações nas línguas oficiais, como termos de serviços e relatórios.
- As plataformas são responsáveis perante as partes interessadas relevantes: as plataformas deverão criar mecanismos de denúncia, reclamação e comunicação para usuários e não usuários, ou para terceiros que representem os seus interesses.
O documento da UNESCO também traz diretrizes para que as plataformas atuem na proteção de populações vulneráveis, períodos eleitorais e situações de crise que necessitem de ação urgente por parte dessas empresas.
Em 2025, o Comitê Gestor da Internet no Brasil (CGI.br) também lançou um documento com 10 princípios de regulação de plataformas no país. A proposta foi produzida a partir da escuta pública de organizações da sociedade civil e da academia, e trouxe a autodeterminação informacional (o controle dos usuários sobre seus dados pessoais) e a integridade da informação como um dos princípios norteadores.
Como os países estão regulando as plataformas?
Em agosto de 2023, começou a ser aplicada na União Europeia a Lei de Serviços Digitais (o DSA, na sigla em inglês), uma das principais referências internacionais de regulação de plataformas. Combate ao conteúdo ilegal e desinformativo e maior responsabilização das empresas por seus algoritmos, além de multas de até 6% do faturamento para aquelas que não cumprirem as normas, estão previstos no texto.
A proposta da nova lei define responsabilidades claras para provedores de serviços intermediários e, em particular, plataformas online, como mídias sociais e mercados. Estabelece um mecanismo de “aviso e ação”, bem como salvaguardas, para a remoção de produtos, serviços ou conteúdos ilegais online.
Os provedores de serviços devem agir após o recebimento de tal notificação “sem demora injustificada, considerando o tipo de conteúdo ilegal que está sendo notificado e a urgência da ação”. Os eurodeputados também incluíram garantias mais fortes para garantir que as notificações sejam processadas de forma não arbitrária e não discriminatória e com respeito pelos direitos fundamentais, incluindo a liberdade de expressão.
As plataformas online de grande porte estarão sujeitas a obrigações específicas devido aos riscos específicos que representam em relação à disseminação de conteúdo ilegal e prejudicial.
O DSA ajudaria a combater o conteúdo nocivo e a disseminação de desinformação, incluindo disposições sobre avaliações de risco obrigatórias, medidas de mitigação de risco, auditorias independentes e a transparência dos chamados “sistemas de recomendação” (algoritmos que determinam o que os usuários recebem).
Outra referência europeia é a Lei de Segurança Online britânica (Online Safety Act, em inglês), que apesar de não tratar especificamente de desinformação, cria regras de segurança online para crianças e adolescentes que devem ser seguidas pelas plataformas e outros serviços digitais.
E no Brasil?
O Brasil é um dos países no qual o debate sobre regulação de plataformas está sendo desenvolvido. Por aqui, o principal projeto de lei que abordava o tema foi o PL 2630/2020, que ficou popularmente conhecido como “Lei das Fake News”. Apesar do nome, o projeto – chamado originalmente de “Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet” – trazia regras e normas para que as plataformas garantissem ações mais transparentes de segurança para os usuários brasileiros.
Depois de quase ser votado na Câmara dos Deputados, no primeiro semestre de 2024, o projeto sofreu pressão por parte de deputados e das próprias empresas de plataformas digitais, sendo engavetado em seguida. Na época, o Comitê Gestor da Internet (CGI.br) manifestou, em nota, sua posição pelo reconhecimento do legado do PL 2630 no debate sobre regulação digital.
O PL 2630 se aplicava a redes sociais, ferramentas de busca, serviços de mensageria instantânea e provedores de aplicações ofertantes de conteúdo sob demanda com mais de 10 milhões de usuários no país. O projeto estabelecia que esses serviços realizassem a identificação e avaliação dos riscos sistêmicos dos seus serviços e dos seus sistemas algorítmicos.
“Considerando a legitimidade do Poder Legislativo para o debate sobre a proposição, o CGI.br recomenda que a Câmara dos Deputados não abandone o legado, resultado destes 4 anos de debate, com participação da sociedade, e que considere como base para qualquer discussão a última versão do texto do PL2630/2020, assegurando, assim, a sua tramitação natural, garantindo a estabilidade e coerência no histórico de discussões em andamento”, disse o comitê.
Atualmente, a pauta da regulação das plataformas está sendo desenvolvida pelo governo federal, que está elaborando um projeto próprio a ser enviado para apreciação na Câmara dos Deputados. Apesar do texto ainda não estar público, detalhes da proposta governamental já circulam na imprensa, que descreve a proteção do usuário como foco principal do projeto.
STF revisa artigo do MCI
No final de junho de 2025, o Supremo Tribunal Federal concluiu o julgamento que revisou o artigo 19 do Marco Civil da Internet, modificando a forma como as plataformas digitais deverão lidar com a moderação de determinados tipos de conteúdo.
A Corte decidiu que a regra que condiciona a responsabilização civil de plataformas digitais ao descumprimento de ordem judicial específica já não é suficiente para proteger adequadamente os direitos fundamentais e a democracia no ambiente digital.
Saiba mais sobre o que é o Marco Civil da Internet
A partir de então, provedores de aplicações como redes sociais e mecanismos de busca podem ser responsabilizados civilmente mesmo sem ordem judicial, desde que tenham sido notificados extrajudicialmente sobre a presença de conteúdos ilícitos, como crimes ou atos ilegais, e não tenham tomado providências para removê-los de prontidão.
A ampliação também abrange casos envolvendo contas inautênticas ou falsas, reforçando a obrigação das plataformas de atuar com mais agilidade e responsabilidade diante de violações evidentes.
O Supremo ainda publicará o acórdão com as orientações mais detalhadas sobre as novas regras sob a revisão do artigo 19. É esse documento que trará, oficialmente, os votos vencedores e vencidos, além da formulação final da tese com repercussão geral.
A partir dessa publicação, as partes envolvidas – como Google, Meta e os amicus curiae – poderão apresentar embargos de declaração, um recurso usado para pedir esclarecimentos ou apontar omissões e contradições no texto da decisão.
A tese ainda não especifica exatamente a data de início da sua aplicação, ponto que deve ser detalhado no acórdão. Mas, uma vez publicado e com o trânsito em julgado, os 14 itens definidos pelo STF passam a valer como referência obrigatória para tribunais e juízes de todo o país, sempre que estiverem em análise casos semelhantes.
O *desinformante é um projeto midiático realizado pelo Aláfia Lab e tem o objetivo de ser um espaço com informações confiáveis sobre desinformação, analisando o impacto do fenômeno desinformativo na sociedade e discutindo formas de combatê-lo.
Referências
- UNESCO – Diretrizes para a governança das plataformas digitais
- Folha de São Paulo – É possível regular internet e manter liberdade de expressão, diz subsecretária da ONU
- Jota – Educação midiática como pilar da regulação das plataformas
- Politize! – Lei das Fake News: o que é o PL 2630?
- Politize! – Saiba do que se trata a regulação das redes sociais
- *desinformante – Responsabilização das plataformas pelo STF: o que dizem os especialistas?
- *desinformante – Comitê Gestor da Internet lança princípios para regulação de redes sociais no Brasil