ARTIGO SOBRE A REGULAÇÃO DAS PLATAFORMAS – CGI.CGI.BR 18/03/25.
A Responsabilidade dos Intermediários e a Regulação das Plataformas Digitais: Entre Liberdade, Dever de Cuidado e Desinformação.
Por Celso de Morais
No dia 18 de março de 2025, o Comitê Gestor da Internet no Brasil (CGI.br) realizou em Brasília, o Seminário “Responsabilidade de Intermediários e Regulação de Plataformas Digitais”. O evento reuniu autoridades, especialistas e representantes de diversos setores da sociedade para discutir um dos temas mais sensíveis e complexos da contemporaneidade digital: os limites e possibilidades da responsabilidade civil de provedores de aplicação, a moderação de conteúdo e os rumos da regulação das plataformas digitais.
A seguir, apresento uma análise reflexiva e técnica dos principais temas abordados, à luz de minha atuação como advogado especializado em Direito Digital, com experiência direta na assessoria jurídica a provedores de internet, empresas de telecomunicações e no estudo aprofundado sobre a constitucionalidade (ou não) do artigo 19 do Marco Civil da Internet.
De início, importa-se definir sobre a tipologia dos provedores de aplicação: interferência, perfilização e responsabilidade e nisso, um dos pontos centrais do debate foi a distinção entre os diferentes tipos de provedores de aplicação e o grau de interferência que exercem sobre os conteúdos gerados por terceiros. A tipologia apresentada pelo CGI.br classifica as plataformas segundo a sua capacidade de manipulação, distribuição e recomendação de conteúdo:
- Baixa interferência: plataformas voltadas para registro histórico, participação social ou curadoria
- Alta interferência: aplicações que utilizam algoritmos para recomendação baseada em perfilização, publicidade direcionada, impulsionamento de conteúdo.
A distinção não é meramente teórica: ela tem efeitos diretos sobre a forma de responsabilização civil aplicável a cada um desses agentes. O modelo clássico do Marco Civil da Internet, sobretudo seu artigo 19, prevê a responsabilização de provedores apenas mediante ordem judicial. Contudo, diante da crescente influência de plataformas que decidem o que vemos (e o que não vemos), questiona-se se esse modelo é suficiente. Nesse sentido, cumpre analisar inicialmente, sobre dois vieses, o Artigo 19 do Marco Civil, em uma análise que está centrada entre a proteção da liberdade de expressão e a efetividade na responsabilização. É nesse espeque, que a constitucionalidade do artigo 19 tem sido debatida amplamente. Para alguns, trata-se de um pilar de garantia da liberdade de expressão e da não censura privada. Para outros, a exigência de ordem judicial é excessivamente onerosa para vítimas de discursos de ódio, fake news, ataques a direitos fundamentais e danos à honra e imagem.
Do ponto de vista jurídico, entendo que o artigo 19 é constitucional, mas precisa de atualização infraconstitucional que reflita as novas tipologias de plataformas e a evolução do ecossistema digital. Não se pode tratar da mesma forma uma enciclopédia colaborativa e uma rede social com algoritmos de impulsionamento massivo e monetização por engajamento.
Assim, a solução talvez esteja em adotar um modelo regulatório responsável e proporcional, que combine deveres de cuidado, transparência algorítmica e um devido processo para moderação de conteúdo. A responsabilidade não deve ser objetiva, mas também não pode ser inexistente.
Um ponto interessante no seminário sobre a moderação de conteúdo e a cultura do devido processo, foi consenso entre os debatedores que a moderação de conteúdo não pode ser opaca. Plataformas com alto grau de interferência têm o dever de disponibilizar mecanismos claros de recurso, notificação e fundamentação das decisões automatizadas. Além disso, devem informar como seus algoritmos funcionam, quais são seus critérios de recomendação e impulsionamento.
A proteção da liberdade de expressão passa também por impedir que empresas privadas decidam unilateralmente o que pode ou não circular no espaço público digital. Para isso, é necessário que a regulação imponha – sem censura – obrigações de justificação, revisão e controle sobre as ações de remoção de conteúdo.
Há ainda, outro ponto interessante que foi debatido no seminário, qual seja, a questão da regulação econômica: o poder das plataformas e a necessidade de equilíbrio. Veja-se que o debate também abordou a concentração de poder econômico nas mãos de poucas empresas de tecnologia, que controlam redes sociais, marketplaces, serviços de mensageria e plataformas de vídeo. Há um desequilíbrio no ecossistema digital que afeta concorrência, liberdade de escolha e acesso à informação.
O Direito precisa estar atento às assimetrias de poder e garantir que pequenas empresas, provedores regionais e modelos alternativos de aplicação não sejam sufocados por regras que só grandes corporações podem cumprir.
Conclusão
O Seminário promovido pelo CGI.br foi um marco para a consolidação de um debate plural e equilibrado sobre regulação das plataformas digitais. O futuro da internet brasileira depende da capacidade de criarmos normas que garantam liberdade de expressão, proteção de direitos, pluralidade de opinião, segurança jurídica e transparência.
Como especialista em Direito Digital e defensor da liberdade com responsabilidade, reitero a necessidade de manter os princípios estruturantes do Marco Civil da Internet, mas também de reconhecer que o cenário de 2025 impõe novos desafios, e com eles, novas soluções jurídicas, regulatórias e sociais.
A regulação das plataformas digitais é um passo necessário para garantir que o ambiente digital continue sendo um espaço de direitos, inovação e convivência democrática.