Casos de violência extrema praticados em escolas desde 2022 (já somam quase 30 ocorrências), como os ocorridos recentemente nos municípios de Estação e de Caxias do Sul, têm . Especialistas alertam que a origem e a articulação de episódios em geral iniciam nas redes sociais, que se tornaram palco para a desinformação, o discurso de ódio, aliciamento e outras práticas ilícitas.
Simone Lahorgue Nunes, especialista em direito da mídia e proteção de dados
Foto: Acervo Pessoal/Divulgação
“A ausência de mecanismos eficazes de controle e moderação facilita a proliferação de grupos extremistas, principalmente entre menores de idade, cuja socialização ocorre, em grande parte, em ambientes digitais, muitas vezes sem qualquer supervisão”, afirma a advogada Simone Lahorgue Nunes, especialista em direito da mídia e proteção de dados. Ex-diretora jurídica das Organizações Globo e fundadora de um escritório voltado à regulação digital, Simone avalia que o espaço público digital se transformou em terreno fértil para abusos e violações de direitos.
Por isso, ela defende que “tornou-se necessária a adaptação do ambiente regulatório, de modo a neutralizar os aspectos negativos desse novo meio de comunicação social”. Para Simone, a recente decisão do Supremo Tribunal Federal (STF), que ampliou a responsabilização das big techs pelos conteúdos e práticas nas redes sociais, representa um primeiro passo importante para ampliar o debate sobre o modelo de funcionamento das plataformas. “Vejo a iniciativa do Supremo com bons olhos”, pontua.
O alerta é compartilhado e reforçado por Fernanda Campagnucci, diretora-executiva do InternetLab. Segundo ela, o ambiente online deixou de ser um canal neutro de circulação de informações e passou a operar como um sistema regido por algoritmos opacos e interesses corporativos. “As plataformas deixaram de ser meras intermediárias e passaram a influenciar ativamente o debate público, impulsionando conteúdos sensacionalistas e desinformativos que maximizam engajamento — e, consequentemente, lucro”, afirma.
A decisão do STF
Em junho, o Supremo Tribunal Federal decidiu ampliar a responsabilidade das plataformas digitais por conteúdos postados por terceiros, ao reinterpretar os artigos 19 e 21 do Marco Civil da Internet. A decisão marca uma inflexão importante no tratamento jurídico das chamadas big techs no Brasil.
“A postura do Supremo em suprir a omissão legislativa pode ser criticada, mas tornou-se necessária diante da inércia do Congresso. A própria tese firmada pelo STF faz um apelo para que o Parlamento aprove uma lei que supere as deficiências do atual regime”, ressalta a advogada Simone.
Fernanda destaca que o STF avançou ao propor uma análise mais sistêmica das práticas das plataformas, e não apenas a responsabilização caso a caso. A intenção é mudar o foco da remoção individual de conteúdos para a prevenção de danos estruturais, o que exigiria transparência em algoritmos, relatórios e critérios de moderação.
No entanto, ambas concordam que a decisão, por si só, não basta. “Embora seja um avanço, não há definição de autoridade supervisora, critérios objetivos de transparência ou mecanismos robustos de prestação de contas. A autorregulação proposta ainda coloca o poder de decisão nas mãos das próprias empresas”, alerta Campagnucci.
O papel do Congresso e o lobby das big techs
A decisão do STF evidenciou um vácuo legislativo que perdura há anos. O Projeto de Lei 2630/2020, conhecido como PL das Fake News, continua travado no Congresso. Seu objetivo original era criar um marco de transparência e responsabilização das plataformas, inspirado no Digital Services Act da União Europeia. Mas o lobby das grandes empresas de tecnologia tem dificultado seu avanço.
Campagnucci aponta que o processo legislativo está capturado por interesses econômicos: “As big techs têm utilizado estratégias como campanhas de desinformação, pressão sobre parlamentares e mobilização de setores da sociedade civil para frear qualquer iniciativa que aumente sua responsabilidade”.
Essa resistência é explicada pela mudança de papel das plataformas no ecossistema digital. “Elas não são apenas vitrines neutras, mas organizadoras do espaço público. Os algoritmos que controlam o que vemos e o que viraliza afetam diretamente o comportamento social e político das pessoas”, explica.
Democracia em risco
O impacto dessas práticas vai além do ambiente virtual. As consequências são sentidas nas urnas, nas ruas e nas escolas. A proliferação de teorias conspiratórias, discursos antidemocráticos e comunidades de ódio são manifestações de um ambiente digital que opera sem transparência e sem regulação.
“O risco é real: essas empresas têm poder econômico superior ao de muitos Estados nacionais e capacidade de moldar narrativas públicas. Quando esse poder não é regulado, torna-se uma ameaça à democracia”, afirma Simone.
Para Campagnucci, o desafio agora é garantir que o debate iniciado pelo Supremo avance no Congresso. “A decisão judicial é um ponto de partida, não de chegada. Precisamos de uma legislação clara, que assegure direitos, imponha deveres e permita fiscalização. Enquanto isso não acontecer, estaremos entregando o destino da esfera pública a interesses privados.”
Liberdade de expressão ou escudo contra regulação?
Um dos principais argumentos utilizados pelas plataformas contra a regulação é o risco de ferir a liberdade de expressão. Trata-se de uma bandeira mobilizadora, mas que, segundo Simone, precisa ser contextualizada. “Não há direitos absolutos. A liberdade de expressão é um pilar democrático, mas deve ser equilibrada com outros direitos fundamentais, como a proteção de crianças e a integridade do processo democrático”, ressalta.
Ela cita o escândalo da Cambridge Analytica e os impactos das fake news em processos eleitorais como exemplos de como a desinformação pode distorcer o debate público. “A insistência em tratar qualquer forma de regulação como censura desconsidera o fato de que, na ausência de regras, grupos vulneráveis são silenciados. A liberdade de expressão só é plena quando há segurança para exercê-la”, enfatiza.
Para diretora-executiva do InternetLab, “Uma plataforma que não combate conteúdos racistas ou homofóbicos está, na prática, excluindo vozes que não se sentem seguras naquele espaço. Regulamentar não é censurar — é garantir um ambiente mais justo e plural”, observa Fernanda.