A Meta, empresa responsável por redes sociais como Instagram e Facebook, bloqueou cerca de 550 mil contas de jovens australianos entre os dias 4 e 11 de dezembro do ano passado, nos primeiros dias de vigência da nova legislação do país. A medida representa um dos maiores movimentos de restrição digital já registrados. No Brasil, restrições passam a valer a partir de 18 de março (leia no final da matéria).
Segundo dados divulgados pela própria empresa, foram bloqueadas 330.639 contas no Instagram, 173.497 no Facebook e 39.916 no Threads apenas na primeira semana de aplicação da lei. A Austrália tornou-se, em 10 de dezembro de 2025, o primeiro país do mundo a implementar uma proibição ampla de acesso às redes sociais por menores de 16 anos.
A legislação obriga plataformas como Instagram, Facebook, TikTok e YouTube a remover ou impedir a criação de contas por usuários abaixo dessa idade, com o objetivo de proteger o bem-estar de crianças e adolescentes diante de conteúdos e algoritmos considerados prejudiciais. O governo australiano e ativistas defendem a medida como uma resposta necessária aos impactos negativos das redes sociais sobre a saúde mental dos jovens.
A política vem sendo acompanhada de perto por governos e órgãos reguladores de diferentes países, não apenas pela elevação da idade mínima para 16 anos, mas também por não prever qualquer exceção baseada em autorização parental, o que a torna uma das legislações mais rigorosas do mundo.
Apesar de reconhecerem a importância de reforçar a segurança online de crianças e adolescentes, empresas de tecnologia têm criticado a abordagem adotada. Em declaração à BBC, a Meta pediu ao governo australiano que promova um diálogo mais construtivo com a indústria e defendeu alternativas às “proibições generalizadas”, como a adoção de padrões mais elevados de experiências online seguras, adequadas à idade e que preservem a privacidade dos usuários.
A empresa voltou a argumentar que a verificação de idade deveria ser responsabilidade das lojas de aplicativos, sustentando que essa solução reduziria o peso regulatório sobre as plataformas e garantiria proteções mais consistentes em toda a indústria. “Esta é a única forma de garantir proteções consistentes em toda a indústria para os jovens, independentemente dos aplicativos que utilizam, e evitar o efeito de tentar acompanhar as novas aplicações para as quais os adolescentes vão migrar a fim de contornar a lei”, afirmou a Meta.
A legislação conta com forte apoio popular na Austrália, especialmente entre pais, e tem sido bem recebida por lideranças políticas internacionais. Nos Estados Unidos e na União Europeia, iniciativas semelhantes vêm sendo discutidas, embora nenhuma com o mesmo nível de restrição. No cenário político australiano, partidos conservadores já indicaram que pretendem manter ou até reforçar a política caso vençam as próximas eleições, previstas para antes de 2029.
Ainda assim, a medida não é consensual. Especialistas alertam que a proibição pode ser facilmente contornada por meio da falsificação de idade nos sistemas de verificação ou levar jovens a buscar espaços alternativos na internet, potencialmente menos seguros. Há também críticas de que a lei pode ampliar o isolamento de crianças e adolescentes, especialmente de comunidades LGBTQ+, jovens neurodivergentes ou moradores de áreas rurais, para quem as redes sociais funcionam como importantes espaços de apoio e conexão.
Empresas que descumprirem a legislação estão sujeitas a multas de até 49,5 milhões de dólares australianos. As informações são da emissora alemã Deutsche Welle (DW).
Como funciona no Brasil
Em setembro do ano passado, o presidente Luiz Inácio Lula da Silva sancionou o Estatuto Digital da Criança e do Adolescente, que busca coibir casos de violações graves contra menores de 18 anos no ambiente virtual. A Lei 15.211 foi publicada em 18 de setembro de 2025 no Diário Oficial da União, com três vetos.
De acordo com o texto, as empresas de tecnologia da informação devem tomar medidas para prevenir o acesso de crianças e adolescentes a conteúdos como:
- exploração e abuso sexual;
- conteúdo pornográfico;
- violência física, intimidação sistemática virtual e assédio;
- incitação a violência física, uso de drogas, automutilação e suicídio;
- venda de jogos de azar, apostas e produtos proibidos para crianças e a adolescentes, como cigarros e bebidas alcoólicas; e
- práticas publicitárias predatórias, injustas ou enganosas.
Além das penas previstas no Código Penal, o Estatuto Digital da Criança e do Adolescente (também chamado ECA Digital) prevê uma série de punições aos infratores. Eles ficam sujeitos a advertência, pagamento de multas, suspensão temporária e até proibição do exercício das atividades.
As multas podem chegar a 10% do faturamento do grupo econômico. Caso não haja faturamento, a multa pode variar de R$ 10 a R$ 1.000 por usuário cadastrado no provedor punido — limitada a R$ 50 milhões. No caso de empresa estrangeira, a filial ou o escritório no Brasil responde solidariamente.
Adultização
O Estatuto Digital da Criança e do Adolescente é resultado do Projeto de Lei (PL) 2.628/2022, do senador Alessandro Vieira (MDB-SE). A matéria foi aprovada em agosto pelo Plenário, com relatório favorável do senador Flávio Arns (PSB-PR).
Os casos de violações graves contra menores de 18 anos no ambiente digital ganharam destaque no início de agosto. O influenciador Felipe Bressanim Pereira — conhecido como Felca — publicou um vídeo-denúncia sobre a exploração e o abuso de crianças e adolescentes nas plataformas digitais. A discussão sobre a “adultização” de menores de 18 anos na internet mobilizou a sociedade. Informalmente, o estatuto Digital da Criança e do Adolescente tem sido chamado de Lei Felca.
Remoção de conteúdo
O texto obriga que fornecedores de produtos e serviços de tecnologia da informação adotem uma série de medidas para prevenir o acesso de crianças e adolescentes a conteúdos prejudiciais, como pornografia, bullying, incentivo ao suicídio e jogos de azar. Entre elas, está a remoção de conteúdo.
Caso sejam identificados conteúdos relacionados a abuso sexual, sequestro, aliciamento ou exploração, as empresas devem remover e notificar imediatamente as autoridades competentes, tanto nacionais quanto internacionais.
Verificação de idade
Outra medida prevista é a verificação de idade para o acesso a conteúdo impróprio, inadequado ou proibido para menores de 18 anos. Pelo texto, o controle não pode ser feito por autodeclaração do usuário. As empresas devem adotar “mecanismos confiáveis de verificação de idade a cada acesso”.
De acordo com a lei, crianças e adolescentes até 16 anos devem ter as contas em redes sociais vinculadas a um responsável. A norma também exige que as empresas mantenham ferramentas de supervisão parental acessíveis e fáceis de usar. A ideia é que os responsáveis tenham mais facilidade para acompanhar o conteúdo acessado por crianças e adolescentes.
As ferramentas de supervisão parental devem, por padrão, oferecer o nível máximo de proteção disponível. Isso inclui bloquear a comunicação entre crianças e adultos não autorizados, limitar recursos que incentivem o uso excessivo — como reprodução automática, notificações e recompensas —, controlar sistemas de recomendação e restringir o compartilhamento da geolocalização.
Pais e responsáveis também devem ter acesso a controles que permitam configurar e gerenciar a conta da criança, definir regras de privacidade, restringir compras e transações financeiras, além de identificar os perfis de adultos com quem seus filhos interagem.
Caixas de recompensa
A lei proíbe as chamadas caixas de recompensas (loot boxes) em jogos eletrônicos. Para especialistas, essas vantagens virtuais podem incentivar comportamentos compulsivos e manter o jogador engajado por longos períodos, mesmo quando não há envolvimento de dinheiro.
O texto prevê a criação de uma autoridade administrativa autônoma de proteção dos direitos de crianças e de adolescentes no ambiente digital. O órgão deve funcionar como uma agência reguladora, que pode promover consultas públicas antes da edição ou alteração de normas.
Vetos
O Poder Executivo vetou três pontos do projeto aprovado por senadores e deputados. O primeiro atribuía à Agência Nacional de Telecomunicações (Anatel) encaminhar ordens de bloqueio contra empresas infratoras. Segundo a mensagem de veto, cabe privativamente ao presidente da República dispor sobre a organização e o funcionamento da administração federal.
O Palácio do Planalto também vetou um artigo que destinava ao Fundo Nacional para a Criança e o Adolescente (FNCA) o valor das multas aplicadas contra as empresas infratoras. Segundo a mensagem de veto, o dispositivo não indicava a cláusula de vigência da destinação.
Para assegurar a transferência dos valores ao FNCA, o presidente Lula editou em 17 de setembro uma medida provisória que fixa a cláusula de vigência em cinco anos. De acordo com o texto, os recursos devem ser usados necessariamente em políticas e projetos que tenham por objetivo a proteção de crianças e de adolescentes.
O último ponto vetado previa a entrada em vigor da Lei 15.211 um ano após a publicação. Na MP 1.319/2025, Lula antecipou a vigência em seis meses. Segundo a mensagem de veto, o prazo de um ano “é incompatível com a urgência da necessidade de proteção de crianças e adolescentes no ambiente digital”.
Portanto, a Lei nº 15.211/2025, conhecida como ECA Digital, entra em vigor março de 2026 , especificamente em 18 de março de 2026, seis meses após sua publicação.