Menu
Austrália obriga Meta a bloquear mais de meio milhão de contas de adolescentes
Austrália obriga Meta a bloquear mais de meio milhão de contas de adolescentes
Por Administrador
Publicado em 13/01/2026 08:34
JUSTIÇA
Austrália é o primeiro país do mundo a proibir amplo acesso às redes sociais a menores de 16 anos; legislação brasileira passa a vigorar em março

A Meta, empresa responsável por redes sociais como Instagram e Facebook, bloqueou cerca de 550 mil contas de jovens australianos entre os dias 4 e 11 de dezembro do ano passado, nos primeiros dias de vigência da nova legislação do país. A medida representa um dos maiores movimentos de restrição digital já registrados. No Brasil, restrições passam a valer a partir de 18 de março (leia no final da matéria).

Segundo dados divulgados pela própria empresa, foram bloqueadas 330.639 contas no Instagram, 173.497 no Facebook e 39.916 no Threads apenas na primeira semana de aplicação da lei. A Austrália tornou-se, em 10 de dezembro de 2025, o primeiro país do mundo a implementar uma proibição ampla de acesso às redes sociais por menores de 16 anos.

 

A legislação obriga plataformas como Instagram, Facebook, TikTok e YouTube a remover ou impedir a criação de contas por usuários abaixo dessa idade, com o objetivo de proteger o bem-estar de crianças e adolescentes diante de conteúdos e algoritmos considerados prejudiciais. O governo australiano e ativistas defendem a medida como uma resposta necessária aos impactos negativos das redes sociais sobre a saúde mental dos jovens.

A política vem sendo acompanhada de perto por governos e órgãos reguladores de diferentes países, não apenas pela elevação da idade mínima para 16 anos, mas também por não prever qualquer exceção baseada em autorização parental, o que a torna uma das legislações mais rigorosas do mundo.

Apesar de reconhecerem a importância de reforçar a segurança online de crianças e adolescentes, empresas de tecnologia têm criticado a abordagem adotada. Em declaração à BBC, a Meta pediu ao governo australiano que promova um diálogo mais construtivo com a indústria e defendeu alternativas às “proibições generalizadas”, como a adoção de padrões mais elevados de experiências online seguras, adequadas à idade e que preservem a privacidade dos usuários.

A empresa voltou a argumentar que a verificação de idade deveria ser responsabilidade das lojas de aplicativos, sustentando que essa solução reduziria o peso regulatório sobre as plataformas e garantiria proteções mais consistentes em toda a indústria. “Esta é a única forma de garantir proteções consistentes em toda a indústria para os jovens, independentemente dos aplicativos que utilizam, e evitar o efeito de tentar acompanhar as novas aplicações para as quais os adolescentes vão migrar a fim de contornar a lei”, afirmou a Meta.

A legislação conta com forte apoio popular na Austrália, especialmente entre pais, e tem sido bem recebida por lideranças políticas internacionais. Nos Estados Unidos e na União Europeia, iniciativas semelhantes vêm sendo discutidas, embora nenhuma com o mesmo nível de restrição. No cenário político australiano, partidos conservadores já indicaram que pretendem manter ou até reforçar a política caso vençam as próximas eleições, previstas para antes de 2029.

Ainda assim, a medida não é consensual. Especialistas alertam que a proibição pode ser facilmente contornada por meio da falsificação de idade nos sistemas de verificação ou levar jovens a buscar espaços alternativos na internet, potencialmente menos seguros. Há também críticas de que a lei pode ampliar o isolamento de crianças e adolescentes, especialmente de comunidades LGBTQ+, jovens neurodivergentes ou moradores de áreas rurais, para quem as redes sociais funcionam como importantes espaços de apoio e conexão.

Empresas que descumprirem a legislação estão sujeitas a multas de até 49,5 milhões de dólares australianos. As informações são da emissora alemã Deutsche Welle (DW).

Como funciona no Brasil

Em setembro do ano passado, o presidente Luiz Inácio Lula da Silva sancionou o Estatuto Digital da Criança e do Adolescente, que busca coibir casos de violações graves contra menores de 18 anos no ambiente virtual. A Lei 15.211 foi publicada em 18 de setembro de 2025 no Diário Oficial da União, com três vetos.

De acordo com o texto, as empresas de tecnologia da informação devem tomar medidas para prevenir o acesso de crianças e adolescentes a conteúdos como:

  • exploração e abuso sexual;
  • conteúdo pornográfico;
  • violência física, intimidação sistemática virtual e assédio;
  • incitação a violência física, uso de drogas, automutilação e suicídio;
  • venda de jogos de azar, apostas e produtos proibidos para crianças e a adolescentes, como cigarros e bebidas alcoólicas; e
  • práticas publicitárias predatórias, injustas ou enganosas.

Além das penas previstas no Código Penal, o Estatuto Digital da Criança e do Adolescente (também chamado ECA Digital) prevê uma série de punições aos infratores. Eles ficam sujeitos a advertência, pagamento de multas, suspensão temporária e até proibição do exercício das atividades.

As multas podem chegar a 10% do faturamento do grupo econômico. Caso não haja faturamento, a multa pode variar de R$ 10 a R$ 1.000 por usuário cadastrado no provedor punido — limitada a R$ 50 milhões. No caso de empresa estrangeira, a filial ou o escritório no Brasil responde solidariamente.

Adultização

O Estatuto Digital da Criança e do Adolescente é resultado do Projeto de Lei (PL) 2.628/2022, do senador Alessandro Vieira (MDB-SE). A matéria foi aprovada em agosto pelo Plenário, com relatório favorável do senador Flávio Arns (PSB-PR).

Os casos de violações graves contra menores de 18 anos no ambiente digital ganharam destaque no início de agosto. O influenciador Felipe Bressanim Pereira — conhecido como Felca — publicou um vídeo-denúncia sobre a exploração e o abuso de crianças e adolescentes nas plataformas digitais. A discussão sobre a “adultização” de menores de 18 anos na internet mobilizou a sociedade. Informalmente, o estatuto Digital da Criança e do Adolescente tem sido chamado de Lei Felca.

Remoção de conteúdo

O texto obriga que fornecedores de produtos e serviços de tecnologia da informação adotem uma série de medidas para prevenir o acesso de crianças e adolescentes a conteúdos prejudiciais, como pornografia, bullying, incentivo ao suicídio e jogos de azar. Entre elas, está a remoção de conteúdo.

Caso sejam identificados conteúdos relacionados a abuso sexual, sequestro, aliciamento ou exploração, as empresas devem remover e notificar imediatamente as autoridades competentes, tanto nacionais quanto internacionais.

Verificação de idade

Outra medida prevista é a verificação de idade para o acesso a conteúdo impróprio, inadequado ou proibido para menores de 18 anos. Pelo texto, o controle não pode ser feito por autodeclaração do usuário. As empresas devem adotar “mecanismos confiáveis de verificação de idade a cada acesso”.

De acordo com a lei, crianças e adolescentes até 16 anos devem ter as contas em redes sociais vinculadas a um responsável. A norma também exige que as empresas mantenham ferramentas de supervisão parental acessíveis e fáceis de usar. A ideia é que os responsáveis tenham mais facilidade para acompanhar o conteúdo acessado por crianças e adolescentes.

As ferramentas de supervisão parental devem, por padrão, oferecer o nível máximo de proteção disponível. Isso inclui bloquear a comunicação entre crianças e adultos não autorizados, limitar recursos que incentivem o uso excessivo — como reprodução automática, notificações e recompensas —, controlar sistemas de recomendação e restringir o compartilhamento da geolocalização.

Pais e responsáveis também devem ter acesso a controles que permitam configurar e gerenciar a conta da criança, definir regras de privacidade, restringir compras e transações financeiras, além de identificar os perfis de adultos com quem seus filhos interagem.

Caixas de recompensa

A lei proíbe as chamadas caixas de recompensas (loot boxes) em jogos eletrônicos. Para especialistas, essas vantagens virtuais podem incentivar comportamentos compulsivos e manter o jogador engajado por longos períodos, mesmo quando não há envolvimento de dinheiro.

O texto prevê a criação de uma autoridade administrativa autônoma de proteção dos direitos de crianças e de adolescentes no ambiente digital. O órgão deve funcionar como uma agência reguladora, que pode promover consultas públicas antes da edição ou alteração de normas.

Vetos

O Poder Executivo vetou três pontos do projeto aprovado por senadores e deputados. O primeiro atribuía à Agência Nacional de Telecomunicações (Anatel) encaminhar ordens de bloqueio contra empresas infratoras. Segundo a mensagem de veto, cabe privativamente ao presidente da República dispor sobre a organização e o funcionamento da administração federal.

O Palácio do Planalto também vetou um artigo que destinava ao Fundo Nacional para a Criança e o Adolescente (FNCA) o valor das multas aplicadas contra as empresas infratoras. Segundo a mensagem de veto, o dispositivo não indicava a cláusula de vigência da destinação.

Para assegurar a transferência dos valores ao FNCA, o presidente Lula editou em 17 de setembro uma medida provisória que fixa a cláusula de vigência em cinco anos. De acordo com o texto, os recursos devem ser usados necessariamente em políticas e projetos que tenham por objetivo a proteção de crianças e de adolescentes.

O último ponto vetado previa a entrada em vigor da Lei 15.211 um ano após a publicação. Na MP 1.319/2025, Lula antecipou a vigência em seis meses. Segundo a mensagem de veto, o prazo de um ano “é incompatível com a urgência da necessidade de proteção de crianças e adolescentes no ambiente digital”.

Portanto, a Lei nº 15.211/2025, conhecida como ECA Digital, entra em vigor março de 2026 , especificamente em 18 de março de 2026, seis meses após sua publicação.

Comentários
Comentário enviado com sucesso!

Chat Online