Por que a Fundação Wikimedia defende proporcionalidade e exceções para bens públicos digitais na nova lei brasileira de segurança infantil online, ECA Digital

Translate this post
Congresso Nacional do Brasil, em Brasília. Leandro Ciuffo, CC BY 2.0, via Wikimedia Commons.

A Fundação Wikimedia (WMF) tem mantido um diálogo ativo com as autoridades brasileiras desde a aprovação, em setembro de 2025, do Estatuto Digital da Criança e do Adolescente (ECA Digital; Lei nº 15.211/2025). A lei estabelece uma nova estrutura para a proteção de menores em ambientes digitais, com base em uma lei aprovada em 1990 que garante às crianças o acesso a direitos fundamentais como vida, saúde, liberdade, respeito, dignidade, educação, cultura, esporte e lazer. Um dos princípios centrais da nova lei é uma exigência abrangente de que lojas de aplicativos e certas plataformas online implementem mecanismos de verificação de idade para exibir apenas conteúdos considerados adequados para menores, de acordo com sua idade. No entanto, a lei, tal como está redigida, é muito ampla e suas exigências poderiam afetar a capacidade de todos de exercer seus direitos humanos em projetos de interesse público, como a Wikipédia. Para ajudar a moldar a aplicação dessa regulamentação de forma a proteger melhor a segurança infantil online, sem deixar de garantir direitos humanos como a liberdade de expressão e o acesso a informações confiáveis, a Fundação apresentou dois conjuntos distintos de comentários públicos.

Em 14 de novembro de 2025, a Fundação apresentou uma resposta conjunta com a Wikimedia Brasil à consulta pública do Ministério da Justiça e da Segurança Pública sobre a verificação de idade. Separadamente, em 12 de dezembro de 2025, a Fundação apresentou seus próprios comentários à Autoridade Nacional de Proteção de Dados (ANPD) sobre outra consulta pública referente especificamente aos critérios de proporcionalidade da lei. (No final desta página, você encontrará links para as versões em inglês dos textos enviados.)

Limitações inesperadas ao exercício dos direitos humanos na internet

A Fundação se empenha em criar um mundo onde todos possam ter acesso livre ao conhecimento, independentemente de sua localização ou idade. Nesse espírito, nossa petição insta as autoridades brasileiras a implementar a Lei de Proteção à Criança e ao Adolescente no Ambiente Digital (ECA Digital) sem prejudicar os projetos da Wikimedia e outros bens públicos digitais semelhantes dos quais milhões de pessoas dependem para acessar e compartilhar conhecimento livre e aberto disponibilizado de interesse público.

Os esforços do Brasil para proteger crianças e adolescentes na internet são louváveis. No entanto, o ECA Digital introduz obrigações abrangentes que podem prejudicar os direitos dos usuários: os mecanismos de verificação de idade. Nenhuma solução tecnológica, incluindo as tecnologias de verificação de idade, é uma solução mágica para as questões sociais na internet. Conforme explicamos em nossa contribuição, tal exigência normalmente requer a verificação da idade de cada usuário, e não apenas dos menores de idade. Assim, a exigência afeta os direitos de todos, e o faz de uma maneira que entra em conflito com a missão da Fundação de fornecer acesso livre e aberto à soma de todo o conhecimento humano.

Conforme detalhado em nossa petição ao Ministério da Justiça do Brasil, seja realizada na loja de aplicativos ou no nível da plataforma, a verificação obrigatória da idade representa riscos significativos aos direitos humanos, incluindo a privacidade, a liberdade de expressão e o acesso a informações confiáveis, pelas seguintes razões:

  • Atualmente, a verificação de idade depende da coleta e do armazenamento de dados pessoais dos usuários da plataforma, o que pode representar sérios riscos à segurança e à privacidade desses usuários, especialmente se a verificação for realizada com base em informações pessoais identificáveis (PII) sensíveis, como documentos de identidade oficiais ou dados biométricos. 
  • Vincular a identidade legal de uma pessoa à sua atividade online pode causar um “efeito inibidor”, ou seja, um medo de retaliação que também pode levar à autocensura no acesso ou compartilhamento de informações, constituindo uma barreira direta à liberdade de expressão e ao acesso a informações confiáveis, independentemente da idade.
  • A verificação obrigatória da idade também pode excluir de forma desproporcional comunidades vulneráveis, dependendo da tecnologia utilizada, que não só armazena dados pessoais extremamente sensíveis, mas também pode ser pouco confiável: pessoas de baixa renda, bem como migrantes e refugiados, podem não ter acesso a documentos de identificação oficiais ou a uma infraestrutura digital confiável; além disso, os sistemas de verificação biométrica são conhecidos por serem invasivos e discriminatórios, frequentemente identificando erroneamente pessoas de cor, pessoas com deficiência e pessoas LGBTQ+.

A necessidade de proporcionalidade

Em ambas as contribuições, a Fundação insta os órgãos reguladores brasileiros a reconhecerem a diversidade das plataformas online. A própria lei já reconhece que suas disposições devem ser aplicadas de acordo com o tamanho e a natureza de cada plataforma; no entanto, não fornece explicações adicionais sobre como essa diferenciação será feita ou como a legislação será aplicada às diferentes plataformas. Por exemplo, os riscos associados a grandes plataformas de mídia social com fins lucrativos diferem significativamente em natureza, magnitude e probabilidade daqueles apresentados por bens públicos digitais e projetos educacionais. É por isso que o princípio da proporcionalidade — em outras palavras, o equilíbrio das medidas legais — é fundamental, conforme enfatizamos em nossa contribuição à ANPD.

Pedimos à ANPD que esclarecesse como a lei será aplicada com base no seu conceito de “grau de interferência” da plataforma no conteúdo veiculado nela — em outras palavras, a lei poderia ser aplicada dependendo da intensidade da moderação de conteúdo realizada por cada plataforma. Um modelo regulatório “único para todos” é inadequado e pode criar barreiras significativas ao acesso dos usuários, independentemente da idade.

Os projetos da Wikimedia, como a Wikipédia, contam com uma comunidade dinâmica de mais de 260.000 voluntários para criar, editar e verificar o conteúdo. Esse modelo da Wikimedia, liderado pela comunidade, é o que permite que a Fundação não precise criar nem selecionar conteúdo nas plataformas. Por isso, a Fundação interfere no conteúdo apenas de forma mínima, quando exigido por lei. Os projetos da Wikimedia não se envolvem em publicidade direcionada nem coletam, vendem ou monetizam dados de usuários de qualquer idade, o que constitui uma diferença fundamental em relação a outras plataformas com fins lucrativos. Esse modelo operacional reduz significativamente, para usar a linguagem da lei, a capacidade da Fundação de “influenciar, moderar ou intervir” no conteúdo, o que poderia justificar uma aplicação menos rigorosa.

Considerando que projetos como a Wikipédia apresentam um perfil de risco distinto e uma missão de interesse público, as autoridades brasileiras devem distinguir claramente entre os perfis de risco das plataformas e criar exceções para bens públicos digitais e projetos educacionais. Defendemos a criação de exceções que abranjam ferramentas importantes para o aprendizado online e o compartilhamento de informações, como enciclopédias, serviços educacionais e outras plataformas de interesse público. Além disso, instamos as autoridades brasileiras a não imporem obrigações de conformidade uniformes que bens públicos digitais, como a Wikipédia, possam não ser capazes de cumprir. Recursos educacionais e projetos comunitários não possuem a mesma capacidade financeira, técnica ou organizacional que as plataformas das grandes empresas de tecnologia, e qualquer regulamentação deve refletir essas diferenças para evitar a criação de barreiras desnecessárias para o acesso dos usuários a informações de interesse público.

UEm última análise, a implementação da ECA Digital deve centrar-se na defesa dos direitos humanos e na adoção de uma abordagem proporcionada aos mecanismos regulatórios, de acordo com os riscos específicos de cada plataforma. Esse quadro equilibrado é necessário para proteger as crianças na internet, preservando ao mesmo tempo uma internet aberta, diversificada e acessível a todos, o que pode contribuir para fomentar um ecossistema de informação online diversificado e de interesse público.

Para mais detalhes, você pode ler nossas contribuições completas (em inglês) às consultas públicas das autoridades brasileiras: 

___

Mantenha-se informado sobre políticas digitais, a Wikipédia e o futuro da internet: Assine nosso boletim informativo trimestral Global Advocacy!

📩

Can you help us translate this article?

In order for this article to reach as many people as possible we would like your help. Can you translate this article to get the message out?