O texto promove avanços importantes na proteção de crianças e adolescentes em ambientes digitais, atribuindo às Big Tesch (plataformas como Google, Meta, TikTok etc.) maiores responsabilidades de monitoramento, prevenção e preservação de provas de crimes sexuais contra menores.
Uma vitória relevante foi a previsão de que a remoção imediata de conteúdos só ocorra mediante solicitação de vítimas, representantes legais, Ministério Público ou entidades de defesa, não simplesmente por decisão unilateral das plataformas. Também foi criada uma Autoridade Administrativa Autônoma para supervisionar o cumprimento da lei, neutralizando tentativas de autorregulação exclusiva pelas empresas.
Riscos para a liberdade de expressão e perseguição de opositores
Embora o objetivo da lei seja altamente legítimo “proteger menores vulneráveis” é importante considerar possíveis efeitos colaterais sobre a liberdade de expressão e o ambiente político:
- Algoritmos arbitrários e moderação automática
Sistemas de moderação de conteúdo altamente automatizados, sem transparência ou critérios claros, podem classificar erroneamente conteúdos como impróprios, independentemente da intenção, um fenômeno conhecido como “multiplicidade preditiva”. Isso pode levar à remoção injusta de postagens, silenciando vozes críticas sem que o usuário entenda o motivo ou tenha chance de contestar.
- Uso político da lei para censura
Grupos ou governos podem abusar da lei, denunciando injustificadamente conteúdo crítico sob o pretexto de proteção infantil. Com um arcabouço legal que legitima conteúdos removíveis e transferência de responsabilidade para as plataformas, o espaço digital pode ser manipulado para silenciar opositores, especialmente em cenários de alta polarização, algo já observado no contexto da desinformação e “inimigos” políticos.
- Fiscalização excessiva e judicialização do debate público
A criação de um órgão regulador autônomo pode funcionar bem, mas, sem definições claras dos critérios e sem mecanismos robustos de revisão, há risco de judicialização excessiva. Casos semelhantes já foram vistos com o Marco Civil da Internet, que permite remoção de conteúdo liminarmente com base em interesse coletivo, gerando debates sobre censura e o ônus extra sobre a liberdade online
- Efeito freio autoimposto pelas plataformas
Com pressões legais ampliadas e possibilidade de responsabilização judicial ou administrativa, empresas tendem a censurar preventivamente, removendo conteúdos questionáveis, mesmo que legítimos, para evitar complicações. Isso pode reduzir drasticamente o espaço para opinião política, crítica e jornalística.
- Precedentes globais de restrição de expressão
Regulamentações similares, como o PL das Fake News ou o Online Safety Act (Reino Unido), levantam preocupações sobre liberdade de imprensa, privacidade e centralização de poder regulatório, com potencial para ser usado como ferramenta contra dissidência, se os limites não forem bem documentados.
Equilíbrio necessário: proteção vs. liberdade
Para mitigar tais riscos, é fundamental:
- Estabelecer critérios claros e transparentes quanto ao que configura conteúdo removível, com normas definidas publicamente.
- Garantir controles e revisões independentes, com participação da sociedade civil, especialistas em direitos digitais e direitos humanos.
- Incluir procedimentos de contestação e recurso eficazes, para que usuários ou grupos injustamente penalizados possam reverter decisões.
- Assegurar que a Autoridade Autônoma seja, de fato, independente, evitando capturas políticas.
Em resumo, o PL da Adultização representa um avanço legítimo na proteção de menores, mas, se mal implementado ou instrumentalizado, pode se transformar em um mecanismo subtil de censura, ferindo a liberdade de expressão e agravando o ambiente de perseguição política. O desafio está em garantir que a proteção de vulneráveis não sirva de justificativa para cercear o debate público.
Deixe um comentário