Pensata 404 – Edição 17 – por Thiago Assumpção
Nossas pensatas são discutidas no Lab 404, mas refletem a opinião pessoal.
Em março de 2026, o CEO do Pinterest publicou um artigo na Time pedindo que governos banissem redes sociais para menores de 16 anos. O mesmo Pinterest que, depois de restringir funções para adolescentes, viu a Geração Z (pessoas nascidas entre 1997 e 2012) virar mais de 50% da sua audiência. A coincidência é conveniente demais para ser ignorada: proteger criança também dá engajamento. No Brasil, na mesma semana, entrava em vigor o ECA Digital, a Lei 15.211/2025, apelidada de Lei Felca após um vídeo do influenciador Felipe Bressanim expor a adultização e a exploração de crianças em plataformas digitais. O debate, aqui e lá fora, tem o mesmo formato: um gesto moral com ganhos materiais embutidos.
O vídeo de Bressanim, publicado em agosto de 2025, acelerou a aprovação de uma legislação que já estava madura no Congresso. Isso importa. A lei foi detonada por um evento midiático, sem pressão técnica, sem lobby de proteção de dados, sem pesquisadores de infância na linha de frente. A agenda pública define a agenda legislativa a partir de um vídeo viral. O que isso diz sobre como o Brasil regula tecnologia é uma pergunta que a lei não faz.
O texto tem avanços concretos. Proíbe a monetização e o impulsionamento de conteúdos que retratem menores de forma sexualizada ou com linguagem adulta. Exige verificação de idade efetiva, mecanismos de controle parental e, para plataformas com mais de um milhão de menores cadastrados, relatórios de transparência. São medidas que endereçam problemas reais. A leitura mais reveladora da lei está no que ela produz além dessas proibições.
Nos primeiros onze dias após o vídeo, os canais oficiais registraram 261 denúncias de violência sexual online contra crianças e adolescentes, 243 delas depois da publicação. A Câmara recebeu 32 projetos de lei em poucos dias. A lei aprovada meses depois carrega essa urgência na estrutura: ela nomeia problemas reais, mas foi escrita na velocidade de uma reação, e leis redigidas assim tendem a regular o sintoma visível sem tocar a causa estrutural.
Menores de até 16 anos só podem acessar redes sociais se a conta estiver vinculada à de um responsável. Do ponto de vista da proteção, isso faz sentido. Do ponto de vista da infraestrutura de dados, essa exigência duplica o perfil que as plataformas coletam: a criança mais o adulto responsável, agora atados num mesmo nó da rede. O menor não saiu do ecossistema algorítmico. Sua inserção nele foi formalizada, ampliada e legitimada pelo Estado. A relação entre a criança e a plataforma permanece. O que a lei adiciona é uma assinatura adulta sobre ela. A plataforma ganha dois perfis pelo preço de uma proteção. Esse mecanismo não é novidade para as plataformas. O Meta já funciona há anos com o que pesquisadores chamam de perfis sombra: coleta de dados de pessoas que nunca criaram uma conta, a partir das interações de quem as conhece. Vincular a conta do menor à do responsável é, do ponto de vista técnico, uma extensão dessa lógica. A plataforma passa a ter acesso explícito e legitimado a dois grafos de comportamento onde antes tinha um. A proteção, nesse caso, é também uma doação de dados.
A lei regulamentou especificamente os chamados influenciadores mirins: crianças e adolescentes que aparecem de forma habitual em conteúdos patrocinados ou impulsionados. É o ponto onde a legislação toca uma questão que vai além da proteção contra abuso: a criança como co-produtora de valor dentro da infraestrutura da plataforma. A lei proíbe a monetização de conteúdo sexualizado, mas não dissolve a relação de produção entre a criança e o algoritmo. O que muda é quem recebe a notificação de desempenho. A plataforma continua reconhecendo o menor como produtor de engajamento. O Estado apenas adicionou um adulto como intermediário dessa relação.
Esse ponto importa porque sistemas de recomendação funcionam sobre rastros. Cada clique, cada pausa, cada conteúdo assistido até o fim produz dados que retroalimentam algoritmos projetados para maximizar tempo de tela. Vincular a conta do menor à do responsável não altera essa lógica. Acrescenta rastros de um adulto ao perfil comportamental de uma criança e vice-versa. A proteção, nesse caso, é também uma expansão do material disponível para perfilamento. E onde a lei tenta corrigir isso, encontra seu próprio limite: a ANPD alertou que criar segurança para crianças por meio de coleta massiva de documentos e fotos de menores geraria um banco de dados altamente sensível, alvo valioso para criminosos. A lei cria a obrigação de verificar a idade sem definir o método, e o método é exatamente onde está o risco. O próprio Felca demonstrou isso no vídeo que motivou a lei: criou um perfil do zero no Instagram e interagiu com fotos de crianças em contextos ambíguos. Em poucos passos, o sistema de recomendação passou a sugerir conteúdo progressivamente mais sexualizado envolvendo menores. Nenhuma busca ativa. Nenhuma intenção declarada. Só rastros lidos por um sistema otimizado para manter o usuário na tela.
Em 2025, 92% das crianças e adolescentes brasileiros entre 9 e 17 anos acessavam a internet, cerca de 24,5 milhões de pessoas, e 85% tinham perfil em pelo menos uma rede social. A escala do problema justifica a lei. O que ela ainda não alcança é a arquitetura das plataformas em si: sistemas construídos para capturar atenção de quem ainda não desenvolveu mecanismos cognitivos de resistência a esse tipo de estímulo. Controle parental e verificação de idade não mudam a lógica de um algoritmo projetado para manter qualquer usuário, de qualquer idade, por mais tempo do que seria razoável.
O CEO do Pinterest sabe disso. Sua plataforma removeu funcionalidades para adolescentes e cresceu entre eles. O ECA Digital protege crianças brasileiras de conteúdo sexualizado e de adultos predadores, e isso é inegável. Mas enquanto a lei regula o acesso, as plataformas continuam redesenhando o ambiente. Uma legislação que chega depois de um vídeo viral, por mais bem-intencionada que seja, regula o incêndio de ontem. O fogo de amanhã já está no código.