Apesar das leis que punem a exploração infantil, falta regulação sobre algoritmos que amplificam conteúdos de risco e expõem menores a situações de vulnerabilidade
Neste mês, o país voltou os olhos para um tema delicado: a proteção de crianças na internet. A discussão ganhou força após um vídeo do youtuber Felca viralizar, em que ele denuncia a circulação de conteúdos envolvendo menores em situações de risco, muitas vezes dançando ou usando trajes curtos, que acabam sendo recomendados por algoritmos das próprias plataformas.
A repercussão trouxe à tona uma questão central: como combater esse tipo de exposição, já que os sistemas de recomendação impulsionam justamente os vídeos que mais geram engajamento, mesmo quando envolvem potenciais riscos para crianças?
Algoritmos que ampliam riscos
Redes sociais como TikTok, Instagram e YouTube operam com algoritmos que priorizam conteúdos com maior interação. Isso significa que vídeos de crianças, ao receberem curtidas e comentários, inclusive de adultos com conotações sexuais, tendem a alcançar ainda mais pessoas, criando um ciclo perigoso.
Especialistas apontam que o problema vai além de quem publica o conteúdo: os próprios algoritmos das plataformas ampliam vídeos que geram engajamento, independentemente do contexto. Quando interações inadequadas ou de caráter sexual impulsionam esses vídeos, as crianças acabam sendo expostas a riscos ainda maiores.

O que a lei prevê hoje
No Brasil, o Estatuto da Criança e do Adolescente (ECA) já garante proteção contra exploração da imagem infantil e prevê punição para exposição sexual de menores. O Código Penal criminaliza pornografia infantil e aliciamento, enquanto o Marco Civil da Internet obriga provedores a removerem conteúdos ilegais mediante ordem judicial.
Apesar disso, não existe hoje uma lei que regule a forma como algoritmos funcionam, ou seja, não há previsão legal para responsabilizar plataformas quando seus sistemas de recomendação ampliam a circulação de vídeos que podem ser usados para objetificação infantil.
Caminhos e propostas
Organizações de defesa da infância e especialistas em regulação digital apontam possíveis medidas para preencher essa lacuna:
-
criação de mecanismos automáticos para restringir a visibilidade de conteúdos que envolvam menores em situações sensíveis;
-
auditorias externas e independentes nos algoritmos das redes;
-
validação mais rigorosa da idade de quem aparece em vídeos ou de quem administra contas.
Um debate em aberto
Enquanto a lei brasileira já pune a exploração sexual direta, a discussão sobre a responsabilidade dos algoritmos ainda engatinha. O caso exposto por Felca mostrou que o problema vai além de publicações isoladas: envolve o próprio modelo de funcionamento das redes sociais.
Para especialistas, o desafio agora é avançar da punição individual para uma regulação que alcance também as plataformas e suas ferramentas de recomendação. Afinal, em um ambiente em que cliques e engajamento valem mais do que a proteção, a internet segue sendo um lugar de risco para crianças.


