Rede MLC
News

Exposição de crianças nas redes reacende debate sobre responsabilidade dos algoritmos

Publicidade

Apesar das leis que punem a exploração infantil, falta regulação sobre algoritmos que amplificam conteúdos de risco e expõem menores a situações de vulnerabilidade

Neste mês, o país voltou os olhos para um tema delicado: a proteção de crianças na internet. A discussão ganhou força após um vídeo do youtuber Felca viralizar, em que ele denuncia a circulação de conteúdos envolvendo menores em situações de risco, muitas vezes dançando ou usando trajes curtos, que acabam sendo recomendados por algoritmos das próprias plataformas.

A repercussão trouxe à tona uma questão central: como combater esse tipo de exposição, já que os sistemas de recomendação impulsionam justamente os vídeos que mais geram engajamento, mesmo quando envolvem potenciais riscos para crianças?

Publicidade

Algoritmos que ampliam riscos

Redes sociais como TikTok, Instagram e YouTube operam com algoritmos que priorizam conteúdos com maior interação. Isso significa que vídeos de crianças, ao receberem curtidas e comentários, inclusive de adultos com conotações sexuais, tendem a alcançar ainda mais pessoas, criando um ciclo perigoso.

Especialistas apontam que o problema vai além de quem publica o conteúdo: os próprios algoritmos das plataformas ampliam vídeos que geram engajamento, independentemente do contexto. Quando interações inadequadas ou de caráter sexual impulsionam esses vídeos, as crianças acabam sendo expostas a riscos ainda maiores.

O que a lei prevê hoje

No Brasil, o Estatuto da Criança e do Adolescente (ECA) já garante proteção contra exploração da imagem infantil e prevê punição para exposição sexual de menores. O Código Penal criminaliza pornografia infantil e aliciamento, enquanto o Marco Civil da Internet obriga provedores a removerem conteúdos ilegais mediante ordem judicial.

Apesar disso, não existe hoje uma lei que regule a forma como algoritmos funcionam, ou seja, não há previsão legal para responsabilizar plataformas quando seus sistemas de recomendação ampliam a circulação de vídeos que podem ser usados para objetificação infantil.

Caminhos e propostas

Organizações de defesa da infância e especialistas em regulação digital apontam possíveis medidas para preencher essa lacuna:

  • criação de mecanismos automáticos para restringir a visibilidade de conteúdos que envolvam menores em situações sensíveis;

  • auditorias externas e independentes nos algoritmos das redes;

  • validação mais rigorosa da idade de quem aparece em vídeos ou de quem administra contas.

Um debate em aberto

Enquanto a lei brasileira já pune a exploração sexual direta, a discussão sobre a responsabilidade dos algoritmos ainda engatinha. O caso exposto por Felca mostrou que o problema vai além de publicações isoladas: envolve o próprio modelo de funcionamento das redes sociais.

Para especialistas, o desafio agora é avançar da punição individual para uma regulação que alcance também as plataformas e suas ferramentas de recomendação. Afinal, em um ambiente em que cliques e engajamento valem mais do que a proteção, a internet segue sendo um lugar de risco para crianças.

Publicidade

Leia mais

Senado aprova ampliação gradual da licença-paternidade para até 20 dias em 2029

Brenda Gomes

Manaus apresenta modelo de moradia com apartamentos mobiliados e amplia acesso à habitação popular

Brenda Gomes

Manaus recebe reforço de 500 novos soldados da PM para ampliar segurança

Brenda Gomes

Este site usa cookies para melhorar sua experiência. Entendemos que você está de acordo com isso, mas você pode cancelar, se desejar. Aceito Leia Mais