Denúncia de Felca sobre exploração de menores na internet reforça urgência de ação pelas big techs
Decisão do STF amplia a responsabilidade das plataformas digitais na moderação de conteúdos ilegais, sem necessidade de ordem judicial, e reacende debate sobre segurança infantil online

A denúncia feita pelo influenciador Felca em vídeo sobre “adultização” de menores, abordando casos de exploração infantil e pedofilia, voltou a colocar as redes sociais no centro das discussões sobre segurança digital. O episódio veio à tona quase dois meses após a decisão do Supremo Tribunal Federal (STF) que estabeleceu, para alguns casos, a responsabilidade direta das big techs na moderação e remoção de conteúdos ilegais, sem a necessidade de ordem judicial. Desde que foi publicado, na última sexta-feira (8), o vídeo viralizou, acumulando mais de 25 milhões de visualizações.
De acordo com Aloísio Costa Jr., sócio do Ambiel Bonilha Advogados, pós-graduando em Direito Digital pela FGV/SP, a decisão do STF traz impacto direto sobre as plataformas digitais em casos de circulação de conteúdo impróprio. “O Supremo estabeleceu que a plataforma é responsável quando não promover a indisponibilização imediata de conteúdos que configurem prática de crimes graves, entre os quais crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes. O provedor deve dever de atuar de forma responsável, transparente e cautelosa, e será responsabilizado se deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos”.
Para Aloísio Costa Jr., o maior desafio das plataformas não é apenas técnico, mas jurídico. “Cada provedor pode ter um entendimento diferente sobre o que é lícito ou ilícito, e a decisão de remover ou manter um conteúdo sempre gerará insatisfação. No entanto, em casos de crimes graves contra vulneráveis, a tendência é que o Judiciário aja de forma mais protetiva a potenciais vítimas, o que impõe aos provedores de aplicação um dever de vigilância bastante abrangente e profundo, não só quanto aos conteúdos postados, mas também quanto aos comentários e compartilhamentos”, explica.
O STF também impôs a exigência de que as empresas editem normas de autorregulação e tornem claros seus critérios de moderação, o que deve transformar a relação com os usuários. “Quanto mais clareza quanto à atividade moderadora, mais usuários e plataformas estarão amparados juridicamente para se defender de alegações de descumprimento das normas ou para denunciar ilegalidades. Transparência e segurança jurídica caminham juntas”, afirma o advogado.
O vídeo de Felca e a decisão do STF expõem um ponto comum: a urgência de ações concretas para impedir que conteúdos nocivos envolvendo crianças circulem livremente na internet. Para o advogado, “a sociedade espera que as plataformas ajam de forma preventiva e responsável. Mais do que cumprir decisões judiciais, é preciso garantir que a proteção de crianças e adolescentes seja prioridade absoluta na política de moderação de conteúdo”.
Fonte:
Aloísio Costa Jr. – sócio do Ambiel Bonilha Advogados e pós-graduando em Direito Digital pela FGV/SP. Bacharel em Direito pela USP e pós-graduado em Direito Processual Civil pela FGV/SP. Possui atuação na área de Mídia e Entretenimento.

Aloísio Costa Jr é especialista em Processo Civil e pós-graduando em Direito Digital pela FGV/SP
Divulgação/M2 Comunicação
Sobre a M2 Comunicação Jurídica
A M2 Comunicação Jurídica é uma agência especializada nos segmentos econômico e do Direito. Contamos com diversas fontes que atuam em âmbito nacional e internacional, com ampla vivência nos mais diversos assuntos que afetam a economia, sociedade e as relações empresariais

A denúncia feita pelo influenciador Felca em vídeo sobre “adultização” de menores, abordando casos de exploração infantil e pedofilia, voltou a colocar as redes sociais no centro das discussões sobre segurança digital. O episódio veio à tona quase dois meses após a decisão do Supremo Tribunal Federal (STF) que estabeleceu, para alguns casos, a responsabilidade direta das big techs na moderação e remoção de conteúdos ilegais, sem a necessidade de ordem judicial. Desde que foi publicado, na última sexta-feira (8), o vídeo viralizou, acumulando mais de 25 milhões de visualizações.
De acordo com Aloísio Costa Jr., sócio do Ambiel Bonilha Advogados, pós-graduando em Direito Digital pela FGV/SP, a decisão do STF traz impacto direto sobre as plataformas digitais em casos de circulação de conteúdo impróprio. “O Supremo estabeleceu que a plataforma é responsável quando não promover a indisponibilização imediata de conteúdos que configurem prática de crimes graves, entre os quais crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes. O provedor deve dever de atuar de forma responsável, transparente e cautelosa, e será responsabilizado se deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos”.
Para Aloísio Costa Jr., o maior desafio das plataformas não é apenas técnico, mas jurídico. “Cada provedor pode ter um entendimento diferente sobre o que é lícito ou ilícito, e a decisão de remover ou manter um conteúdo sempre gerará insatisfação. No entanto, em casos de crimes graves contra vulneráveis, a tendência é que o Judiciário aja de forma mais protetiva a potenciais vítimas, o que impõe aos provedores de aplicação um dever de vigilância bastante abrangente e profundo, não só quanto aos conteúdos postados, mas também quanto aos comentários e compartilhamentos”, explica.
O STF também impôs a exigência de que as empresas editem normas de autorregulação e tornem claros seus critérios de moderação, o que deve transformar a relação com os usuários. “Quanto mais clareza quanto à atividade moderadora, mais usuários e plataformas estarão amparados juridicamente para se defender de alegações de descumprimento das normas ou para denunciar ilegalidades. Transparência e segurança jurídica caminham juntas”, afirma o advogado.
O vídeo de Felca e a decisão do STF expõem um ponto comum: a urgência de ações concretas para impedir que conteúdos nocivos envolvendo crianças circulem livremente na internet. Para o advogado, “a sociedade espera que as plataformas ajam de forma preventiva e responsável. Mais do que cumprir decisões judiciais, é preciso garantir que a proteção de crianças e adolescentes seja prioridade absoluta na política de moderação de conteúdo”.
Fonte:
Aloísio Costa Jr. – sócio do Ambiel Bonilha Advogados e pós-graduando em Direito Digital pela FGV/SP. Bacharel em Direito pela USP e pós-graduado em Direito Processual Civil pela FGV/SP. Possui atuação na área de Mídia e Entretenimento.

Aloísio Costa Jr é especialista em Processo Civil e pós-graduando em Direito Digital pela FGV/SP
Divulgação/M2 Comunicação
Sobre a M2 Comunicação Jurídica
A M2 Comunicação Jurídica é uma agência especializada nos segmentos econômico e do Direito. Contamos com diversas fontes que atuam em âmbito nacional e internacional, com ampla vivência nos mais diversos assuntos que afetam a economia, sociedade e as relações empresariais
Comentários
Postar um comentário