Decisão judicial inovadora determina que redes sociais realizem busca ativa para remover conteúdo
28 de janeiro de 2024

A juíza Fabelisa Gomes Leal, da 3ª Vara Cível da Regional de Campo Grande (RJ), em uma decisão que rompe com o estabelecido pelo Marco Civil da Internet, determinou, em caráter de tutela provisória, que as redes sociais X (antigo Twitter), Facebook e TikTok realizem busca ativa, por meio de seus algoritmos, para remover conteúdo que expõe uma pessoa menor de idade vítima de crime violento. A decisão, que vai de encontro à legislação e jurisprudência que geralmente exigem que a parte prejudicada indique explicitamente qual conteúdo deve ser removido, reacende o debate sobre a necessidade de uma regulamentação específica para a atuação das redes sociais no Brasil.

Contrariando a norma atual, as plataformas são geralmente isentas de responsabilidade pelos conteúdos postados por terceiros, a menos que haja descumprimento de decisão judicial para a remoção de publicações. Contudo, essa norma tem resultado em diversos casos de não cumprimento de sentenças por parte das redes sociais, inclusive em situações envolvendo estupro e pedofilia.

A ação, iniciada em 2022 e mantida em sigilo, detalha que várias denúncias foram feitas às empresas, as quais rejeitaram todos os pedidos de remoção do conteúdo. O TikTok, por exemplo, foi contatado através de seu canal dedicado a violações de segurança e crimes envolvendo menores, mas alegou que o conteúdo não violava as diretrizes da empresa.

A advogada da vítima, Gabriella Ventura, solicitou, por meio de tutela de urgência, a remoção de 30 URLs contendo imagens da menor exposta. Além disso, pediu que as plataformas fossem obrigadas a localizar ativamente conteúdo semelhante ao indicado na petição e excluí-lo sem necessidade de nova provocação.

Inicialmente, a juíza atendeu parcialmente à demanda, ordenando a exclusão dos links. Diante da omissão em relação ao segundo ponto, a juíza determinou a “localização ativa” pelas empresas controladoras das redes sociais, utilizando seus próprios meios tecnológicos, para a remoção dos conteúdos, sob pena de multa diária de R$ 500 em caso de descumprimento.

O Ministério Público posicionou-se a favor do pedido da vítima. A decisão da juíza, emitida em 16 de novembro de 2023, inclui a retirada das imagens veiculadas nas redes sociais que expõem indevidamente a menor, relacionadas ao evento narrado na inicial, utilizando meios tecnológicos disponíveis para promover a busca ativa desses conteúdos através dos mecanismos de busca.

O TikTok recorreu da decisão, argumentando que o Marco Civil determina que a remoção de conteúdo deve ser solicitada por decisão judicial específica, com a apresentação do link do post a ser excluído. A desembargadora Marília de Castro Neves Vieira, em 7 de dezembro, negou o pedido de efeito suspensivo e manteve a decisão que determina a busca ativa. O recurso aguarda julgamento colegiado em segunda instância, com a apresentação das contrarrazões. Ventura ressalta a necessidade de uma interpretação da legislação que não privilegie as grandes empresas de tecnologia em detrimento dos direitos dos cidadãos, enfatizando a importância de refletir sobre o impacto social das redes sociais e a urgência de proteger os direitos fundamentais no âmbito digital.

 

Com informações do ConJur.

Por: Terra Brasil Notícias

Área de comentários

Deixe a sua opinião sobre o post

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Comentário:

Nome:
E-mail:
Site: