REDES SOCIAIS

Your monthly usage limit has been reached. Please upgrade your Subscription Plan.

°C

Após votos de relatores, STF volta a julgar responsabilidade das redes sociais; saiba como está o julgamento

Share on facebook
Share on twitter
Share on telegram
Share on whatsapp
Share on email

O Supremo Tribunal Federal (STF) volta a julgar, nesta quarta-feira (18), a responsabilidade das redes sociais pelos conteúdos postados por seus usuários.

Já apresentaram seus votos os relatores dos dois casos em discussão – os ministros Dias Toffoli e Luiz Fux. Ambos concluem que as plataformas digitais já podem responder pelas postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos (entenda mais abaixo).

window.PLAYER_AB_ENV = “prod”

O próximo a apresentar seu posicionamento é o presidente Luís Roberto Barroso, que tinha pedido vista (mais tempo de análise) na última quarta-feira (11).

Veja abaixo os detalhes dos votos dos relatores dos dois processos – os ministros dias Toffoli e Luiz Fux.

Voto de Luiz Fux

Na última quarta-feira (11), o ministro Luiz Fux apresentou seu voto.

Para o ministro, os provedores são responsáveis pelos conteúdos gerados por terceiros quando tiveram ciência “inequívoca” dos atos ilícitos. Isto é, foram informados por meios adequados e, mesmo assim, não removeram a postagem imediatamente.

De acordo com Fux, podem ser considerados conteúdos ilegais os que tratem de discurso de ódio, crime, racismo, pedofilia, incitação à violência, apologia à abolição violenta ao Estado de Direito e ao golpe de Estado. Nestas situações, considerou o ministro, há um dever de monitoramento ativo das redes sociais, ou seja, elas precisam agir para evitar os danos causados por estas publicações.

Quando a postagem for ofensiva à honra, à imagem e à privacidade (caracterizadores de crimes previstos na lei penal – injúria, calúnia e difamação), a responsabilidade civil destes provedores pode ocorrer se, havendo prévia notificação por eles por parte das vítimas e seus advogados, eles não tomarem a providência de retirar o material do ar.

Fux estabelece que as redes sociais “têm o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados”.

Voto de Dias Toffoli

O primeiro a votar foi o ministro Dias Toffoli. O magistrado considerou que é inconstitucional a regra que prevê a responsabilidade por danos das redes sociais apenas quando não cumprem a ordem judicial de remoção de conteúdo.

O ministro propôs que as plataformas sejam consideradas responsáveis por uma publicação a partir do momento em que receberem uma notificação pedindo a retirada do conteúdo, por ser falso ou ofensivo.

Toffoli previu ainda algumas situações em que não será necessária a notificação extrajudicial para que as plataformas tomem providências. Ou seja, nestas circunstâncias, as big techs têm o dever de agir para evitar os danos. Dessa forma, se não fizerem isso, estão sujeitas à responsabilidade objetiva.

Esta é uma modalidade de responsabilidade aplicada em alguns casos específicos previstos na legislação, em que não é preciso comprovar que houve dolo ou culpa da empresa no episódio. Uma vez com a questão em discussão na Justiça, no caso concreto, a empresa pode provar que não teve participação, ou que não há relação de causa e efeito entre a irregularidade e suas atitudes.

São situações em que os provedores devem agir, mesmo sem notificação extrajudicial:

??quando recomendam, impulsionam (de forma remunerada ou não) ou moderam o conteúdo considerado irregular. Neste caso, a empresa responde junto com o anunciante (quando o conteúdo for patrocinado).

??quando o dano foi causado por perfis falsos, perfis anônimos ou automatizados;

??quando a irregularidade envolver direitos autorais. Também nesta situação, a empresa responde junto com a pessoa que fez a publicação ilegal.

??quando a postagem ilícita envolve uma série de atos e crimes graves: crimes contra a democracia, terrorismo, instigação ao suicídio ou automutilação, racismo, violências contra a criança, o adolescente e as pessoas vulneráveis, violência contra a mulher, infrações contra medidas de saúde pública em situações de emergência em saúde, tráfico de pessoas, incitação ou ameaça à violência física ou sexual, divulgação de notícias falsas para incentivar violência física, divulgação de notícias falsas sobre o processo eleitoral.

O ministro fixou que, se a empresa tiver dúvidas sobre a ocorrência destas situações, deve remover o conteúdo quando tiver notificação extrajudicial.

Toffoli deixou claro que estas regras não se aplicam a:

??serviços de email (Gmail, Outlook, etc);

??aplicativos de realização de reuniões fechadas por vídeo ou voz (Zoom, Google Meet, etc)

??aplicativos de mensagens instantâneas, quando o diálogo envolve pessoas determinadas, com o resguardo de sigilo das comunicações (Whatsapp, Telegram, etc);

Em relação aos marketplaces (páginas de vendas de produtos), o ministro fixou que as empresas respondem junto com os anunciantes por propaganda de produtos de venda proibida, sem certificação ou aval dos órgãos competentes.

Por fim, o magistrado estabeleceu uma série de requisitos para os provedores de internet devem:

??atuar de forma responsável, transparente e cautelosa, a fim de assegurar um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da função social e da prevenção e redução dos danos;

??manter atualizados e dar publicidade aos ?termos e condições de uso? (ou documento equivalente); também devem elaborar códigos de conduta;

??criar mecanismos para assegurar a autenticidade das contas e a correta identificação dos respectivos usuários, adotando as medidas necessárias para impedir a criação de perfis falsos e automatizando, agindo para bloqueá-los assim que forem identificados;

??estabelecer regras claras e procedimentos padronizados para a moderação de conteúdos, assim como divulgar estas informações;

??atualizar constantemente critérios e métodos empregados para a moderação de conteúdos;

??combater a difusão de desinformação nos ambientes virtuais, adotando as providências necessárias para a neutralização de redes artificiais de distribuição de conteúdo irregular, assim como identificar o perfil que originou a notícia falsa;

??monitorar riscos de seus ambientes digitais, elaborando relatórios de transparência;

??devem ofertar canais específicos de notificação, preferencialmente eletrônicos, para o recebimento de denúncias quanto à existência de conteúdo considerado ofensivo ou ilícito, que terá apuração prioritária; estes canais devem permitir o acompanhamento das reclamações.

??devem atuar para previnir e reduzir práticas ilegais no seu âmbito de atuação;

??provedores de internet com sede no exterior e atuação no Brasil devem ter representante no país, cuja identificação e informações para contato devem ser divulgadas;

Responsabilidade por danos

Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.

Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.

Marco Civil da Internet

Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.

Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.

A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.

A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.

Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.

Fonte G1 Brasília

VÍDEOS EM DESTAQUE

ÚLTIMAS NOTÍCIAS