Durante audiência pública sobre novas regras do Marco Civil da Internet no Supremo Tribunal Federal (STF), que ocorreu nesta semana, Big Techs como a Meta, responsável pelo WhatsApp, Facebook e Instagram; e o Google defenderam que a legislação brasileira não deve responsabilizar as plataformas por conteúdo postado pelos usuários.
Em audiência convocada pelos ministros Dias Toffoli e Luiz Fux, que são relatores dos dois recursos sob análise do Supremo Tribunal Federal levantaram o debate sobre "responsabilidade de provedores de aplicativos ou de ferramentas de internet por conteúdo gerado pelos usuários e a possibilidade de remoção de conteúdos que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas a partir de notificação extrajudicial".
O advogado da Meta, Rodrigo Ruf, defendeu a constitucionalidade de um artigo da lei de 2014, o artigo 19 do Marco Civil da Internet, segundo a qual as plataformas só são responsáveis pelo conteúdo de seus usuários se não remover o conteúdo após ordem judicial.
"Defendemos a constitucionalidade do artigo 19. Ele é uma solução equilibrada que possibilita a autorregulação, indica o caminho para cenários ambíguos, sem impedir a satisfação de outros direitos fundamentais como o direito à reparação dos danos", disse Ruf.
Meta e Google descartam aumentar responsabilidade das Big Techs.(Foto:Reprodução/Pixabay)
Já Guilherme Cardoso Sanchez, advogado da Google, argumenta que aumentar a responsabilidade civil das plataformas digitais “não é a chave para tornar a internet um lugar mais seguro”. Ele diz que não se pode responsabilizar, de forma direta, o conteúdos postados pelos usuários na internet.
“Responsabilizar plataformas digitais, como se fossem as autoras do conteúdo que exibem, levaria a um dever genérico de monitoramento de todo o conteúdo produzido pelas pessoas” disse Sanchez.
Segundo Sanchez, o Google não aguarda uma decisão judicial para retirar conteúdos ilícitos das plataformas. De acordo com ele, a empresa atualiza e aprimora sua política de conteúdos, incorporando nas restrições publicações que possam trazer riscos de danos reais: “Por exemplo, as políticas do YouTube contra o discurso de ódio proíbem a discriminação com base em fatores como idade e classe social, que vão além das categorias legais”, disse ele.
As empresas defenderam que um ambiente digital mais sadio pode ser alcançado com o aperfeiçoamento da autorregulação já existente.
Foto Destaque: STF realiza audiências públicas para discutir as regras do Marco Civil da Internet. Reprodução/Pixabay.