No dia 27/11/2024 foi retomado no Supremo Tribunal Federal o julgamento de dois casos relacionados ao Marco Civil da Internet, Lei nº 12.965/2014.
Estão sob julgamento os seguintes recursos:
- Recurso Extraordinário 1.057.258/MG, de relatoria do Ministro Luiz Fux (Tema 533) em que se discute a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, bem como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut. Adiante relataremos melhor o caso.
- Recurso Extraordinário 1.037.396/SP, de relatoria do ministro Dias Toffoli (Tema 987), em que se discute a constitucionalidade do artigo 19 do Marco Civil da Internet, que exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso que ensejou a discussão no judiciário está relacionado a criação de perfil falso no Facebook.
Basicamente, as três ações abordam o artigo 19 do Marco Civil da Internet. Este artigo diz o seguinte:
“Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
- 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material.
- 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal.
- 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais.
- 4º O juiz, inclusive no procedimento previsto no § 3º , poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação.”
Ou seja, de acordo com o caput do artigo 19 do MCI, os provedores/plataforma digital, como é o caso do GOOGLE E DO FACEBOOK, só podem ser responsabilizados nos casos em que não removam o conteúdo tido com ilícito em tempo hábil, após ordem judicial especifica para tal ação.
É por conta disso que cada empresa/provedor/plataforma digital, adota suas próprias regras e políticas de controle de conteúdo, vez que a decisão final sobre a licitude ou não de determinado conteúdo será dada pelo Poder Judiciário e as empresas não são responsabilizadas pelo conteúdo de terceiros caso não descumpram a ordem de remoção.
Discute-se, portanto, se o tal artigo 19 é constitucional ou não, o que também abre margem para a discussão sobre quais seriam os novos parâmetros para definir a responsabilização das plataformas digitais.
Como o foco do artigo de hoje está na responsabilização das plataformas digitais/provedores sobre os conteúdos postados por terceiros, cabe detalhar o caso que ensejou tal discussão no Judiciário, ao ponto de chegar a CORTE SUPREMA.
Na origem, a professora Aliandra Cleide Vieira ajuizou Ação de Indenização por Danos Morais com Pedido de Antecipação de Tutela contra o GOOGLE BRASIL INTERNET LTDA, perante o Juizado Especial da Comarca de Belo Horizonte/MG (autos nº 9002893.47.2010.813.0024 – 09ª Unidade Jurisdicional Cível), no ano de 2010, pedindo a retirada da internet da comunidade no ORKUT que alunos criaram para lhe ofender, denominada de “Eu odeio a Aliandra”, indenização por danos morais no patamar de R$ 21.000,00.
Na tal comunidade, os alunos chamavam a professora de chata e criticavam suas vestimentas e traços físicos.
No final de 2009, extrajudicialmente, a professora solicitou que o ORKUT excluísse a comunidade. Em resposta, a GOOGLE respondeu que não havia identificado violação de forma clara as leis do mundo real ou que infração às suas políticas, não tendo sido, portanto, preenchidos os requisitos para remoção.
Em sua contestação, o GOOGLE alegou que, na qualidade de site de hospedagem, o ORKUT não exerce controle preventivo ou monitoramento sobre o conteúdo de páginas pessoais ou comunidades criadas pelos usuários, pois isso poderia implicar em censura prévia, o que é vedado pela Constituição Federal Brasileira.
Também alegou que a própria GOOGLE não tem como controlar ou fiscalizar previamente o conteúdo dos milhões de páginas inseridas no universo virtual, mas destacou os cuidados que toma com suas políticas e avisos aos usuários sobre como se portar no ambiente de suas plataformas (Termos de Serviço ou “Termo Universais”).
Passa, então, a alegar sua ilegitimidade passiva, ainda mais para fins indenizatórios, vez que não é ela quem cria/edita e posta os conteúdos e defende que a responsabilidade civil prevista no artigo 927 do Código Civil é subjetiva, sendo a responsabilização objetiva a exceção à regra. Também impugna a aplicação da teoria do risco às atividades de provedor de hospedagem prevista nos artigos 927, parágrafo único e 931 do Código Civil, e em caráter eventual dos dispositivos do Código de Defesa do Consumidor, afirmando que a disponibilização de espaços aos usuários não pode ser enquadrada como atividade que normalmente oferece riscos a outrem.
Traçou comparativo com companhias telefônicas e montadora de automóveis dizendo que:
“ 38. ADMITIR A IMPUTAÇÃO DE RESPONSABILIDADE OBJETIVA À RÉ PELO OCORRIDO SERIA O MESMO QUE RESPONSABILIZAR AS COMPANHIAS TELEFÔNICAS A INDENIZAR SEUS USUÁRIOS PELO RECEBIMENTO DE UM TROTE OU POR TEREM SIDO VÍTIMAS DE UM GOLPE REALIZADO PELO TELEFONE, PELO FATO DE DISPONIBILIZAREM POR MEIO DAS LISTAS TELEFÔNICAS O NÚMERO DE DIVERSAS PESSOAS. OU RESPONSABILIZAR A MONTADORA DE AUTOMÓVEIS A INDENIZAR TERCEIRO ENVOLVIDO EM ACIDENTE CAUSADO EXCLUSIVAMENTE PELA IMPERÍCIA DO CONDUTOR.”
Busca afastar a responsabilidade civil subjetiva alegando ausência de preenchimento dos requisitos necessários pela ausência de ato ilícito de sua parte e de nexo de causalidade, afirmando, em letras também garrafais, que se tal responsabilidade existe, deverá recair sobre o autor da ofensa, ou seja, o criador da comunidade e os usuários que postaram o conteúdo em questão.
Por fim, em caráter subsidiário, impugnou o valor requerido a título de danos morais, entendo que seria uma vantagem patrimonial indevida por parte da autora.
Em 2011, sobreveio sentença decidindo pela legitimidade passiva do GOOGLE e também entendendo pela sua responsabilidade pelo ocorrido, vez que se omitiu ao não atender ao pedido formulado pela autora quanto à exclusão, portanto, não impediu que ela continuasse a ser ridicularizada. Os danos morais foram reduzidos para R$ 10.000,00. A GOOGLE foi, então, condenada a excluir a comunidade em dois dias.
Em sede recursal, a GOOGLE avisou que assim que intimada da sentença, promoveu a remoção do conteúdo/comunidade do ORKUT e, no mais, repisou seus argumentos requerendo a reforma da sentença. O recurso foi julgado improvido, basicamente repisando os fundamentos da sentença e destacando que o dano moral à imagem da autora gerou reflexos até mesmo em seu ambiente de trabalho. Foram opostos embargos, que também não foram providos.
A GOOGLE interpôs o Recurso Extraordinário, cujo julgamento está sendo retomado esta semana pelo STF em 2011, utilizando como fundamento constitucional 5º, IV, IX, XIV, XXXIII e 220, §1º, §2º, §6º da CF, alegando a falta de fundamentos da decisão colegiada ao a condenar por não fiscalizar conteúdo postado por terceiro no ORKUT, que poderia implicar em censura prévia.
Para conhecimento os artigo citados dizem o seguinte:
“Art. 5º Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à propriedade, nos termos seguintes:
(…)
IV – é livre a manifestação do pensamento, sendo vedado o anonimato;
(…)
IX – é livre a expressão da atividade intelectual, artística, científica e de comunicação, independentemente de censura ou licença;
(…)
XIV – é assegurado a todos o acesso à informação e resguardado o sigilo da fonte, quando necessário ao exercício profissional;
(…)
XXXIII – todos têm direito a receber dos órgãos públicos informações de seu interesse particular, ou de interesse coletivo ou geral, que serão prestadas no prazo da lei, sob pena de responsabilidade, ressalvadas aquelas cujo sigilo seja imprescindível à segurança da sociedade e do Estado;
(…)”
“Art. 220. A manifestação do pensamento, a criação, a expressão e a informação, sob qualquer forma, processo ou veículo não sofrerão qualquer restrição, observado o disposto nesta Constituição.
- 1º Nenhuma lei conterá dispositivo que possa constituir embaraço à plena liberdade de informação jornalística em qualquer veículo de comunicação social, observado o disposto no art. 5º, IV, V, X, XIII e XIV.
- 2º É vedada toda e qualquer censura de natureza política, ideológica e artística.
(…)
- 6º A publicação de veículo impresso de comunicação independe de licença de autoridade.”
Em março de 2020, considerando o RE nº 1.037.396/SP e do RE nº 1.057.258/MG foi realizada audiência pública para ouvir os membros do Poder Público e da sociedade civil que pudessem contribuir com conhecimentos técnicos e jurídicos sobre:
- o regime de responsabilidade de provedores de aplicativos ou de ferramentas de internet por conteúdo gerado pelos usuários, e
- a possibilidade de remoção de conteúdos que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas a partir de notificação extrajudicial.
Participaram da audiência pública representantes de órgãos da Administração Pública, a exemplo do Ministério da Justiça e Segurança Pública, da Advocacia-Geral da União, do Ministério dos Direitos Humanos e Cidadania, do Ministério das Comunicações, da Câmara dos Deputados, da Presidência da República, da Agência Nacional de Telecomunicações, da Autoridade Nacional de Proteção de Dados e desta Procuradoria-Geral da República.
Também colaboraram com os debates representantes dos provedores de hospedagem de perfis pessoais (redes sociais), como Facebook Brasil, Google Brasil, Twitter Brasil, TikTok Brasil, Wikimedia Foundation (Wikipedia), Mercado Livre e GetEdu. Ainda, prestaram contribuições associações ligadas à temática e outras instituições da sociedade civil, tais como Associação Brasileira de Internet, Federação das Associações das Empresas de Tecnologia da Informação, Associação Brasileira de Provedores de Internet e Telecomunicações, Instituto dos Advogados de São Paulo, Comissão de Tecnologia e Inovação da OAB/SP, Associação Brasileira de Emissoras de Rádio e Televisão, Associação Brasileira de Jornais, Associação Brasileira de Jornalismo Investigativo, Associação Brasileira de Comunicação Pública, Instituto Brasileiro de Defesa do Consumidor e ARTIGO 19 Brasil e América do Sul.
Em 2023, a PROCURADORIA GERAL DA REPÚBLICA, entendeu pelo desprovimento do Recurso Extraordinário, e sugeriu a fixação das seguintes teses:
“I) Descabe ao provedor de hospedagem de perfis pessoais (redes sociais) controlar previamente o conteúdo dos dados que transitam em seus servidores;
- II) Em momento anterior à vigência da Lei 12.965/2014, as ofensas a usuário ou a terceiro, publicadas em perfis ou comunidades virtuais mantidos pelo provedor, hão de ser excluídas a pedido do ofendido e em tempo razoável, independentemente de específica ordem judicial; e
III) Mesmo após a vigência da Lei 12.965/2014, o provedor de aplicações de internet, independentemente de ordem judicial, há de atuar com a devida diligencia, a fim de observar os direitos fundamentais, prevenir sua violação e reparar danos decorrentes de condutas de usuários não acobertadas pela liberdade de expressão, a exemplo de manifestações ilegais desidentificadas, baseadas em fatos sabidamente inverídicos ou de conteúdo criminoso.”
O julgamento desse Recurso Extraordinário e do que está sendo julgado em conjunto com ele, o RE 1.037.396, foi adiado para aguardar a votação do PL das Fake News, que trata da regulamentação das redes sociais na Câmara dos Deputados. Todavia, como essa votação estava em passos lentos, o Ministro Toffoli entendeu pela liberação de um dos recursos para julgamento.
Atualmente, alguns amicus curiae e interessados que constam no caso são: Núcleo de Informação e Coordenação do Potno BR – NIC. BR, a Associação Brasileira de Centros de Inclusão Digital – ABCID e a Associação Artigo 19 Brasil. O julgamento foi retomado dia 27/11/2024, foi lido o relatório dos casos e foram realizadas sustentações orais, tendo o julgamento sido suspenso e incluídos na pauta de julgamento do dia 28/11/2024.
Segundo o JOTA, o Ministério Público do Estado de São Paulo, amicus curiae também no caso, defende a inconstitucionalidade do artigo 19 do MCI, dizendo que possui uma matriz patrimonialista e que os direitos fundamentais devem prevalecer.
Por sua vez, ainda conforme relatado pelo JOTA, o Instituto Brasileiro de Direito Civil (IBDCivil) considera que a atual redação do artigo 19 do MCI “fragiliza vítimas de danos no ambiente digital”.
O jornal eletrônico também informou que o Idec defende a inconstitucionalidade do artigo 19 do MCI, entendendo que a legislação deve ser interpretada em harmonia com o Código de Defesa do Consumidor. Conforme resumido pelo JOTA, “Para o Idec, há necessidade de uma nova interpretação do dispositivo para responsabilizar as plataformas por conteúdos lesivos, com base no dever disposto no CDC de não autorizar produtos ou serviços que atentem contra à saúde e à segurança do consumidor. A entidade defende que a falta de moderação adequada aponta mais uma fragilidade dos mecanismos de autorregulação no ambiente digital.Além disso, também defende que as plataformas digitais devem ser obrigadas a garantir mecanismos de denúncia para conteúdos impróprios eficazes e que esses pedidos sejam analisados em até 48 horas.”
Interessante a visão do doutrinador Anderson Schreiber, narrada pelo JOTA, ao entender que o artigo 19 acabou por se tornar uma blindagem excessiva das plataformas digitais:
“Em coluna publicada no JOTA, Anderson Schreiber, professor titular de Direito Civil da UERJ e da FGV, defende que o STF adote uma uma interpretação conforme a Constituição, sugerindo quatro diretrizes para elevar o grau de confiabilidade das plataformas digitais: Responsabilidade direta em violações flagrantes, notificação como base de responsabilidade, garantia de revisão humana e transparência na moderação e uso de dados.
Segundo Schreiber, a norma, que condicionou a responsabilidade das big techs ao descumprimento de decisões judiciais, criou uma “blindagem excessiva” das plataformas digitais. Para o acadêmico, a norma é “desarrazoada”, que completa 10 anos neste ano, gerou danos individuais e coletivos, especialmente em um contexto de disseminação de desinformação e discurso de ódio na Internet. Leia a íntegra da coluna.”
O Facebook alegou que na época dos fatos não tinha como saber se quem solicitava a remoção de perfil falso era fato era a pessoa verdadeira, respondendo a indagação do Ministro Luís Barroso no sentido de que por que uma pessoa pediria a retirada de uma conta no Facebook, sendo que ela própria poderia simplesmente desativá-la ao ter acesso a uma conta.
A plataforma entende que se for possível apenas a notificação extrajudicial para retirada de qualquer tipo de conteúdo da internet, na prática, caracterizar-se-á uma “censura massiva” que poderia afetar até mesmo jornais. Pediu que, caso o Supremo não considere o artigo 19 integralmente constitucional, seja dada interpretação conforme à Constituição determinando que a retirada obrigatória de perfis e páginas só se dê em casos de exploração sexual infantil, terrorismo, racismo, abolição violenta do Estado democrático de Direito e golpe de Estado.
Já o GOOGLE disse que “em 2023 o YouTube (plataforma de vídeos da empresa) removeu 1,6 milhão de publicações no Brasil por violações de políticas da empresa, enquanto no mesmo período os casos judicializados somaram 614 pedidos.”, conforme narrado pelo COJUR, para demonstrar que não há inércia de sua parte.
O advogado do provedor ainda defendeu que “nenhum país democrático do mundo” adota um modelo de responsabilidade objetiva, em que as plataformas são responsáveis por todo e qualquer conteúdo de terceiros, ficando obrigadas a monitorar publicações globalmente, de acordo com o relatado pelo CONJUR.
Vale destacar, ainda, que também está na agenda do STF, com autos conclusos em 14/11/2024, a ADPF 403, de relatoria do Ministro Edson Fachin, que discute as decisões judiciais diferentes entre os tribunais de Justiça brasileiros que determinaram a suspensão do aplicativo WhatsApp, após a empresa informar que não poderia fornecer os dados requisitados pelos magistrados em razão da segurança da criptografia.
O escritório DELIVAR DE MATTOS & CASTOR ADVOGADOS, encabeçado pelos sócios RODRIGO CASTOR DE MATTOS e ANALICE CASTOR DE MATTOS, reconhece a importância de todas essas discussões e quer saber a sua opinião sobre o tema, pois acredita que toda reflexão séria é bem-vinda e contribui para a evolução da temática. Fique à vontade para se expressar nos comentários.
Fontes: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5217273
https://portal.stf.jus.br/processos/detalhe.asp?incidente=5160549
https://www.jota.info/stf/do-supremo/ao-vivo-stf-julgamento-do-artigo-19-do-marco-civil-da-internet