A INCONSTITUCIONALIDADE DO ART. 19 DO MARCO CIVIL DA INTERNET: breve análise do julgamento do STF
A INCONSTITUCIONALIDADE DO ART. 19 DO
MARCO CIVIL DA INTERNET: breve análise do julgamento do STF
Demócrito Reinaldo Filho
Desembargador
do TJPE
1. Introdução
O Supremo Tribunal Federal (STF) concluiu, na tarde da última
quinta-feira (dia 26.06.25), o julgamento de dois recursos extraordinários[1] em
que se discutia a constitucionalidade do art. 19 da Lei n. 12.965/14 (conhecida
como o “Marco Civil da Internet”). Esse artigo de lei confere uma completa imunização
aos provedores de serviços digitais e controladores de plataformas digitais,
pois estabelece que não podem ser responsabilizados civilmente por danos
decorrentes de conteúdos ilícitos publicados por terceiros (usuários das
plataformas)e só devemsuprimir conteúdo após receber ordem judicial[2]. A
única exceção a essa regra está no art. 21 do próprio MCI, segundo o qual o
provedor de aplicações de internet pode ser responsabilizado por imagens e
vídeos contendo cenas de nudez ou de atos sexuais gerados por terceiros se,
quando notificado, não promover a remoção do conteúdo[3].
A Corte Suprema entendeu que o artigo 19 do MCI é “parcialmente
inconstitucional”, pois “não confere proteção suficiente a bens jurídicos
constitucionais de alta relevância”, como a proteção dos direitos fundamentais
e dos valores democráticos. Os ministros se reuniram na Presidência do STF, na
quinta-feira em que ocorreu a sessão do Plenário, para estabelecer os pontos
consensuais do julgamento, a fim de redigir as teses jurídicas com repercussão geral[4].Elaboraram ao todo 14
enunciados, alguns com mais de um subitem[5]. A leitura dos enunciados
das teses revela que o STF criou um regime de responsabilidades diversificado,
que varia conforme o tipo de serviço prestado pelo provedor e a natureza
dos conteúdos disseminados.Todos os esquemas jurídicos de responsabilização
construídos na tese comrepercussão geral
do STF são baseados na responsabilidade fundada na culpa, não existindo
esquema de imputação de responsabilidade objetiva aos provedores de
serviços e aplicações na internet[6]. As regras que conformam o
novo regime jurídico estabelecido para os provedores de serviços digitais
passam avaler para o futuro, ou seja, têm eficácia a partir do julgamento, não
retroagindo para alcançar fatos e situações já constituídas[7].Adiante apresentamos um
resumo explicativo das teses aprovadas.
2. Crimes de injúria, difamação e calúnia
Em relação a
conteúdos que possam causar danos à honra, à reputação ou a direitos da
personalidade dos indivíduos, continua a valer a norma do art. 19 do MCI.Os provedores só podem ser responsabilizados (dever de pagar
indenização) se descumprirem uma ordem judicial para remoção de conteúdo[8].
A
Corte entendeu que responsabilizardiretamente o provedor, nessas hipóteses,
poderia de alguma forma embotar a “liberdade de expressão”.
Nesse
ponto, o julgado da Corte Suprema causou certa frustração, pois danos
relacionados com direitos da personalidade (direito ao nome, à imagem, à
intimidade e à privacidade) constituem a maioria dos conflitos decorrentes de publicações
em plataformas de redes sociais e outros serviços onde os conteúdos são disponibilizados
instantaneamente pelos usuários. O ideal teria sido fixar o regime do “noticeandtakedown” para esses casos, em
que os conteúdos são removidos pelo provedor após notificação extrajudicial dos
interessados (vítimas dos danos). Se não excluir o conteúdo apontado como
ilícito ou prejudicial, depois de notificado, o provedor pode ser responsabilizado
solidariamente com a pessoa (usuário) que fez a publicação. Tal regime garante
a liberdade editorialdo provedor de analisar a natureza do conteúdo,
decidindo manter (ou não) o material informacional.
Ainda que
tenha mantido a imunidade do provedor em relação a conteúdos que causem
danos à reputação e à imagem das pessoas, o STF destacou que os controladores
de plataformas e serviços de redes sociais podem fazer a remoção de conteúdos,
de maneira voluntária, após serem notificados extrajudicialmente. Os provedores
não são responsabilizados por conteúdos gerados por terceiros (usuários) que
causem danos à reputação e honra das pessoas,mas podem fazer a remoção de
maneira voluntária, após notificados pelo ofendido. No que tange, portanto, a
conteúdos relacionados com danos à reputação e honra (direitos à intimidade e
privacidade) das pessoas, os provedores continuam completamente imunizados.
Também
ficou definido que, quando um fato ofensivo já reconhecido por decisão judicial
for repetidamente replicado, todos os provedores deverão remover as publicações
com idêntico conteúdo, quando notificados (extrajudicialmente). O beneficiário
da decisão judicial não necessita ingressar novamente em juízo para obter nova
ordem de retirada do material ofensivo, toda vez que for republicado em outra
plataforma ou serviço de hospedagem[9].
3.
Crimes em geral
O STF
estabeleceu outro esquema de responsabilização para os provedores quando se
tratar de conteúdo informacional que constitua qualquer outra forma de crime,
ilícito tipificado nas leis penais. O texto da tese de repercussão geral
estatui que “o provedor de aplicações de internet será responsabilizado
civilmente, nos termos do art. 21 do MCI, pelos danos decorrentes de conteúdos
gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever
de remoção do conteúdo” (Enunciado 3). Em se tratando de conteúdo informacional
publicado por terceiros (usuários da plataforma digital) que constitua qualquer
espécie de ilícito penal, o provedor será responsabilizado solidariamente com o
difusor do conteúdo se não tomar providências para removê-lo em tempo hábil. Se
o provedor se mantiver inerte, depois de notificado (extrajudicialmente) da
existência de material informacional que se enquadre em algum tipo penal, em
seu sistema informatizado, será responsabilizado juntamente com o ofensor
original.
Aqui se trata de uma responsabilidade baseada no conhecimento
do ilícito, ou seja, o provedor só pode ser responsabilizado se, devidamente
cientificado da existência do material informacional ilícito, não adotar as
providências para removê-lo de seu sistema informatizado. Trata-se do knowledge regime, baseado na culpa
do provedor que se mantém na inércia mesmo tendo ciência da ilicitude que ocorra
no ambiente digital sob seu controle.
É aceitável
que o controlador de uma plataforma ou sistema informatizado não pode, em
regra, ser responsabilizado pelo material informacional publicado e divulgado
ao público instantaneamente, à falta de controle editorial, já que,
nesses casos, quem faz a publicação do material não é ele, mas o usuário do
sistema. O usuário é quem fornece o conteúdo, sem participação direta do
mantenedor do site ou plataforma digital. Mas o operador do sistema permanece
com o poder de retirar ou alterar o conteúdo da notícia ou informação. Embora
não tenha sido ele que fixou a mensagem para o público, permanece com controle
sobre a informação, devendo ser responsabilizado se permanecer inerte após
tomar conhecimento do material informacional ilícito hospedado em seu
sistema.
O esquema de responsabilização traçado no art. 21 do
MCI da Internet também deve ser aplicado nos casos de contas e perfis falsos.
É o que resulta dos termos em que foi redigida a tese de repercussão geral: “Aplica-se
a mesma regra [art. 21 do MCI] nos casos de contas denunciadas como
inautênticas” (parte final do Enunciado 3). Contas
e perfis falsos (“perfis fakes") são contas criadas em plataformas e
serviços digitais com informações falsas ou com o propósito de se passar por
outra pessoa, para fins de entretenimento, golpes, disseminação de informações
incorretas ou para fins maliciosos. Elas podem ser usadas para uma variedade
de atividades ilegais, incluindo golpes, difamação, assédio e até mesmo para
influenciar eleições e mercados financeiros.
É de se entender que, na hipótese
de contas ou perfis falsos, o provedor se submete ao sistema do
“noticeandtakedown” (previsto no art. 21 do MCI) mesmo quando o conteúdo publicado
por terceiros for de natureza difamatória, injuriosa ou caluniosa.O provedor
do serviço digital ou controlador da plataforma deve ser responsabilizado se,
após notificação, não retirar de “forma diligente” o conteúdo de caráter
difamatório ou calunioso. Se o provedor, ao receber a notificação, exclui a
publicação realizada pelo utente da conta falsa, desaparece sua
responsabilidade em relação às consequências danosas que ela possa produzir.
O STF deveria ter estabelecido um
regime jurídico de reponsabilidade civil mais gravoso para as hipóteses de
contas e perfis falsos. Deveria ter imputado um esquema de responsabilidade
solidária ou subsidiária para o provedor, para esses casos. É que quase
sempre não se descobre a verdadeira identidade do usuário do sistema
informatizado que criou a conta ou perfil fake.
Assim, se não se responsabiliza o provedor, a vítima do dano fica sem
possibilidade de reparação, o que não se compatibiliza com a teoria da responsabilidade
civil, que se baseia na ideia do prejuízo para justificar a
reparação ao lesado. Alguém sempre deve reparar o prejuízo causado a outrem. Repugna
ao Direito a possibilidade de haver prejuízo sem a devida e correspondente compensação
patrimonial (responsabilização). Não se podendo identificar o ofensor direto,
aquele que torna a informação (conteúdo ilícito) pública, o controlador do
sistema informatizado utilizado para a difusão da informação deveria responder
pela reparação. Em suma, nos casos em que não se consegue alcançar o editor
direto da informação, como nas hipóteses das contas e perfis fakes, em que a identidade do verdadeiro
editor da informação permanece oculta, o provedor do serviço digital ou
controlador da plataforma deveria ser responsabilizado.
4.
Presunção de responsabilidade
Foi erigido por meio do enunciado 4 da tese de repercussão geral um regime de presunção
de responsabilidade, para certas situações em que o provedor tem um controle
maior (prévio) sobre o conteúdo ou faz o impulsionamento do material
informacional de forma automatizada, utilizando tecnologia específica para essa
tarefa. Ficou estabelecido que, quando se tratar de anúncios e
impulsionamentos pagos ou rede artificial de distribuição (por meio
de chatbots ou robôs), o provedor
responde pelo dano causado pelo conteúdo ilícito, ainda que não tenha sido
notificado[10].
A presunção de
responsabilidade civil ocorre quando a lei estabelece que, em determinadas
situações, a obrigação de indenizar (responsabilidade civil) é atribuída a
alguém sem que seja necessária a comprovação de culpa. Nesses casos, a lei presume a existência de
certos elementos da responsabilidade civil, como o dano e o nexo causal, ou até
mesmo a culpa, invertendo o ônus da prova. Os ministros do STF
entenderam de aplicar a presunção de responsabilidade em duas situações: anúncios
e impulsionamentos pagos e rede artificial de distribuição (por meio
de chatbots ou robôs). A culpa
do provedor, pelos danos causados pelo conteúdo impulsionado ou distribuído
dessas maneiras, é presumida. Nessas duas situações, o provedor tem que
indenizar a vítima (o lesado pelo conteúdo prejudicial ou ilícito), mas pode
comprovar que “atuou diligentemente e em tempo razoável para tornar
indisponível o conteúdo”, para se eximir de responsabilidade. Se o operador da
plataforma demonstra que “tomou as providências eficazes e tempestivas para
remoção do conteúdo quando devidamente alertado, evidenciando uma atuação
diligente conforme os padrões razoáveis esperados”, essa reação constitui causa
excludente da responsabilidade.
A lógica da
imposição desse regime um pouco mais gravoso (presunção de responsabilidade)
para as situações de anúncios pagos e distribuição de conteúdo por meio de
algoritmo de impulsionamento está na circunstância do prévio conhecimento
do conteúdo. Se o provedor contrata com alguém a divulgação de um anúncio
publicitário ou escolhe impulsionar certos conteúdos, é porque conhece
de antemão a natureza desses conteúdos. A concepção jurídica para
excluir a responsabilidade do provedor dos prejuízos causados por mensagens ou
postagens dos usuários é que em regra ele não tem conhecimento da
natureza nociva dos conteúdos. Só posteriormente, quando comunicado pela
vítima, fica ciente do material informacional difundido no interior de seu
sistema informatizado. Nas hipóteses de anúncio pago ou material impulsionado,
a percepção é que o provedor já tem contato prévio com o conteúdo, antes de
divulgá-lo ou impulsioná-lo. Assim, não se justifica quecontinue com isenção de
responsabilidade, pois tem conhecimento prévio do material informacional.
Ainda assim,o STF foi muito tímido ao estabelecer
somente uma “presunção de responsabilidade” que pode ser excluída simplesmente
se o provedor, após notificado, promove a remoção do conteúdo em prazo
breve. Deveria ter construído um regime de responsabilidade solidária
para as hipóteses de conteúdo patrocinado (pago) ou impulsionado pelo próprio
sistema (algoritmo ou sistema de distribuição) do controlador. Se o provedor, ao
contratar o anúncio pago (e receber dinheiro pela publicação) ou escolher impulsionar
determinada postagem, tem conhecimento prévio do conteúdo, deveria ser
responsabilizado como o próprio editor (difusor) da informação.Na mídia
tradicional, os editores da informaçãorespondem diretamente pelas consequências
que possam produzir. O diretor da publicação assume a responsabilidade pelo seu
conteúdo, porque, em razão do trabalho que empreende, está em condições de
controlar as informações.Como a decisão de publicar (ou não) uma informação
pertence ao editor, tratando-se de verdadeira faculdade, decorre daí que exerce
poder de controle sobre ela. Desse poder de controledecorre a responsabilidade
pela publicação de informações danosas. A pressuposição é de que, se decide
publicar alguma coisa, é porque tem conhecimento da natureza da informação
publicada. Por essa razão, responde solidariamente com o fornecedor da
informação.
O mesmo padrão
de um editor da informação deveria ser estendido aos provedores de
aplicações na Internet que recebem por anúncios publicados em seus sistemas ou
quando decidem pelo impulsionamento de certos conteúdos (ainda que de maneira
automatizada). Quando libera para publicação um anúncio pago ou impulsiona
(privilegia) determinado conteúdo (ainda que não receba vantagem financeira
pelo impulsionamento), o provedor tempoder de controle sobre a
informação (anúncio pago ou conteúdo impulsionado). Portanto, em casos de
anúncios pagos e conteúdos escolhidos para difusão impulsionada (privilegiada),
deveria haverresponsabilidade solidária entre a pessoa que paga o
anúncio (anunciante) e a que permite a publicação (o provedor) e recebe
dinheiro por isso. Da mesma forma, esse padrão de responsabilização deveria ser
adotado em todos os casos em que o provedor, para fins de monetização ou não,
impulsiona (e privilegia) determinados conteúdos dentro de seu sistema
informatizado, utilizando tecnologias de distribuição informacional.
5. Crimes graves
O STF estabeleceu um “dever de cuidado” para
os provedores em relação à circulação de conteúdos informacionais que
constituam crimes graves (Enunciado 5). Na lista do que considerou
“crimes graves”, a Corte incluiu: (a) condutas e atos antidemocráticos que se amoldem aos tipos previstos nos
artigos 296, parágrafo único, 359-L, 359-M, 359-N, 359-P e 359-R do Código
Penal; (b) crimes de terrorismo ou
preparatórios de terrorismo, tipificados pela Lei nº 13.260/2016; (c) crimes de
induzimento, instigação ou auxílio a
suicídio ou a automutilação, nos termos do art. 122 do Código Penal; (d)
incitação à discriminação em razão de
raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de
gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos
arts. 20, 20-A, 20-B e 20-C da Lei nº 7.716/1989; (e) crimes praticados contra a mulher em razão da condição do sexo
feminino, inclusive conteúdos que propagam ódio ou aversão às mulheres (Lei nº
11.340/06; Lei nº 10.446/02; Lei nº 14.192/21; CP, art. 141, § 3º; art. 146- A;
art. 147, § 1º; art. 147-A; e art. 147-B do CP); (f) crimes sexuais contra pessoas vulneráveis, pornografia infantil e
crimes graves contra crianças e adolescentes, nos termos dos arts. 217-A,
218, 218-A, 218-B e 218-C do Código Penal e dos arts. 240, 241-A, 241- C, 241-D
do Estatuto da Criança e do Adolescente; g) tráfico de pessoas (CP, art.
149-A).
Quanto a esse rol taxativo de conteúdos que
configuram de crimes graves, o
provedor tem uma obrigação geral de vigilância para evitar a “circulação
massiva” desse tipo de material informacional em seus sistemas informatizados. Nesse ponto, o STF parece ter atribuído para
os provedores, em relação a conteúdos com ilicitude acentuada ou visível
(crimes graves) o regime da “duediligence” (diligência devida), que exige que
realizemmonitoração de seus sistemas e adotemprovidências quando
necessário. Prevê a remoção proativa pelos provedores de conteúdos
nitidamente ilegais, para evitar que aconteça “falha sistêmica”[11]. Esta ocorre quando
deixam “de adotar adequadas medidas de prevenção ou remoção dos conteúdos
ilícitos” graves, “configurando violação ao dever de atuar de forma
responsável, transparente e cautelosa”[12].
A responsabilidade do provedor, quanto ao dever de vigilância
proativa em relação aos crimes graves
listados, somente se caracteriza na hipótese de “falha sistêmica”, não podendo
sofrer sanções diante da “existência de conteúdo ilícito de forma isolada,
atomizada”, situação que “não é, por si só, suficiente para ensejar a aplicação
da responsabilidade civil” por quebra do “dever de cuidado” na monitoração de
crimes graves[13].
A falha do “dever de cuidado” só se caracteriza diante de “circulação massiva”
de conteúdos definidos como crimes graves, não ensejando a responsabilidade do
provedor quando o aparecimento desses crimes ocorre em dimensão mínima, em uma
ou outra oportunidade. Todavia, ocorrendo caso isolado de circulação de
conteúdo informacional que configure crime
grave, uma vez o provedor notificado da existência desse material, deve
removê-lo sob pena de responder solidariamente com o editor direto da
informação (usuário do sistema ou plataforma)[14].
Tudo indica que o
STF tenha se inspirado, nesse ponto, no Digital
Services Act (DSA), a legislação europeia
que regula a responsabilidade dos provedores de conteúdo e serviços na
Internet. Foi esse o primeiro texto legislativo que, a fim de garantir que os
serviços digitais não sejam utilizados de forma abusiva para atividades
ilícitas e que os prestadores operam de forma responsável, criouobrigações
de “devida diligência” (duediligence) para os provedores. Foi o DSA europeu que, ao aumentar as
obrigações dos controladores de grandes plataformas, criou para eles obrigações
de devida vigilânciaem relação a conteúdos nitidamente ilícitos, atribuindo-lhes
a gestão dos riscos de funcionamento, para evitar o “risco sistêmico”[15].
Provavelmente, essa nova obrigação de monitoração de
conteúdos que configurem crimes graves,
tal qual instituída agora pelo STF, não terá efetividade imediata no Brasil. A
Corte não indicou os órgãos que ficariam encarregados da fiscalização da gestão
do “risco sistêmico” das grandes plataformas e provedores de serviços
digitais.Para reforçar a garantia de aplicação do regulamentoe observância das
obrigações (de devida diligência) pelos provedores, o DSA europeu criouos coordenadores
dos serviços digitais (digital servicescoordinators),
que são as principais autoridades nacionais designadas pelos Estados-Membros da
UE para reforçar a aplicação do regulamento (artigo 38.º), bem como instituiu o
Comitê Europeu dos Serviços Digitais,
um grupo consultivo independente de coordenadores dos serviços digitais (art.
47.º). Os coordenadores dos serviços digitais auxiliam a Comissão Europeia (braço executivo da UE)
a fiscalizar e fazer cumprir as normas da Lei
de Serviços Digitais (DSA). A gestão dos riscos de funcionamento das grandes
plataformas é supervionada por órgãos do Estado, que atuam na fiscalização
da gestão do risco sistêmico. Autoridades e agentes estatais ficam
encarregados da inspeção e auditoria de sistemas de moderação de conteúdos,
sistemas de recomendação e publicidade das grandes plataformas, de forma a
evitar a ocorrência de falhas sistêmicas.
Sem a criação no Brasil, à semelhança do que ocorreu
na União Europeia, de uma estrutura de órgãos encarregados de fiscalizar a
gestão do “risco sistêmico” das grandes plataformas, é pouco provável que a
instituição do dever de vigilância de conteúdos que configurem as
práticas de crimes graves tenha
alguma efetividade. A simples criação de obrigações de “devida vigilância” para
os provedores de serviços digitais, sem a instituição de um arcabouço de órgãos
estatais de supervisão, para garantir a observância desses novos deveres, pode
resultar desprovida de aplicabilidade concreta.
Outro ponto que
precisa ser alertado é que a tese de repercussão
geral do STF não diferencia os serviços e plataformas digitais de acordo
com o tamanho. Parece que a obrigação de monitoração e vigilância de conteúdos
que configurem crimes graves foi
estabelecida indistintamente para todos os prestadores de serviços digitais e
controladores de plataformas digitais, independentemente do porte ou natureza.
A atribuição dessa obrigação de maneira indistinta pode dificultar o
desenvolvimento de pequenas e médias empresas que prestem serviços na internet.
O DSA europeu só estabelece esse tipo de obrigação, de maneira a evitar o
chamado “risco sistêmico”, para as plataformas digitais de grande dimensão (verylargeonline platforms)[16].
Outro ponto desnecessárioestá presente no enunciado
5.5 da tese de repercussão geral. Esse item prevê que quando o provedor realiza
por sua própria iniciativa – já que tem a obrigação de vigilância em relação a
crimes graves - a remoção de conteúdo que lhe pareça nitidamente ilegal,
nasce para a pessoa que fez a publicação (usuário da plataforma) o direito de
requerer judicialmente o restabelecimento do material informacional removido,
desde que demonstre ausência de ilicitude[17].
Atribuir direito aos usuários das plataformas digitais
(redes sociais) de contestar e eventualmente ter a informação republicada
elimina ou ao menos diminui sensivelmente o poder editorial dos
provedores e, consequentemente, a responsabilidade pelas consequências do
conteúdo postado. Com efeito, os usuários passam a ter o direito de recorrer à
Justiça para recolocar conteúdo removido, mas não para responsabilizar o
provedor pela decisão tomada durante o processo de moderação de conteúdo.
Tanto é assim que a parte final (do enunciado 5.5) da tese de repercussão geral
estabelece que “ainda que o conteúdo seja restaurado por ordem judicial, não
haverá imposição de indenização ao provedor”. O usuário passa a ter o direito
de contestar a decisão tomada pelo provedor na atividade de moderação de
conteúdo e recorrer a órgãos judiciais para impugnar a decisão. Ao invés de flexibilizar
a imunidade legal dos provedores dos serviços de hospedagem de conteúdo,
a tese com repercussão geral terminou reforçando essa imunidade, ao “estatizar”
a atividade de moderação de conteúdos.
É errada a visão de que a atividade de moderação de
conteúdos desenvolvida pelos provedores pode limitar ou cercear a liberdade de
expressão (freedomofexpression) dos
usuários. Não existe esse potencial conflito, pela simples razão de que os
usuários (editores direto da informação) não têm direito de publicar o que
quiserem, já que as plataformas são sistemas informatizados privados, e a
relação entre eles e o controlador (proprietário) é regulada pelas normas de um
contrato (termos de uso) privado.
Redes sociais, sistemas de edição de conteúdo instantâneo,não
são espaços públicos, à semelhança de uma rua ou praça pública, onde
qualquer um pode ter acesso e se expressar livremente, sem qualquer tipo de
limitação quanto ao conteúdo de suas manifestações. São sistemas informatizados
privados, gerenciados por empresas privadas, que coletam, analisam e monetizam
os dados das pessoas e outras informações que circulam no interior de seus
domínios digitais. O Poder Público não tem nada que interferir na atividade demoderação
de conteúdosdesempenhada pelos controladores de plataformas de serviços
on-line, que hospedam conteúdo editado por terceiros (usuários do sistema).
É verdade
que algumas dessas estruturas de comunicação digital adquiriram domínio dos
mercados onde atuam, mas isso não as transforma em “espaços públicos”. O
problema do monopólio que grandes empresas de tecnologia exercem sobre
determinados setores de serviços na rede mundial de comunicação pode ser
combatido de outras formas[18].
6.
Provedores de serviços de e-mail, mensageria e videoconferência
No
enunciado 6 da tese de repercussão geral,
o STF resolver atribuir a imunidade prevista no art. 19 do MCI a
provedores de serviços e aplicativos específicos: a) de transmissão de arquivos
e mensagens ("eletronic-mail");
b) aplicativo de mensagens instantâneas(serviços de mensageria); e c)
aplicativos que permitem a realização de reuniões fechadas por vídeos ou voz[19].
Os aplicativos e serviços de email permitem
o envio, recebimento e gerenciamento de mensagens eletrônicas. São
ferramentas essenciais para a comunicação, tanto pessoal quanto profissional,
oferecendo funcionalidades como organização de mensagens, anexos, listas de
contatos e, em alguns casos, calendários e outras ferramentas de colaboração (por
exemplo, o Gmail, o Outlook e o Yahoo!). Os sistemas e aplicativos de mensageria atuam como
intermediários que facilitam a transferência instantânea de mensagens de texto entredois
ou mais usuários, facilitando comunicação
imediata e fluida. Além do envio de texto, muitos sistemas oferecem
recursos como compartilhamento de arquivos, chamadas de áudio e vídeo e
integração com outras plataformas (por exemplo, o WhatsApp e o Telegram).
Serviços e aplicativos para videoconferência são aqueles que permitem a
realização de reuniões fechadas por vídeo ou voz. A maioria das ferramentas
disponibilizadas no mercado oferece também recursos de gravação e transcrição
de reuniões e permitem que os participantes compartilhem suas telas para apresentar
documentos, slides ou outras informações (por exemplo, o Zoom, o Google Meet eoMicrosoft Teams).
Desde
muito,a doutrina e jurisprudência estrangeira já isentavamde responsabilidade
os intermediários da comunicação eletrônica que se limitam a prestar serviços
de transmissão de mensagens. Reconhece-se que o provedor desses serviços
atua como um mero condutopara o tráfego da informação, em situação
equivalente à da companhia telefônica. Na transmissão de mensagens eletrônicas
o provedor comercial não exercita controle editorial e, portanto, não
pode ser responsabilizado como se editor fosse de potenciais mensagens
difamatórias ou conteúdos ilícitos. O
provedor assume uma posição de passividade nessas situações, não podendo ser
compelido a vistoriar o conteúdo de mensagens em cuja transmissão não tem
participação nem possibilidade alguma de controle.O sistema eletrônico
de comunicação serve apenas de conduto para o transporte da informação de uma
caixa postal (eletrônica) para outra, funcionando como mero transportador
das informações.
Os
transportadores de informações, a exemplo das empresas telefônicas, jamais
foram responsabilizados pelo conteúdo proveniente de terceiros que circula em
suas linhas. Idealmente falando, é a pessoa do remetente que transmite a
mensagem e é ela a responsável pelo conteúdo. As linhas de transmissão da
empresa servem apenas de conduto para essa operação. Sem possibilidade
de controle do conteúdo das mensagens circulantes em seu sistema, a
responsabilidade do provedor somente pode surgir a partir do momento em que tome
conhecimento do caráter danoso da informação (se não adota nenhuma iniciativa
para fazer cessar a propagação do ilícito).
O STF entendeu de consagrar esse tipo de concepção
jurídica no enunciado 6 da tese de repercussão
geral, não só para os provedores de serviços de e-mail, mas também para os
serviços e aplicativos de mensageria e videoconferência. É razoável estender o
mesmo tratamento dado aos provedores de serviços de gerenciamento de e-mails
aos prestadores de serviços de mensageria e videoconferência, por se
encontrarem estes em posição análoga àqueles primeiros. Os provedores de serviços
de mensageria e videoconferência, a exemplo do serviço de gerenciamento de e-mails, podem ser entendidos como meros
transportadores da informação, sendo seus sistemas utilizados como
simples condutopara a comunicação eletrônica entre os usuários. Não têm,
em princípio, controle efetivo sobre o conteúdo das mensagens, vídeos e
imagens que circulam em seus sistemas.
A única falha na tese jurídica erigida pelo STF, nesse
ponto, foi conferir aos provedores desses serviços uma imunização
completa, ao estabelecer para eles o regime do ainda sobrevivente art. 19 do
MCI.Embora se conceba que os provedores desses serviços de comunicação
eletrônica (serviços de e-mail, mensageria e videoconferência) não têm, em princípio,
controle da informação que os usuários transmitem em seus sistemas, a
responsabilidade dessa categoria de prestadores de serviços digitais pode
surgir a partir do momento em que, alertados pelo interessado, tomamconhecimento
do caráter danoso de uma tal informação e não adotam nenhuma iniciativa para
fazer cessar a propagação do ilícito.
7. Marketplaces
Marketplace é uma plataforma on-line que reúne diversos vendedores (lojas ou
indivíduos) em um único local, permitindo que os compradores encontrem e
comparem produtos de diferentes fornecedores. É como um shopping center virtual, onde cada loja
é um vendedor diferente.Não atuam na transmissão, arquivamento ou hospedagem da
informação (conteúdos), mas como locais ou subespaços on-line para o comércio
eletrônico de produtos (em sua maioria físicos).
Por isso, o STF estabeleceu um regime jurídico diferenciado
para essa categoria de prestadores de serviços on-line. Como participam da
cadeia de fornecimento de produtos, para eles ficou estabelecido que se
submetem às normas do CDC[20].Em regra, marketplaces
não atuam como transportadores ou hospedeiros da informação, não são
desenhados precipuamente para servir como ferramenta para envio de mensagens ou
publicação de comentários pelos usuários. Mas fica a ressalva de que, se o
controlador demarketplace fornece, em
algum subespaço da plataforma, serviço para publicação de conteúdo
informacional diretamente pelos usuários, aí nessa situação o esquema jurídico
de responsabilidade civil aplicável será um daqueles outrosque foram elaborados
na tese de repercussão geral, a depender do conteúdo publicado.
8. Obrigações
adicionais
Nos enunciados 8 a 11 são criadas obrigações
adicionais para os controladores de plataformas e prestadores de serviços
digitais. O STF traçou um conjunto de “obrigações gerais” que se aplicam a todo
prestador de serviço na internet, notadamente no que se refere a deveres de
“transparência” e mecanismos de “supervisão” da atividade dos provedores de
serviços on-line. As obrigações não foram repartidas entre os diversos prestadores
de serviços on-line, mas estabelecidas como obrigações gerais para
qualquer provedor, independentemente do tamanho e da natureza dos serviços que
preste. Como a complexidade da arquitetura da rede mundial de comunicação hoje
permite o aparecimento de serviços digitais variados,seria de esperar que o STF
estabelecesse obrigações específicas para certos conjuntos de prestadores de
serviços on-line, mas, da leitura dos enunciados, fica claro não haver
distinção em relação a qualquer espécie de provedor ou controlador de sistema
informatizado (plataforma); as obrigações adicionais se aplicam a todos,
indistintamente.
O sistema de “responsabilidade limitada” dos
provedores de serviços on-line foi complementado com obrigações relacionadas
essencialmente à atividade de moderação de conteúdo e funcionamento dos
algoritmos de direcionamento da informação e publicidade. Como obrigações
gerais adicionais, estão previstas para todos os prestadores de serviços
digitais:
a) o dever de editarem
normas de auto-regulação que disciplinem sistemas de notificações, devido
processo e obrigação de apresentarrelatórios de transparência relativos
a notificações extrajudiciais, anúncios e impulsionamentos[21];
b) a obrigação de
disponibilizar a usuários e a não usuários canais específicos de atendimento,
preferencialmente eletrônicos, acessíveis e amplamente divulgados nas
plataformas de maneira permanente[22];
c) a obrigação de constituir
e manter sede e representante no país, cuja identificação e
informações para contato deverão ser disponibilizadas e estar facilmente
acessíveis nos respectivos sítios. O representante do provedor que atue no
Brasil deve ser necessariamente pessoa jurídica, com poderes para: (i)
responder perante as esferas administrativa e judicial; (ii) prestar às
autoridades competentes informações relativas ao funcionamento do provedor, às
regras e aos procedimentos utilizados para moderação de conteúdo e para gestão
das reclamações pelos sistemas internos; aos relatórios de transparência,
monitoramento e gestão dos riscos sistêmicos; às regras para o perfilamento de
usuários (quando for o caso), à veiculação de publicidade e ao impulsionamento
remunerado de conteúdos; (iii) cumprir as determinações judiciais; (iv)
responder e cumprir sanções, multas e afetações financeiras em que o
representado incorrer, especialmente por descumprimento de obrigações legais e
judiciais[23].
10.
Conclusão:
Para os
prestadores de serviços na internet, por serem intermediários da
comunicação eletrônica, se convencionou estabelecer um sistema de
“responsabilidade limitada” em razão da concepção de que o provedor não tem "obrigação geral de
vigilância" sobre as informações que os usuários do sistema transmitem ou
armazenam, nem uma "obrigação geral de procurar ativamente fatos ou
circunstâncias que indiquem ilicitudes". Simplesmente atua provendo a infra-estrutura
técnica para transmissão ou hospedagem da informação, atividade que não
acarreta uma coobrigação de controle de conteúdo, de zoneamento visando à
exclusão de informação ou material ilícito.Prevaleceu um princípio geral de irresponsabilidade
do provedor por material ilícito, depositado pelos usuários ou que de qualquer
forma transita em seu sistema informático.
Essa concepção se formou e se
consolidou há quase três décadas, quando a internet tinha arquitetura
completamente diferente. Naquela época (na primeira metade dos anos 1990),
quando o canal gráfico da internet (a web)
começou a se popularizar e começaram a aparecer os serviços (aplicações) que
permitiam a transmissão de mensagens e postagens pelos próprios usuários, havia
uma preocupação de não sobrecarregar os provedores de serviços no nascente
“cyberspace”. Apregoava-se que uma responsabilização mais pesada poderia causar
um “chillingeffect” nas embrionárias tecnologias da informação, em prejuízo da
inovação. As empresas que iniciavam seus negócios por meios eletrônicos eram
ainda poucas e pequenas. O ciberespaço era um ambiente para amadores, onde os
sites mais visitados eram gerenciados por adolescentes. Havia ainda um forte
discurso libertário, defendendo o “ciberespaço” como um mundo paralelo, onde os
estados-nação não teriam como impor suas leis, que deveria ser um ambiente
completamente livre da “tirania dos governos”.
Com o crescimento do “comércio
eletrônico”, essa realidade mudou completamente. O capitalismo floresceu nesses
novos espaços, com as corporações empresariais se estabelecendo e impondo seus
interesses. Mas o crescimento se deu de forma assimétrica, surgindo as grandes empresas
de tecnologia, que dominam vastos nacos do ciberespaçoe do comércio eletrônico.
O discurso dos libertários e crentes em um mundo sem regras, sem as “amarras do
poder estatal”, onde as pessoas poderiam desfrutar de um ambiente de completa
liberdade, para se expressarem da maneira que quisessem, terminou favorecendo o
surgimento dos monopólios digitais. Esse ambiente sem regras mais
rígidas (para a responsabilização dos provedores) e o discurso libertário também
contribuiu para o aumento da criminalidade na rede mundial de
comunicação. Essa também foi a causa do surgimento do problema da desinformação
(fakenews), a disseminação
de conteúdos e informações falsas em plataformas e aplicações na internet,
ameaçando a regularidade de eleições e o próprio regime democrático.
Com essa nova configuração da
rede e o domínio da economia digital por poucas e grandes corporações (as
chamadas Big Techs), nos últimos anos
se intensificou a discussão sobre a necessidade de impor maiores obrigações
para os provedores de aplicações na internet, com a revisão e atualização do
quadro regulatório. A maioria dos países havia adotado o “knowledge regime”,
que estabelece a responsabilização do provedor apenas quando tenha conhecimento
do conteúdo prejudicial ou ilícito e não tome providências. Aos poucos se formou
um entendimento pela necessidade de adotar obrigações adicionais, imputando dever
de vigilância quando se tratar de conteúdos visivelmente ilícitos e
altamente nocivos para os direitos fundamentais das pessoas e para os valores e
princípios democráticos. Nos EUA se acendeu o debate sobre a necessidade de
flexibilizar a imunidade conferida aos provedores pelaSection 230 da Lei de Decência nas Comunicações(Communications DecencyAct)[24]. Na
União Europeia se iniciaram as discussões para a reforma daDiretiva sobre comércio eletrônico (Diretiva
31/2000/CE)[25],
que terminou sendo substituída pelo DSA (Digital
Services Act).
No Brasil,trilhamos caminho
inverso. A jurisprudência do STJ já tinha assentado a obrigação do provedor de,
uma vez notificado, realizar a remoção do conteúdo prejudicial ou ilícito em 24
horas, sob pena de responsabilização solidária com o
responsável pela publicação. Já tínhamos construído, pela via jurisprudencial,
um modelo do “regime do conhecimento” (knowledge
regime) para responsabilizar os provedores de aplicações na Internet. Mas
em abril de 2014 foi aprovada a Lei 12.965, que ficou conhecida como o “Marco
Civil da Internet”.
Embora o Marco Civil da Internet
(MCI) tenha trazido alguns avanços, criando regras para proteção de dados
pessoais e erigindo princípios em defesa da privacidade, o seu art. 19 conferiu
uma completa imunização aos provedores, isentando-os de qualquer
responsabilidade por conteúdos danosos e ilícitos que transitam em seus
sistemas. Livrou os prestadores de serviços na internet de qualquer obrigação
de moderação de conteúdos e definiu que ficavam só obrigados a cumprir ordem
judicial. Eliminou qualquer dever de moderação para os provedores, pois
cumprir ordem judicial já é obrigação de qualquer pessoa, física ou jurídica.
Com isso, se criou uma imunização completa para os provedores, que ficaram sem responsabilidade
editorial (ainda que postergada) e desobrigados de adotar qualquer
iniciativa de combate a conteúdos ilícitos.
O STF perdeu a oportunidade de
aniquilar o art. 19 do MCI, que continua a ser adotado para certas situações. Foi
louvável o esforço e dedicação dos ministros, conduzidos pelo Presidente da
Corte, na tentativa de fornecer, por via da tese de repercussão geral, um quadro regulatório provisório,
enquanto o Congresso Nacional não elabora leis mais abrangentes sobre o
assunto. Mas deixar sobreviver, ainda que parcialmente, o dispositivo
questionado não atende às necessidades dos tempos atuais. O STF deveria pelo
menos ter estabelecido como pedra de toque fundamental, para o balizamento de
responsabilidades dos provedores, o regime do conhecimento (knowledge regime) para todas as
hipóteses de difusão de conteúdos danosos, com o acréscimo de obrigações de
vigilância para conteúdos visivelmente ilícitos (crimes graves).Isso pelo
menos colocaria o regime jurídico brasileiro em pé de igualdade com o DSA europeu.As grandes empresas de
tecnologia já utilizam ferramentas de inteligência artificial para análise de
conteúdos e não seria irrazoável atribuir-lhes um dever de vigilância mais
rígido.
A Corte
Suprema também poderia ter depurado as obrigações conforme o tamanho e natureza
do provedor, impondo mais rigor nos deveres das grandes plataformas digitais,
em reconhecimento à assimetria do poder das grandes corporações em relação às
pequenas e médias empresas que prestam serviços na internet. O STF terminou
conferindo a mesma carga de obrigações às grandes empresas de tecnologia e aos
pequenos provedores. Esse ponto poderá ser aperfeiçoado na futura legislação
que vier a tratar do tema.
Recife, 29 de junho de 2025.
[1]A questão foi debatida no RE 1.037.396-SP, tema 987 da
repercussão geral, e no RE 1.057.258-MG, tema 533 da
repercussão geral, relatado pelo Min.
Luiz Fux.
[2] O art. 19 do MCI tem a seguinte
redação:
“Art. 19. Com o intuito de assegurar a liberdade de expressão e
impedir a censura, o provedor de aplicações de internet somente poderá ser
responsabilizado civilmente por danos decorrentes de conteúdo gerado por
terceiros se, após ordem judicial específica, não tomar as providências para,
no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado,
tornar indisponível o conteúdo apontado como infringente, ressalvadas as
disposições legais em contrário.”
[3] O art. 21 do MCI tem a
seguinte redação:
“Art. 21. O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.”
[4]Essa reunião foinecessária, porque o julgamento foi por maioria de votos e mesmo entre os ministros que votaram pela inconstitucionalidade do art. 19 do MCI houve divergências quanto aos fundamentos dos votos. Dentro do grupo majoritário que votou pela inconstitucionalidade, alguns enxergaram apenas inconstitucionalidade parcial, enquanto outros entenderam pela inconstitucionalidade integral do dispositivo. Uma minoria votou pela constitucionalidade. Oito ministros declararam o artigo 19 parcial ou totalmente inconstitucional. Foram eles: Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flávio Dino, Cristiano Zanin, Gilmar Mendes, Alexandre de Moraes e Cármen Lúcia. Os ministros André Mendonça, Edson Fachin e Nunes Marques votaram pela validade do artigo 19 e não endossaram a nova tese.
[5]Confira a íntegra das teses de repercussão
geral no seguinte link: https://noticias-stf-wp-prd.s3.sa-east-1.amazonaws.com/wp-content/uploads/wpallimport/uploads/2025/06/26205223/MCI_tesesconsensuadas.pdf
[6]O enunciado 12 da tese de repercussão geral estabelece que “não haverá responsabilidade objetiva na aplicação da tese aqui enunciada”.
[7] Conforme a redação do enunciado 14 da tese
da repercussão geral:
“14. Para preservar a segurança
jurídica, ficam modulados os efeitos da presente decisão, que somente se
aplicará prospectivamente, ressalvadas decisões transitadas em julgado.”
[8]É o que está expresso no enunciado 3.1 da
tese de repercussão geral, nestes
termos:
“3.1. Nas hipóteses de crime contra a honra
aplica-se o art. 19 do MCI, sem prejuízo da possibilidade de remoção por
notificação extrajudicial.”
[9]É o que está expresso no enunciado 3.2 da
tese de repercussão geral, nestes
termos:
“3.2. Em se tratando de sucessivas replicações
do fato ofensivo já reconhecido por decisão judicial, todos os provedores de
redes sociais deverão remover as publicações com idênticos conteúdos,
independentemente de novas decisões judiciais, a partir de notificação judicial
ou extrajudicial.”
[10]O enunciado 4 da tese de repercussão geral
tem a seguinte redação:
“4. Fica estabelecida a
presunção de responsabilidade dos provedores em caso de conteúdos ilícitos
quando se tratar de (a) anúncios e impulsionamentos pagos; ou (b) rede
artificial de distribuição (chatbot ou robôs). Nestas hipóteses, a
responsabilização poderá se dar independentemente de notificação. Os provedores
ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente
e em tempo razoável para tornar indisponível o conteúdo.“
[11]Conforme Enunciado 5.1:
“5.1 A responsabilidade dos provedores de
aplicações de internet prevista neste item diz respeito à configuração de falha
sistêmica.”
[12]Conforme Enunciado 5.2:
“5.2 Considera-se falha sistêmica, imputável
ao provedor de aplicações de internet, deixar de adotar adequadas medidas de
prevenção ou remoção dos conteúdos ilícitos anteriormente listados,
configurando violação ao dever de atuar de forma responsável, transparente e
cautelosa.”
[13]Conforme Enunciado 5.4, de seguinte redação:
“5.4. A existência de conteúdo ilícito de
forma isolada, atomizada, não é, por si só, suficiente para ensejar a aplicação
da responsabilidade civil do presente item. Contudo, nesta hipótese, incidirá o
regime de responsabilidade previsto no art. 21 do MCI.”
[14]É o que está estabelecido no Enunciado no 5.4 da tese de repercussão geral: “ A existência de conteúdo ilícito de forma isolada, atomizada, não é, por si só, suficiente para ensejar a aplicação da responsabilidade civil do presente item. Contudo, nesta hipótese, incidirá o regime de responsabilidade previsto no art. 21 do MCI.”
[15] Para saber mais sobre o Digital Services Act (DSA), sugerimos a leitura do nosso artigo“O Digital Services Act (1ª.
parte) – A proposta legislativa europeia mantém a imunidade legal dos
provedores de serviços na internet”, publicado no site Jus, em 05.03.22, acessível em: https://jus.com.br/artigos/96199/o-digital-services-act-1-parte-a-proposta-legislativa-europeia-mantem-a-imunidade-legal-dos-provedores-de-servicos-na-internet
[16]O DSA classifica como verylarge online platforms (ou VLOPs) aquelas que têm mais de 45 milhões de usuários por mês na União Europeia.
[17] Conforme estabelece o
enunciado 5.5 da tese de repercussão geral:
“5.5. Nas hipóteses
previstas neste item, o responsável pela publicação do conteúdo removido pelo
provedor de aplicações de internet poderá requerer judicialmente o seu
restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o
conteúdo seja restaurado por ordem judicial, não haverá imposição de
indenização ao provedor.“
[18]Com a atualização das leis que regulam a competição na economia, para criar mecanismos legais que equilibrem a competição no âmbito das redes digitais, por exemplo. Esse inclusive é o objeto de outro texto aprovado pela UE, o Digital MarketsAct (DMA).
[19]A redação do enunciado 6 da
tese de repercussão geral é a seguinte:
“6. Aplica-se o art. 19 do
MCI ao (a) provedor de serviços de e-mail; (b) provedor de aplicações cuja
finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz;
(c) provedor de serviços de mensageria instantânea (também chamadas de
provedores de serviços de mensageria privada), exclusivamente no que diz respeito
às comunicações interpessoais, resguardadas pelo sigilo das comunicações (art.
5º, inciso XII, da CF/88).“
[20]A redação do enunciado 7 da
tese de repercussão geral é a seguinte:
“7. Os provedores de
aplicações de internet que funcionarem como marketplaces respondem civilmente
de acordo com o Código de Defesa do Consumidor (Lei nº 8.078/90).”
[21]É o que está previsto no enunciado 8 da tese de repercussão geral:
“8. Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.“
[22] É o
que está previsto no enunciado 9 da tese de repercussão geral:
“9. Deverão, igualmente, disponibilizar
a usuários e a não usuários canais específicos de atendimento,
preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas
respectivas plataformas de maneira permanente.“
[23] O enunciado 11 da tese de
repercussão geral tem a seguinte redação:
“11. Os provedores de
aplicações de internet com atuação no Brasil devem constituir e manter sede e
representante no país, cuja identificação e informações para contato deverão
ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios. Essa
representação deve conferir ao representante, necessariamente pessoa jurídica
com sede no país, plenos poderes para (a) responder perante as
esferasadministrativa e judicial; (b) prestar às autoridades competentes
informações relativas aofuncionamento do provedor,às regras e aos procedimentos
utilizados para moderação de conteúdo e para gestão das reclamações pelos
sistemas internos; aos relatórios de transparência, monitoramento e gestão dos
riscos sistêmicos; às regras para o perfilamento de usuários (quando for o
caso), a veiculação de publicidade e o impulsionamento remunerado de conteúdos;
(c) cumprir as determinações judiciais; e (d) responder e cumprir eventuais
penalizações, multas e afetações financeiras em que o representado incorrer,
especialmente por descumprimento de obrigações legais e judiciais.”
[24]ASection 230do CommunicationsDecencyAct, lei aprovada em1996 pelo Congresso dos EUA, criou uma espécie de porto seguro(safe harbor) para os provedores de serviços na internet, isentando-os de responsabilidade por conteúdo produzido pelos usuários de suas plataformas.Uma vez comunicados do teor da publicação, os provedores devem remover o conteúdo danoso, sob pena de responsabilização.
[25]A Diretiva (UE) 2000/31/CE,
conhecida como Diretiva do Comércio Eletrônico, também previa como princípio
geral a não responsabilização do provedor por conteúdo produzido pelos
usuários, mas com a ressalva de que, tomando conhecimento do conteúdo danoso ou
ilícito, deveria removê-lo. Foi substituída pela Lei dos Serviços Digitais
(DSA).