artigo

STF redefine o papel das big techs

O desafio, portanto, será construir um ambiente regulatório capaz de coibir a desinformação sem sufocar a inovação

Publicidade
Carregando...

O Supremo Tribunal Federal (STF), ao julgar conjuntamente os temas 987 e 533 da repercussão geral, declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, fixando um novo paradigma para a responsabilização civil das plataformas digitais no Brasil. O caso que serviu de base para esse julgamento envolveu uma ação movida por uma candidata a vereadora nas eleições de 2016 contra uma rede social e um portal de notícias, em razão de publicações impulsionadas que continham conteúdo difamatório e foram veiculadas por meio de robôs e perfis falsos. A discussão chegou ao STF a partir da controvérsia sobre a necessidade de ordem judicial prévia para a remoção e sobre a extensão da responsabilidade das plataformas quando há uso de sistemas automatizados.


O ponto mais disruptivo da tese firmada pelo Supremo foi a previsão de responsabilidade direta das plataformas por conteúdos ilícitos disseminados por anúncios pagos, chatbots, robôs e demais “redes artificiais de distribuição”. No item 4 da tese, fixou-se a presunção de responsabilidade nessas hipóteses, mesmo sem notificação prévia, salvo se a empresa comprovar atuação diligente e tempestiva para tornar o material indisponível. A Corte deixou claro que, quando o conteúdo é fruto de ações automatizadas geradas pela própria infraestrutura tecnológica da plataforma, seja por inteligência artificial, impulsionamento algorítmico ou recomendação automatizada, não se trata de mera manifestação de um terceiro, mas de um ato imputável à própria empresa.


Essa mudança rompe com o modelo anterior, que condicionava a responsabilização à inércia após ordem judicial ou notificação formal, e coloca o Brasil na vanguarda de um debate global: até onde vai a liberdade das plataformas para intermediar interações e até onde elas devem responder por aquilo que o seu próprio sistema gera, amplifica ou mantém no ar? A decisão pretende enfrentar um problema urgente: a proliferação massiva e automatizada de desinformação, sobretudo em períodos eleitorais ou em contextos de saúde pública, como se viu na pandemia.


Por outro lado, a nova orientação traz preocupações legítimas. A falta de precisão nos termos “chatbot” e “rede artificial de distribuição” pode gerar insegurança jurídica e abarcar ferramentas legítimas de automação, como atendimento virtual ou sistemas de recomendação não vinculados à promoção de conteúdos ilícitos. Sem critérios claros, há o risco de que a presunção de responsabilidade se torne um fardo desproporcional, inibindo inovações tecnológicas e levando as empresas a práticas excessivamente restritivas de moderação para evitar litígios.


O STF também reforçou a necessidade de políticas transparentes de moderação: remoções devem ser precedidas de notificação clara, fundamentação objetiva e disponibilização de meios eficazes de contestação, assegurando aos usuários um devido processo digital. Trata-se de um avanço importante no equilíbrio entre a luta contra abusos e a preservação da liberdade de expressão, embora sua implementação dependa de um desenho procedimental que ainda carece de regulamentação legislativa.


Até que o Congresso Nacional edite uma lei específica sobre responsabilidade digital e inteligência artificial, a decisão do Supremo consolida uma moldura jurídica de maior responsabilidade para as big techs e seus sistemas automatizados. O recado é claro. Não basta alegar neutralidade tecnológica quando a própria arquitetura da plataforma participa ativamente da criação ou difusão de conteúdos ilícitos. Ao mesmo tempo, será fundamental que os tribunais, ao aplicar essa nova diretriz, consigam diferenciar o mau uso de automação para fins ilícitos das aplicações legítimas que compõem o cotidiano digital.


O desafio, portanto, será construir um ambiente regulatório capaz de coibir a desinformação sem sufocar a inovação. Como advogado, vejo na decisão uma oportunidade de amadurecer o debate sobre responsabilidade digital, mas também um alerta: a aplicação apressada ou ampla demais desse entendimento pode ter efeitos colaterais graves sobre a economia digital e sobre a própria liberdade de expressão. O caso que motivou esse julgamento mostra como a tecnologia pode potencializar danos quando usada de forma abusiva, mas também nos lembra que o direito precisa agir com precisão cirúrgica para não punir o que, em essência, é legítimo e benéfico para a sociedade.

RAFAEL CIARALO

Advogado

Tópicos relacionados:

big-techs

Acesse o Clube do Assinante

Clique aqui para finalizar a ativação.

Acesse sua conta

Se você já possui cadastro no Estado de Minas, informe e-mail/matrícula e senha. Se ainda não tem,

Informe seus dados para criar uma conta:

Digite seu e-mail da conta para enviarmos os passos para a recuperação de senha:

Faça a sua assinatura

Estado de Minas

Estado de Minas

de R$ 9,90 por apenas

R$ 1,90

nos 2 primeiros meses

Aproveite o melhor do Estado de Minas: conteúdos exclusivos, colunistas renomados e muitos benefícios para você

Assine agora
overflay