Necessária Contextualização
A tecnologia deve servir à sociedade – esse é um ponto sobre o qual acredita-se haver consenso. Nesse contexto, um dos fenômenos que tem adquirido notoriedade é o uso de programas de inteligência artificial para fins variados. Há quem os utilize para atividades de lazer e há quem deles faça uso profissional.
No Brasil, a questão da responsabilidade nos ambientes digitais é atualmente regida pelo Marco Civil da Internet (Lei nº 12.965/2.014) e pela Lei Geral de Proteção de Dados (Lei nº 13.709/2.018).
Com a entrada em vigor desses dois diplomas normativos, foram suscitadas uma série de discussões e críticas por parte da doutrina. Isso porque, previamente ao ingresso dessas normas jurídicas no ordenamento pátrio, o Poder Judiciário, para decidir questões relativas a relações travadas no ambiente digital se pautava no princípio da reparação do dano e na apuração de nexo de causalidade, com fundamento no art. 927 do Código Civil.
Dessa forma, havia recorrência, por exemplo, de decisões atendendo a pedidos de liminares para fins de remoção de determinados conteúdos da Internet pelos mais variados motivos, notadamente em casos em que os promoventes das ações judiciais negavam a autoria ou reputavam que a divulgação não havia sido por eles autorizada.
Após a entrada em vigor do Marco Civil da Internet, sobretudo em razão do disposto em seu art. 19, o Poder Judiciário – destacando-se aqui o Superior Tribunal de Justiça – passou a interpretar os pedidos de remoção de conteúdo com mais parcimônia, exigindo-se “entre os requisitos de validade da ordem judicial para a retirada de conteúdo infringente, a ‘identificação clara e específica do conteúdo’, sob pena de nulidade, sendo necessário, portanto, a indicação do localizador URL” (como foi decidido pela Quarta Turma do Superior Tribunal de Justiça no julgamento do AgInt nos EDcl no AgInt no REsp nº 1.862.739/RJ, de relatoria da Ministra Maria Isabel Gallotti e pela Terceira Turma do mesmo Órgão no julgamento do REsp 1.698.647/SP, de relatoria da Ministra Nancy Andrighi).
Essa maior criteriosidade, quando criticada por parte da doutrina, assim o tem sido em razão de, supostamente, gerar algum grau de morosidade no cumprimento das decisões judiciais. Isto é, primeiro é necessário haver uma ordem judicial específica, direcionada a um conteúdo igualmente preciso, para, se não tomadas as providências de remoção (que devem ser executadas “no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado”), viabilizar-se a responsabilização civil. Sem qualquer juízo axiológico, as críticas que têm sido feitas se dão no sentido de que, ao se criar etapas prévias à responsabilização civil, o elemento coercitivo de cumprimento perde vigor. Nesse sentido, tomam fôlego as discussões em foros virtuais relativas ao direito ao esquecimento (ou, como tem sido nomeado nos ambientes digitais, o “direito ao apagamento”).
A questão é de sensibilidade tal que o Supremo Tribunal Federal conferiu repercussão geral ao Recurso Extraordinário 1.037.396-SP (tema 987), para decidir exatamente sobre a constitucionalidade ou não do art. 19 do Marco Civil da Internet, dispositivo legal que tem sido tópico nevrálgico dos debates sobre inteligência artificial e responsabilidade civil na Internet como um todo. O julgamento se concluiu no dia 26/06/2025 e, naquela oportunidade, o colegiado proclamou tese de julgamento, da qual se destacam as seguintes passagens:
“Reconhecimento da inconstitucionalidade parcial e progressiva do artigo 19 do marco civil da internet, MCI. 1. O artigo 19 da lei nº 12.965/2014, marco civil da internet, que exige ordem judicial especial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do artigo 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância, proteção de direitos fundamentais e da democracia.
Interpretação do artigo 19 do MCI. 2. Enquanto não sobrevier nova legislação, o artigo 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil ressalvada à aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo Tribunal Superior Eleitoral (TSE). 3. O provedor de aplicações de internet será responsabilizado civilmente, nos termos do artigo 21 do MCI, pelos danos decorrentes de conteúdo gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como inautênticas. 3.1. Nas hipóteses de crime contra a honra, aplica-se o artigo 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial. 3.2. Em se tratando de sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial.
Presunção de responsabilidade. 4. Fica estabelecida a presunção de responsabilidade dos provedores em casos de conteúdos ilícitos quando se tratar de: (a) anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição chatbots ou robôs. Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação. Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornarem disponível o conteúdo. (…).
Incidência do artigo 19. 6. Aplica-se o artigo 19 do MCI ao: a. Provedor de serviços de e-mail; b. Provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz; c. Provedor de serviços de mensageria instantânea; d. Provedores de serviços de mensageria privada, exclusivamente no que diz respeito às comunicações interpessoais resguardadas pelo sigilo das comunicações da Constituição Federal de 1988 (…).
Deveres adicionais.8. Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, sistema de notificações devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos. 9. Deverão, igualmente, disponibilizar a usuários e a não-usuários canais específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas respectivas plataformas de maneira permanente. 10. Tais regras deverão ser publicadas e revisadas periodicamente de forma transparente e acessível ao público. 11. Os provedores de aplicações de internet com atuação no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios.
12. Essa representação deve conferir ao representante, necessariamente pessoa jurídica com sede no país, plenos poderes para: a. Responder perante as esferas administrativa e judicial; b. Prestar às autoridades competentes informações relativas ao funcionamento do provedor, às regras e aos procedimentos utilizados para a moderação de conteúdo e para a gestão das reclamações pelos sistemas internos c. Aos relatórios de transparência, monitoramento e gestão dos riscos sistêmicos; d. As regras para o perfilamento de usuários, quando for o caso, a veiculação de publicidade e o impulsionamento remunerado de conteúdos; e. Cumprir as determinações judiciais; f. Responder e cumprir eventuais penalizações, multas e afetações financeiras em que o representado incorrer, especialmente por descumprimento de obrigações legais e judiciais.
Ausência de uma disciplina específica para o uso de mecanismos de inteligência artificial
A evolução tecnológica não espera o legislador e os procedimentos necessários para a conformação normativa. Por um lado, esse processo é absolutamente natural. Por outro lado, esse descompasso faz com que surjam lacunas que devem ser objeto de análise do operador do Direito. E um fenômeno que ganhou fôlego nesse assunto foi o desenvolvimento acelerado de programas de inteligência artificial para as mais diversas finalidades (lícitas, ilícitas, para lazer, para uso profissional etc.).
Esse desenvolvimento, que ocorreu sem que haja uma definição legal de inteligência artificial e da disciplina a ela conferida, implica que as lacunas interpretativas têm sido preenchidas na medida do que os operadores do Direito possuem de ferramentas para tanto.
Nesse contexto, uma vez que esses mecanismos de inteligência artificial não raras vezes se utilizam de acesso à Internet, o Poder Judiciário tem sido instado a sopesar os diversos dispositivos previstos no Marco Civil da Internet e na Lei Geral de Proteção de Dados. Assim, da mesma forma que a disciplina do uso da Internet tem por fundamento o respeito à liberdade de expressão (art. 2º do Marco Civil da Internet) – que, no caso deste diploma normativo, é não só fundamento, mas também princípio (art. 3º da referida lei) – deve se preservar a neutralidade da rede (inciso IV do art. 3º do Marco Civil da Internet).
Atualmente, o que se constata é que não só não há um conceito legal de inteligência artificial, como também não há acórdãos do Superior Tribunal de Justiça que a tenham definido.
Encontra-se, todavia, em tramitação o Projeto de Lei 2.338/2023, segundo o qual, define-se, em seu art. 4º, inciso I, sistema de inteligência artificial como “sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real”.
De modo comparativo, o Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, datado de 13 de junho de 2024, define tal conceito como “um sistema baseado em máquinas concebido para funcionar com níveis de autonomia variáveis, e que pode apresentar capacidade de adaptação após a implantação e que, para objetivos explícitos ou implícitos, e com base nos dados de entrada que recebe, infere a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”.
O Projeto de Lei 2.338/2023 igualmente prevê, em seu art. 10, que, “quando a decisão, previsão ou recomendação de sistema de inteligência artificial produzir efeitos jurídicos relevantes ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de perfis e da realização de inferências, esta poderá solicitar a intervenção ou revisão humana”.
Nesse cenário, é que se passa a refletir sobre um fenômeno que tem sido percebido pela comunidade jurídica, consistente no fato de programas de inteligência artificial, quando chamados a procurar entendimentos jurisprudenciais, criarem decisões ou acórdãos que, efetivamente, não existiram.
Fatos ocorridos no bojo da Reclamação Constitucional nº 78.890-BA
No dia 15 de maio de 2025, o Supremo Tribunal Federal, por decisão proferida pelo Ministro Cristiano Zanin, negou seguimento a uma reclamação constitucional, que, segundo consta do ato decisório, teria sido redigida com o uso de inteligência artificial, de modo que a petição contaria com julgados inexistentes e menção errônea ao conteúdo de supostas súmulas vinculantes.
Na decisão proferida na Reclamação Constitucional nº 78.890-BA, o Ministro Relator considerou que o fato caracterizaria má-fé processual e sancionou a parte que ingressou com a referida medida. Esse mesmo fenômeno foi noticiado em relação a julgado do Tribunal de Justiça do Estado de Santa Catarina1, ainda que relativo a caso cujo conteúdo não fora divulgado em razão de sigilo na tramitação.
A ocorrência desse fato desperta um alerta para a comunidade jurídica. Primeiramente, faz ressaltar o dever de cuidado com a utilização de programas de inteligência artificial. Paralelamente, indaga-se se não deveria haver, por parte de quem coloca o sistema de inteligência artificial em funcionamento, um alerta aos usuários para que chequem as informações geradas pelos mecanismos em questão.
Como pode se regular a matéria?
Embora atualmente não exista norma jurídica com esse teor, também o Projeto de Lei 2.338/2023 trata do tema em seu art. 13, segundo o qual “previamente a sua colocação no mercado ou utilização em serviço, todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco, cujo registro considerará os critérios previstos neste capítulo”.
O art. 17 do Projeto de Lei 2.338/2023, por sua vez, pretende criar um rol de sistemas de inteligência que reputa de alto risco. Entre as finalidades, faz constar, no inciso VII, aqueles mecanismos voltados à “administração da justiça, incluindo sistemas que auxiliem autoridades judiciárias na investigação dos fatos e na aplicação da lei”.
O Considerando nº 61 do Regulamento (UE) 2024/1689 afirma, nesse sentido, que: “Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos deverão ser classificados como sendo de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, é apropriado classificar como sendo de risco elevado os sistemas de IA concebidos para serem utilizados por uma autoridade judiciária ou para, em seu nome, auxiliar autoridades judiciárias na investigação e interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos. Os sistemas de IA concebidos para serem utilizados por entidades de resolução alternativa de litígios para esses fins também deverão ser considerados de risco elevado quando os resultados dos procedimentos de resolução alternativa de litígios produzam efeitos jurídicos para as partes. A utilização de ferramentas de IA pode auxiliar o poder de tomada de decisão dos magistrados ou da independência judicial, mas não o deverá substituir, a decisão final tem de continuar a ser uma atividade humana. Contudo, a classificação de sistemas de IA como sendo de risco elevado não deverá ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal ou tarefas administrativas”.
Dessa forma, considerando-se a ausência de uma regulamentação completa e os alertas prudenciais a ser tomados, o trabalho dos operadores do Direito será voltado a influenciar o sopesamento entre as balizas regulatórias do Marco Civil da Internet e da Lei Geral de Proteção de Dados.
- Disponível em: <https://www.conjur.com.br/2025-fev-20/tj-sc-aplica-multa-por-recurso-que-citou-precedentes-inventados-por-ia/>. Acesso em 29/05/2025. ↩︎

