O DIREITO CIVIL NA ERA DIGITAL: OS DESAFIOS DA RESPONSABILIDADE CIVIL FRENTE À INTELIGÊNCIA ARTIFICIAL
19 de dezembro de 2025CIVIL LAW IN THE DIGITAL AGE: THE CHALLENGES, OF CIVILINTELLIGENCE AND CIVIL LIABILITY IN THE FACE OF ARTIFICIALL INTELLIGENCE
Artigo submetido em 26 de novembro de 2025
Artigo aprovado em 01 de dezembro de 2025
Artigo publicado em 19 de dezembro de 2025
| Scientia et Ratio Volume 5 – Número 9 – Dezembro de 2025 ISSN 2525-8532 |
.
.
RESUMO: O presente artigo analisa os desafios da responsabilidade civil frente à Inteligência Artificial (IA), ferramenta que vem modificando as interações no campo econômico, nas atividades sociais e jurídicas. Neste último, impõe-se a necessidade de análises mais aprofundadas quanto a imputação a estes novos sistemas quanto a responsabilidade civil dentro do ordenamento jurídico brasileiro. O grande desafio está no enquadramento legal dos atos ilícitos e das atividades de risco que geram responsabilidade civil subjetiva ou objetiva, com a definição do nexo de causalidade e na responsabilização do autor, buscando a reparação integral do dano causado, por sistemas automatizados. Vamos analisar o conjunto de normas, princípios e fundamentos legais previstos na legislação brasileira, e tecer breves comentários sobre a PL 2.338/2023, bem como, propor a adoção da nomenclatura Inteligência Artificial das Normas Regulamentadoras Civis (IA-NRCs) com suas regras e princípios, como instrumento inovador de controle, fiscalização e prevenção de riscos tecnológicos, porém sem a pretensão de esgotar o tema. A criação de normas regulamentadoras no Código Civil específica para IA, contribui no estudo de padrões claros de segurança, auditoria e governança ética. O estudo de caso ilustra como as IA-NRCs são aplicadas na prática, estabelece o nexo causal entre a conduta e o dano, além de determinar a responsabilidade objetiva, assegurando que as vítimas sejam reparadas de forma eficaz. A combinação da legislação com as IA-NRCs é fundamental para garantir a reparação de danos, promover a boa-fé objetiva e fortalecer a segurança jurídica, o que contribui para um ambiente regulatório mais robusto e confiável no uso dessa tecnologia. O método empregado envolve uma revisão da literatura jurídica e tecnológica, complementada por um estudo de caso sobre falhas em sistemas automatizados na construção civil, relacionando o ato ilícito à responsabilidade civil. Em conjunto, legislação e normas técnicas específicas é possível preencher lacunas jurídicas.
Palavras-chave: inteligência artificial; legislação brasileira; responsabilidade civil; normas regulamentadoras civis.
ABSTRACT: The present article analyzes civil liability in Artificial Intelligence (AI), a tool that has been transforming interactions in the economic, social, and legal fields. In the latter, there is a growing need for deeper analyses regarding the attribution of responsibility to these new systems within the Brazilian legal framework. The main challenge lies in the legal classification of unlawful acts and risk-related activities that generate subjective or objective civil liability, in defining the causal link, and in identifying the liable party in order to ensure full reparation for damages caused by automated systems.The objective is to examine the set of norms, principles, and legal foundations established in Brazilian legislation, and to provide brief comments on Bill No. 2,338/2023, as well as to propose the adoption of the nomenclature Artificial Intelligence – Civil Regulatory Norms (AI-CRNs), with their corresponding rules and principles, as an innovative instrument for control, oversight, and prevention of technological risks, though without intending to exhaust the subject.The creation of specific regulatory norms for AI within the Civil Code contributes to the development of clear standards for safety, auditing, and ethical governance. The case study illustrates how AI-CRNs are applied in practice, establishes the causal link between conduct and damage, and determines objective liability, ensuring that victims are effectively compensated.The combination of legislation and AI-CRNs is essential to guarantee damage reparation, promote the principle of good faith, and strengthen legal certainty, contributing to a more robust and reliable regulatory environment for the use of this technology. The method employed involves a review of legal and technological literature, complemented by a case study on failures in automated systems, relating the unlawful act to civil liability. Together, legislation and specific technical norms can fill existing legal gaps.
Keywords: artificial intelligence; brazilian legislation; civil liability; regulatory norms in the civil code.
1 INTRODUÇÃO
O progresso tecnológico tem causado mudanças significativas no comportamento dos humanos, impactando não somente as relações interpessoais e profissionais, mas também os fundamentos estruturantes jurídicos em âmbito global. No Direito brasileiro, as soluções legais passam pela concatenação da legislação, marcos regulatórios brasileiros como a Lei Geral de Proteção de Dados (Lei nº13.709/2018), a Constituição Federal, o Código Civil, o Código de Defesa do Consumidor e o PL n° 2.338/2023, projeto de Lei que procura viabilizar o Marco Legal da Inteligência Artificial no Brasil, procurando regular esta atividade, mesmo assim, gestão dos riscos tecnológicos da Inteligência Artificial ainda carece de Normas técnico-jurídicas para seu controle.
A Inteligência Artificial (IA) é um engenho digital que emergiu nas últimas décadas como uma força capaz de transformar a população, a economia e o Direito, mudando padrões estabelecidos e desafiando o status quo. Os sistemas inteligentes não apenas reagem ao ambiente ao seu redor, mas também processam grandes volumes de dados, aprendem e fazem escolhas complexas que impactam vidas e negócios. Essa autonomia tecnológica constitui uma melhoria de eficiência e inovação, porém, simultaneamente, apresenta desafios sem precedentes para o sistema jurídico, particularmente no âmbito da responsabilidade civil.
O ato ilícito praticado na Inteligência Artificial, quando do desempenho de suas atribuições, gera responsabilidades de reparar a vítima na forma integral. Este novo ramo da ciência de softwares capazes de raciocinar, aprender e agir de maneira humana impõe, por sua natureza e características, deficiências para estrutura jurídica, o que torna imprescindível a criação de novas ferramentas técnico-jurídicas de controle e supervisão, além de evidenciar precisamente a relação entre a conduta e o dano, assim como o perigo da atividade, definindo a responsabilidade jurídica, e caracterizando a obrigação legal de reparar.
A Revolução Industrial trouxe máquinas e processos produtivos mais complexos, o que destacou a restrição da responsabilidade subjetiva. Como resultado, a responsabilidade objetiva foi consolidada para proteger as vítimas da insegurança inerente às atividades. Essa progressão evidencia que o Código Civil tem se esforçado para acompanhar os desenvolvimentos tecnológicos e sociais, adaptando-se à realidade econômica e à habilidade de controle do agente humano. Entretanto, é fundamental desenvolver uma estratégia inovadora para supervisionar e regular essas Inteligências Artificiais.
Atualmente, a IA constitui o próximo desafio regulatório. A crescente independência de mecanismos inteligentes, que conseguem assimilar conhecimento, ajustar-se a novas situações e tomar decisões sem necessitar de monitoramento constante, põe em xeque os pilares tradicionais da responsabilização legal, tais como a intenção, a negligência e a ligação entre causa e efeito. Um sistema com autonomia pode gerar prejuízos imprevistos, mesmo quando se torna difícil de apontar uma falha humana óbvia ou antecipável. Assim, conforme dito, surgem lacunas jurídicas significativas, tornando a reparação de danos e a defesa das vítimas incertas e potencialmente ineficazes.
Além disso, o tratamento da responsabilidade civil no Brasil, no Código Civil (CC), ou Código de Defesa do Consumidor (CDC) e na Lei Geral de Proteção de Dados (LGPD), fornece instrumentos importantes, mas insuficientes para lidar com a complexidade da IA. Essas leis não foram pensadas para sistemas autônomos que aprendem, geram conteúdo ou tomam decisões com pouca intervenção humana. O Código Civil prevê a responsabilidade subjetiva e objetiva, enquanto o Código de Defesa do Consumidor garante proteção objetiva para consumidores, e a LGPD regula danos relacionados à privacidade de qualquer operação realizada com dados pessoais. Atualmente, nenhuma dessas leis regulam diretamente os sistemas autônomos com capacidade de tomar decisões inesperadas, o que torna necessário desenvolver métodos adicionais que levem em conta as particularidades da tecnologia.
Considerando esse contexto, objetivo desta pesquisa sugere, junto as práticas legais do sistema normativo brasileiro, o desenvolvimento de regulamentações direcionadas aos sistemas de IA, designadas Normas Regulamentadoras Civil (IA-NRCs), com o objetivo de definir critérios precisos de proteção, avaliação e gestão ética. Com as Normas Regulamentadoras Civis de IA, este trabalho visa uma abordagem inédita, entregando mecanismos de regulação que possibilitam identificar a responsabilidade nítida e antecipada, quando a IA toma decisões erradas e inesperadas por conta própria.
Os objetivos específicos são: analisar os fundamentos legais da responsabilidade no tocante a reparação e as dificuldades do nexo de causalidade diante da IA, inserido na discussão o PL 2338/2023; analisar pontos essenciais do panorama global; sugerir a criação das Normas Regulamentadoras Civis (IA-NRCs) como forma de monitoramento controle e fiscalização; e aplicar essas normas em um exemplo prático, mostrando como é possível atribuir responsabilidade de forma nítida promovendo a proteção das vítimas.
Em resumo, a introdução das IA-NRCs é um avanço no sistema normativo brasileiro, aproximando o Direito as necessidades tecnológicas atuais e criando uma ligação entre responsabilização, proteção das vítimas e desenvolvimento seguro de sistemas autônomos.
2 HISTÓRIA E CONCEITOS DA RESPONSABILIDADE CIVIL
A origem do conceito de Responsabilidade Civil remonta a civilizações antigas, como a Babilônia e a Roma Antiga. Na Babilônia, o Código de Hamurábi, criado por volta de 1.750 a.C., já estabeleceu a definição de como lidar com danos causados por outras pessoas. Entretanto, baseava-se em uma lógica de retribuição, onde a sanção aplicada ao responsável pelo prejuízo tinha como objetivo restabelecer a harmonia entre as partes.
Nas sociedades antigas, não existia diferença entre responsabilidade civil e criminal, nem entre responsabilidade individual e coletiva. A ideia de culpa também não era considerada ao responsabilizar pessoas ou grupos. Havia o conceito de vingança pessoal, no qual o clã ou grupo da vítima era responsável por punir o agressor e seu clã ou família. O conceito de responsabilidade avançou significativamente com o Código de Hammurabi e, no século V a.C., com a Lei das XXII Tábuas, uma vez que passou a considerar a reciprocidade entre a ofensa e a punição. No entanto, a distinção entre responsabilidade civil e penal ainda não estava definida, de acordo com Noronha (2007, p. 528).
No século III a.C., a lex. Áquila de Damon começou a reconhecer a culpa como um componente da responsabilidade civil no Direito Romano, ainda que de maneira primitiva. Assim, surge a origem do termo classificatório “responsabilidade civil aquiliana”, amplamente reconhecido na doutrina, embora seja comumente empregado para se referir à responsabilidade civil fora do âmbito contratual. Com o Iluminismo, a responsabilidade civil passou a ser mais claramente definida, distinguindo-a da responsabilidade criminal e estabelecendo a culpa (em um sentido amplo) como um de seus pilares, juntamente com o dano e a relação de causa e efeito da ação do agressor.
Dessa forma, no direito do século XIX, a culpa era um componente essencial da responsabilidade civil, de modo que não havia a obrigação de reparar o dano sem que haja culpa do agente. (Noronha, 2007, p. 528). Entretanto, a partir do final do século XIX e ao longo do século XX, ficou claro que o modelo de responsabilidade civil baseado apenas na culpa do agente não era suficiente, devido às importantes transformações sociais que ocorreram durante esse período.
Conforme ensina o jurista Fernando Noronha:
No que tange à responsabilidade civil, a revolução industrial trouxe enorme agravação dos riscos a que as pessoas antigamente estavam sujeitas, fazendo crescer as demandas no sentido de eficaz reparação deles. A exigência, feita no século XIX, de uma conduta culposa, como pressuposto da responsabilidade, não se coaduna com necessidade social de assegurar a reparação desses danos, ainda que o causador tenha procedido sem culpa. O direito tinha de deixar de preocupar-se só com o comportamento da pessoa responsável, precisava olhar o afirma Jourdain (…) na direção do objeto da responsabilidade civil: a reparação dos danos (2007, p. 538).
O jurista Orlando Gomes, em artigo publicado originalmente na Revista Forense, já refutava com veemência as posições consideradas tradicionais, segundo as quais a culpa era pressuposta da obrigação de reparar o dano, conforme segue:
Sendo juris et de jure a responsabilidade do agente é nitidamente objetiva. Em tais casos, a culpa é mero vocábulo. Porque aquele que a lei presume responsável pelo dano causado a outrem não pode eximir-se da responsabilidade provando que não é culpado. A presunção legal juris et de jure não comporta prova em contrário. É o que acontece com a responsabilidade por acidente do trabalho. O patrão é responsável pelo acidente, deve repará-lo, ainda que possa provar que não houve de sua parte culpa. A sua responsabilidade decorre em última análise, do fato de ser patrão. Nestes termos, a presunção absoluta de culpa apresenta como a consagração da teoria objetiva da responsabilidade em linguagem subjetivista (2017, p4-5).
O avanço da sociedade de mercado e industrial trouxe consigo o risco das atividades; os prejuízos causados tornaram-se superlativos e sua devida compensação passou a ser exigida pela sociedade. Desta forma, surge o conceito de obrigação de reparação com fundamentos subjetivos e objetivos.
2.1 EVOLUÇÃO E ELEMENTOS JURÍDICOS: DOLO, DANO, CULPA E NEXO CAUSAL
A responsabilidade civil evoluiu de forma marcante ao longo do tempo, acompanhando as mudanças da sociedade e da própria forma como o ser humano entende a justiça. Em seus primórdios, a reparação de danos estava ligada à vingança privada, ou seja, a cobrança pela reparação do prejuízo sofrido era cobrada pelo cidadão na busca do seu ressarcimento. Com o avanço da civilização e o fortalecimento das instituições jurídicas, essa prática foi substituída por mecanismos legais de responsabilização, baseados em valores de equilíbrio e justiça social.
A Responsabilidade Civil passa a ser um instituto jurídico que acionará a proteção de danos causados a terceiros por ação ou omissão de um indivíduo, empresa ou entidade. Ao longo dos séculos, o conceito passou por evolução, refletindo as mudanças sociais, políticas de diferentes épocas.
Tradicionalmente, a responsabilidade civil é estruturada em quatro elementos fundamentais: culpa, dolo, dano e nexo causal. A culpa, em sentido amplo, corresponde à conduta negligente, imprudente ou imperita do agente, que acaba causando prejuízo a outra pessoa. O dolo, por sua vez, envolve a intenção clara de provocar o dano, uma ação consciente e direcionada à lesão de um direito. O dano representa a consequência efetiva, o prejuízo material, moral ou estético sofrido pela vítima sendo indispensável para que haja o dever de indenizar. Já o nexo causal estabelece a ligação entre a conduta do agente e o resultado danoso, sendo o elo que justifica juridicamente a responsabilização.
Como afirma Noronha (2007, p. 528), “a responsabilidade civil tem por objetivo reparar o dano causado ao lesado, restabelecendo o equilíbrio jurídico rompido”. Essa definição reforça a ideia de que o propósito essencial do instituto é restaurar a harmonia social e jurídica, compensando a vítima e reafirmando o compromisso ético do Direito com a justiça.
Na legislação brasileira, a responsabilidade civil é fundamentada no Código Civil de 2002, especialmente nos artigos 186 e 927, que impõem o dever de indenizar o dano decorrente de ato ilícito, independentemente de culpa, se a atividade normalmente exercida pelo autor do dano, por sua própria natureza, apresentar riscos aos direitos de terceiros.
2.2 TEORIA DO RISCO E RESPONSABILIDADE OBJETIVA
Em essência, a teoria do risco postula que cada um responde pelos danos que causa, mesmo sem ter agido com culpa. Em situações específicas, o simples fato de alguém desenvolver certas atividades já é suficiente para gerar responsabilidade legal, independentemente de qualquer ação ilegal. Nesse sentido, ensina Fernando Noronha:
Como se vê, com o princípio do risco a ênfase é posta na causação, ou em casos especiais na mera atividade desenvolvida. Como justificativa desta responsabilidade sem culpa afirma-se que quem causa um dano, ou quem exerce determinadas atividades, deve reparar os danos sofridos pelas outras pessoas, porque se o ordenamento reconhece ou atribui a cada um de nós direitos incidentes sobre a nossa própria pessoa ou sobre determinados bens externos, não devem ser toleradas violações deles, mesmo quando a pessoa responsabilizada tenha procedido com todos os cuidados exigíveis. Se alguém tem de suportar o prejuízo, não deve ser a pessoa que era titular do direito. (2007, p. 433)
Nessa perspectiva, a existência de intenção ou ligação mental entre o ato e o dano causado se torna irrelevante, assim como a adoção de medidas preventivas. O ponto crucial é que, ao exercer atividades consideradas de risco pela legislação, o agente se torna responsável por eventuais prejuízos, sendo obrigado a repará-los integralmente.
O art. 37, § 6º, da Constituição Federal de 1988 consagra hipóteses de responsabilidade objetiva do Estado (sem necessidade de comprovar culpa), baseadas justamente na teoria do risco administrativo. (Brasil,1988). Já o código civil 2002 reforçou a adoção da responsabilidade objetiva em diversos contextos, consagrando expressamente ateoria do risco da atividade. Oart. 927, parágrafo único, do Código Civil: “Haverá obrigação de reparar o dano, independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem” (Brasil,2002).
Por fim, outra área do direito que merece destaque com relação à responsabilidade civil objetiva é o direito do consumidor. Em face da posição de vulnerabilidade técnica e econômica do consumidor nas relações de consumo, o Código de Defesa do Consumidor adotou como regra geral a “teoria do risco do negócio ou da atividade”, ou ainda a “teoria do risco-proveito”. Nesse sentido, Flávio Tartuce expõe o que segue:
O Código de Defesa do Consumidor incorporou a lógica da teoria do risco-proveito, essa teoria atribui responsabilidade, mesmo sem culpa, a quem obtém lucros, vantagens ou benefícios de uma atividade. Quem expõe terceiros, identificados ou não, a riscos, auferindo proveito dessa ação, deve responder pelos desdobramentos negativos. Uma das repercussões dessa situação é a responsabilização objetiva e conjunto dos agentes que participam da oferta ou do serviço. (2023, p.21).
De fato, é justo que os fornecedores, como agentes econômicos que lucram com a oferta de produtos ou serviços, assumam os riscos dessas atividades. Já se pode considerar a internalização de possíveis danos ou prejuízos causados aos consumidores, independentemente da necessidade de comprovar culpa.
3 OS DESAFIOS TÉCNICOS-JURÍDICOS NA INTELIGÊNCIA ARTIFICIAL
A Inteligência Artificial pode ser dividida em duas grandes categorias: a IA Limitada e a IA Geral, também conhecida como IA Autoconsciente. A IA Limitada é desenvolvida para desempenhar tarefas específicas com alta eficiência, mas carece de verdadeira consciência ou compreensão do que está fazendo. Exemplos disso são os assistentes virtuais, sistemas de recomendação, chatbots e softwares de reconhecimento facial. Apesar de sua sofisticação, esses sistemas operam dentro de um escopo restrito, sem a capacidade de transferir seu conhecimento para outras áreas. Segundo Tableau (2025), a IA Limitada é a forma mais comum de IA hoje em dia, sendo amplamente empregada em aplicações práticas e comerciais.
Por outro lado, a IA Geral, ou IA Autoconsciente, busca replicar a inteligência humana em sua totalidade, incluindo habilidades de raciocínio abstrato, tomada de decisões éticas e adaptação a situações novas. Ao contrário da IA Limitada, a IA Geral possui um potencial de aprendizado amplo e pode agir de forma independente em diferentes contextos. Embora ainda seja em grande parte teórica, a IA Geral representa o futuro da pesquisa em inteligência artificial e levanta importantes questões éticas, legais e sociais, particularmente em relação à responsabilidade civil, tomada de decisões autônomas e impacto no emprego humano (Ferraz, 2024).
A distinção entre IA Limitada e IA Geral é fundamental para entender os desafios legais e regulatórios que surgem com o avanço da tecnologia. Enquanto a IA Limitada exige principalmente regras de uso, supervisão e proteção de dados, a IA Geral exige uma abordagem mais abrangente, envolvendo princípios de ética, responsabilidade, transparência e governança internacional, para garantir que decisões autônomas não causem danos a indivíduos ou à sociedade.
3.1 “CAIXA PRETA” E AS DECISÕES ALGORÍTMAS
O termo “caixa-preta” se refere à dificuldade de compreender como os sistemas de IA chegam a certas decisões, principalmente em algoritmos complexos como redes neurais profundas (Ferraz, 2024). Isso acarreta desafios legais, pois dificulta a responsabilização em casos de danos, discriminação ou violações de direitos fundamentais (Binda Filho, 2021). Decisões automatizadas podem replicar preconceitos presentes nos dados, prejudicando grupos vulneráveis portanto, a adoção de IA explicável, auditorias regulares e regulamentação são cruciais para assegurar transparência, justiça e responsabilidade nas decisões algorítmicas.
3.2 DESAFIOS DA RESPOSABILIDADE CIVIL: ATO ILÍCITO CULPA E NEXO CAUSAL NA IA
A responsabilização por danos causados por inteligência artificial (IA) apresenta um grande desafio, dada a natureza complexa desses sistemas que operam sozinhos. Os três pilares da responsabilidade civil, o ato ilícito, a culpa e a relação de causa e efeito, se tornam problemáticos quando aplicados a essas tecnologias avançadas.
Um ato ilícito é normalmente definido como algo que vai contra a lei, como diz o artigo 186 do nosso Código Civil. Mas, com a IA, pode ser complicado saber quem é o responsável, principalmente quando o sistema age sozinho, sem que ninguém precise intervir diretamente. Isso dificulta saber a quem atribuir a responsabilidade. A relação de causa e efeito mostra a ligação entre o que alguém faz e o dano causado a outra pessoa.
Em sistemas de IA identificar essa relação pode ser bem complicado, principalmente quando vários fatores contribuem para o resultado prejudicial, o que torna mais difícil determinar quem é o responsável.
Essas dificuldades mostram que precisamos adaptar as leis tradicionais para lidar com as particularidades da IA garantindo que os direitos das pessoas sejam protegidos e que as decisões legais sejam justas.
O rápido avanço da IA tem gerado discussões complexas sobre quem deve ser responsabilizado quando sistemas autônomos causam danos, o desenvolvedor (fabricante ou programador), o operador ou usuário de IA, o fornecedor ou empresa que utiliza a IA. No sistema legal atual, a responsabilidade geralmente recai sobre pessoas, como o criador do software ou quem opera o sistema. No entanto, essa forma de pensar mostra suas limitações quando se trata de tecnologias autônomas.
O desenvolvedor pode ser responsabilizado por erros no código, falhas na programação ou falta de algo na criação do sistema. No entanto, como destaca Binda Filho (2021), a crescente autonomia dos sistemas de IA dificulta determinar se o dano veio de um erro no software ou de decisões tomadas pelo próprio sistema durante seu funcionamento. Culpar apenas o desenvolvedor pode ser insuficiente e injusto, principalmente quando o sistema aprende sozinho de forma contínua.
É comum que a pessoa que opera ou utiliza o sistema seja responsabilizada, sobretudo quando tem controle direto sobre a IA. Em sistemas mais independentes, porém, o operador talvez não consiga interferir ou entender totalmente as decisões do algoritmo, o que dificulta definir a culpa e reduz a eficácia da responsabilização tradicional.
O sistema legal atual, fundamentado na responsabilidade civil usual, tem problemas para lidar com a IA. Ferraz (2024) defende que aplicar diretamente as regras de hoje não abrange a complexidade dos sistemas independentes e seus efeitos na sociedade. Existe uma falta de normas que demanda novas formas de pensar, como criar regras de responsabilidade exclusivas para IA, maneiras de fiscalizar constantemente e critérios para imputar responsabilidade que levem em conta o perigo da atividade tecnológica.
Em suma, atribuir responsabilidade em situações que envolvem IA requer uma revisão do modelo tradicional. A simples atribuição ao criador ou operador não é suficiente para lidar com a autonomia e complexidade dos sistemas atuais. O desafio é construir um sistema legal que alie justiça, previsibilidade e inovação, protegendo as vítimas e incentivando o avanço tecnológico responsável.
O rápido desenvolvimento da Inteligência Artificial (IA) apresenta desafios inéditos para o ordenamento jurídico brasileiro. A sua regulamentação transcende a mera criação de leis severas, exigindo um equilíbrio entre a proteção dos cidadãos, o estímulo à inovação e a garantia da segurança jurídica. Para tanto, diversos modelos regulatórios oferecem abordagens distintas para lidar com essas tecnologias de maneira responsável e eficiente.
O modelo legalista se fundamenta na elaboração de normas gerais pelo Poder Legislativo, conferindo previsibilidade e segurança jurídica. Contudo, a sua rigidez dificulta o acompanhamento do ritmo acelerado da inovação tecnológica, demandando atualizações constantes para que as leis consigam atender às demandas específicas da IA (Câmara dos Deputados, 2025); já o Modelo Agencial ou Administrativista deposita nas agências reguladoras, como a Agência Nacional de Telecomunicações (ANATEL), um papel importante na criação de normas técnicas, fiscalização de setores e garantia do uso ético da IA. Este modelo combina especialização e flexibilidade, equilibrando a proteção ao consumidor e o incentivo à inovação.
No Modelo de Autorregulação, as próprias áreas estabelecem normas de comportamento, frequentemente com acompanhamento externo. Projetos como o JusIA, uma inteligência artificial focada no direito, ilustram a agilidade da autorregulação em atender às demandas do setor. Contudo, seu sucesso requer uma supervisão íntegra e instrumentos que assegurem a adesão ética (JusBrasil, 2025).
Modelo Baseado em Resultados ou Flexível, a ênfase está em metas objetivas, dando liberdade aos regulados para escolherem os meios de atingi-las. No Brasil, o Projeto de Lei nº2.338/2023 apresenta preceitos para a IA com foco em riscos e gestão, originando um cenário regulatório maleável e criativo. É imprescindível, aqui, dispor de sistemas que avaliem resultados e certifiquem a retidão das práticas (Senado Federal,2025).
A normatização da IA no Brasil exige ser unificada e progressiva, conciliando leis já existentes, o trabalho de órgãos reguladores, a autorregulação e a atenção aos resultados. Apenas desse modo, será viável gerar um ambiente que estimule o avanço tecnológico, defenda os direitos essenciais e assegure a responsabilidade na utilização da IA.
4 MODELOS REGULATÓRIOS NO BRASIL E TENDÊNCIAS GLOBAIS.
A regulação da Inteligência Artificial (IA) exige não apenas a adaptação dos modelos regulatórios existentes, mas também a incorporação de práticas internacionais e mecanismos inovadores que garantam segurança jurídica, responsabilidade civil e incentivo à inovação tecnológica. Neste capítulo, são apresentados os modelos regulatórios brasileiros, as tendências globais na regulação da IA e propostas de adaptação ao contexto nacional.
4.1 TENDÊNCIAS GLOBAIS QUANTO A RESPONSABILIDADE CIVIL NA IA
A crescente adoção de sistemas autônomos tem motivado países a explorar mecanismos jurídicos inovadores para atribuição de responsabilidades e mitigação de riscos. Duas tendências destacam-se: Análise da proposta de Personalidade Eletrônica”; Fundo de Compensação e a Responsabilidade Civil Objetiva.
1 Análise da Proposta de criação da “Personalidade Eletrônica”. A ideia de uma personalidade eletrônica busca conceder a sistemas de IA com autonomia um reconhecimento legal próprio, permitindo que suas ações gerem consequências jurídicas, tal como ocorre com empresas. O objetivo é trazer mais segurança jurídica e clareza na definição de quem responde por quê, mas há desafios como questões éticas, o perigo de diluir responsabilidades e a necessidade de regras técnicas bem definidas;
2 Fundo de Compensação e a Responsabilidade Civil Objetiva. Vários países têm cogitado criar fundos para indenizar e adotar regimes de responsabilidade objetiva para danos causados por IA, principalmente em áreas de alto risco, como carros autônomos e saúde (Câmara dos Deputados, 2025; Senado Federal, 2025). A ideia é garantir que as vítimas sejam rapidamente indenizadas e evitar longas disputas sobre quem é o culpado, mas o desafio está em definir quem pode acessar esses fundos e como mantê-los funcionando.
4.2 MODELOS REGULADORES E PROPOSTAS DE CRIAÇÃO DE NORMAS REGULAMENTADORAS CIVIS (IA-NRCs)
Olhando para o que está acontecendo no mundo, o Brasil deve tomar medidas claras com urgência para regulamentar a IA juntando os modelos de regulamentação que já existem:
Criação de regras que responsabilizem diretamente os sistemas autônomos em áreas cruciais, como saúde, transporte e finanças, protegendo as vítimas sem precisar provar quem errou e exigir que quem opera e desenvolve IA de alto risco tenha seguro obrigatório, garantindo que haja dinheiro para cobrir danos e incentivando práticas tecnológicas responsáveis.
O propósito deste artigo jurídico é a elaboração de normas técnicas e éticas específicas para IA, com a devida fiscalização de modo constante, garantindo que tudo seja transparente, passível de auditoria e esteja em conformidade com as leis e a ética. Como Integrar este conceito aos Modelos Brasileiros.
A priori devemos concatenar os diversos temas já abordados aos quatro modelos de regulamentação que o Brasil já possui:
• Modelo Tradicional/Legal: Leis que definem as responsabilidades por danos causados por sistemas autônomos.
• Modelo Agencial/Administrativo: órgãos como ANATEL e a Autoridade Nacional de Proteção de dados (ANPD) fiscalizando e criando padrões para as IA-NRCs.
• Modelo de Autorregulamentação: empresas criando regras internas e auditorias, seguindo as normas existentes.
• Modelo Baseado em Resultados: foco em segurança, transparência e redução de riscos, incentivando soluções inovadoras dentro da ética e da lei.
Para regulamentar a IA no Brasil, é preciso juntar leis, fiscalização, autorregulamentação e foco em resultados. A incorporação de mecanismos como personalidade eletrônica, fundos de compensação, seguros obrigatórios e IA-NRCs oferece uma base sólida para um ecossistema de inovação responsável, que proteja direitos fundamentais e promova a responsabilidade no uso de sistemas autônomos.
5 PROPOSTA DE DESENVOLVIMENTO DAS IA-NRCs
A rápida evolução da inteligência artificial (IA) gerou novos desafios legais, especialmente ao identificar quem responde por prejuízos causados por decisões automáticas. Sem leis específicas e com a crescente independência desses sistemas, sugere-se criar Normas Regulamentadoras Civis de Inteligência Artificial (IA-NRCs), pensadas como ferramentas técnicas e jurídicas para monitorar, controlar e gerenciar riscos, fortalecendo a prevenção na responsabilidade civil.
O que são e para que servem as IA-NRCs? Para controle, monitoramento e fiscalização das atividades da inteligência artificial de modo hibrido, ou seja, técnico-jurídico, buscando equilibrar avanço tecnológico e segurança legal. Inspiradas nas Normas Regulamentadoras do Trabalho (NRs) da CLT, porém com outra perspectiva voltada ao controle da linguagem de máquina e seus atributos, as IA-NRCs definem o que empresas, desenvolvedores e usuários de IA devem fazer, com padrões técnicos e protocolos de segurança. A ideia de prevenção nessas normas acompanha o direito civil atual, que, segundo Gagliano e Pamplona Filho (2023), não só repara danos, mas também previne e diminui riscos, como diz o art. 927, parágrafo único, do Código Civil. Assim, seguir os protocolos de gestão das IA-NRCs demonstra que houve o cuidado necessário quanto aos procedimentos de controle de suas atividades.
5.1 AS IA-NRCs COMO INSTRUMENTO DE PREVENÇÃO E CONTROLE
A responsabilidade civil preventiva busca evitar que o dano aconteça. Noronha (2021) diz que prevenir é tão importante quanto reparar, pois o direito moderno deve evitar o erro, não só corrigi-lo depois. Lima (2022) também ressalta que a IA, por ser independente e complexa, precisa de controle e rastreamento de seus algoritmos, para que se possa entender a causa dos problemas. Assim, fortalecer a prevenção na responsabilidade civil significa criar formas de auditar, fiscalizar e garantir o cumprimento das regras tecnológicas, detalhadas nas futuras IA-NRCs.
Abaixo, observa-se alguns dos cinco exemplos de normas possíveis de gestão tecnológica:
IA-NRC01 – Sistemas de IA avançados, que representam um risco considerável serão submetidos a verificações de suas diferentes versões, estudos e soluções para perigos generalizados, testes de resistência, assegurar proteção digital e uso otimizado de energia.
IA-NRC02 – Requerer que os desenvolvedores apresentem uma explicação acessível sobre o funcionamento da IA nos projetos, detalhando seus pontos fortes e fracos, tanto para especialistas quanto para pessoas sem conhecimento jurídico.
IA-NRC03- estabelece a necessidade de registrar os dados e as decisões tomadas por sistemas automáticos, permitindo auditorias posteriores e a identificação da raiz dos problemas.
IA-NRC04- Revisão por pessoal técnico qualificado e habilitado das decisões tomadas automaticamente pela IA que possam colocar em risco a segurança física, o patrimônio ou os princípios morais de outros indivíduos.
IA-NRC05- Exigir a realização de análises técnicas prévias ao uso de sistemas de IA para identificar e avaliar potenciais riscos envolvidos.
IA-NRC06-Todos os participantes no desenvolvimento, criadores, fornecedores e utilizadores, compartilham a responsabilidade caso as normas não sejam cumpridas.
Caso a IA cometa algum erro operacional, de cálculo, conceitual ou de tomada de decisão, o controle das IA-NRCs fornece a identificação precisa do ato ilícito verificando qual norma foi ignorada. Por exemplo, não ter supervisão humana (IA-NRC 03) ou avaliação de risco antes (IA-NRC 04) seria falta de cuidado, levando a empresa a ser responsabilizada conforme o art. 927 do Código Civil. Dessa forma, as IA-NRCs servem para controlar e evitar problemas, permitindo tanto a análise após um dano quanto a criação de um ambiente de segurança legal e tecnológica. Essa visão de prevenção está de acordo com o princípio da precaução, do art. 225 da Constituição Federal, e com a Lei Geral de Proteção de Dados (Lei nº 13.709/2018), que obriga a proteger processos automatizados.
6 ESTUDO DE CASO: ERRO DA IA NO CÁLCULO ESTRUTURAL DA LAJE: CONSEQUÊNCIAS, CONTROLE E RESPONSABILIDADE CIVIL
A inserção progressiva da inteligência artificial (IA) nos métodos de produtivos tem impulsionado a eficiência, a automatização e a exatidão nos projetos, embora também introduza novos perigos tecnológicos que colocam em questão o arcabouço legal já existente. Este estudo de caso examina uma situação hipotética de erro estrutural numa laje, resultante de uma falha num algoritmo de um sistema de IA encarregado do cálculo e supervisão da concretagem. Partindo deste contexto, procura-se debater a caracterização do ato ilícito civil, as maneiras de imputar responsabilidade objetiva aos agentes envolvidos e as ferramentas de prevenção e gestão que poderiam ser postas em prática.
A análise sugere também a aplicação das Normas Regulamentadoras Civis de Inteligência Artificial (IA-NRCs) como ferramenta técnica e legal direcionada à inspeção, rastreamento e diminuição de riscos, ajudando a firmar um modelo de responsabilidade civil preventiva no âmbito da engenharia auxiliada por IA.
6.1 APLICAÇÃO DA IA NO CÁLCULO DA LAJE
Num projeto de construção de tamanho médio, uma construtora implementa um sistema de IA especializado em cálculos estruturais e controle automático da concretagem de lajes. O software processa dados coletados por sensores de temperatura e resistência do concreto, assim como informações sobre carga distribuída e consumo de material, visando aprimorar o desempenho e diminuir despesas.
No entanto, uma falha no algoritmo, originada por erro de modelagem e falta de verificação humana, faz com que o sistema avalie de forma insuficiente a resistência requerida em um ponto específico da estrutura. O resultado é o surgimento de rachaduras após a cura do concreto, demandando reforço urgente e gerando riscos de desabamento parcial, além de perdas contratuais e financeiras significativas. A quem cabe a responsabilidade civil?
6.2 ILÍCITO CIVIL: EVIDÊNCIAS, ANÁLISE TÉCNICA, RESPONSABILIDADE OBJETIVA E CONSEQUÊNCIAS LEGAIS.
Juridicamente, o evento do subitem 6.1 configura ato ilícito civil, conforme o art. 186 do Código Civil Brasileiro (Lei nº 10.406/2002): “aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem…” (Brasil,2002).
A perícia técnica aponta negligência na supervisão do sistema de IA, uma vez que os responsáveis não implementaram protocolos de validação manual nem auditoria periódica dos resultados algorítmicos. Configura-se, portanto, responsa-bilidade objetiva (art. 927, § único, do Código Civil), pela “atividade de risco” e pela previsibilidade dos danos tecnológicos (Brasil, 2002).
As principais consequências legais abrangem:
• O dever de reparação integral dos prejuízos materiais e imateriais (art. 944 do Código Civil);
• A responsabilidade solidária entre o desenvolvedor do software, o fornecedor e a empresa construtora;
• A possível classificação da falha como um defeito do produto, conforme estabelecido pelo Código de Defesa do Consumidor (Lei n° 8.078/1990), caso o sistema tenha sido comercializado sem a devida certificação de segurança;
• A eventual comunicação à Autoridade Nacional de Proteção de Dados (ANPD), no caso de tratamento inadequado de dados confidenciais durante o processo (Lei Geral de Proteção de Dados – LGPD). Revista FT.
Essa situação demonstra como a falta de mecanismos de controle e rastreamento em sistemas inteligentes pode gerar um dano jurídico significativo e comprometer tanto a segurança física quanto a confiança da sociedade no uso da IA no setor por exemplo da construção civil.
Neste caso ressalta-se a necessidade de integração entre engenharia civil, ciência de dados e direito, visando promover uma cultura de governança tecnológica responsável. Entre as principais lições, destacam-se:
É de suma importância a auditoria humana e técnica contínua dos sistemas de IA utilizados em atividades cruciais.
Na atual conjuntura é cada vez mais complexo a responsabilização da IA quando se trata do ato ilícito e da devida reparação da vítima através da responsabilidade civil, frente aos avanços operacionais da inteligência artificial, A citação demonstra bem a ideia de que os princípios tradicionais do direito talvez precisem ser revistos para acompanhar as novas realidades tecnológicas.
7 ANÁLISE E DISCUSÃO DAS NORMAS REGULAMENTARES CIVIS (IA-NRCs) NO ESTUDO DE CASO
A análise do caso envolvendo o erro da inteligência artificial no cálculo estrutural da laje permite observar como a ausência de padrões normativos específicos compromete a determinação clara da responsabilidade civil. A partir desse cenário, propõe-se uma reflexão comparativa entre os instrumentos legais já existentes no ordenamento jurídico brasileiro com a proposta das Normas Regulamentadoras Civis de Inteligência Artificial (IA-NRCs), para definitivamente entre outros propormos a conexão entre conduta, o dano e o nexo causalidade praticados pela atividade na IA.
7.1 INTEGRAÇÃO ENTRE O ORDENAMENTO JURÍDICO E AS IA-NRCs
O Código Civil (Lei n.º 10.406/2002) constitui o principal fundamento jurídico da responsabilidade civil, especialmente em seu art. 927, que prevê a responsabilidade objetiva para atividades que impliquem risco para terceiros. Em um contexto de automação e uso intensivo de sistemas autônomos, tal dispositivo assume centralidade, pois permite imputar responsabilidade mesmo sem culpa, bastando o risco inerente à atividade (Gagliano; Pamplona Filho, 2023)
O Código de Defesa do Consumidor (Lei n.º 8.078/1990) complementa essa estrutura ao reconhecer o direito à prevenção de danos (art. 6º, VI) e à segurança dos produtos e serviços (art. 8º). Assim, sistemas de IA empregados em atividades econômicas, como no setor da construção civil, devem assegurar padrões de confiabilidade, sob pena de responsabilização civil e administrativa.
O Marco Civil da Internet (Lei n.º 12.965/2014), por sua vez, introduziu os princípios de transparência, responsabilidade e prestação de contas na esfera digital, o que se relaciona diretamente com a exigência de aplicabilidade algorítmica nas aplicações de IA (Brasil,2014). A Lei Geral de Proteção de Dados (Lei nº13.709/2018) reforça esse dever de transparência e impõe ao controlador o dever de adotar medidas de segurança e prevenção (art.46), constituindo um dos pilares da responsabilidade civil preventiva (Brasil,2018).
Todavia, tais normas, embora abrangentes, não possuem especificidade técnica suficiente para lidar com a autonomia e a opacidade das decisões automatizadas. É nesse ponto que surge a necessidade de normas complementares as IA-NRCs, destinadas a preencher o vazio normativo e garantir a operacionalização dos princípios jurídicos já previstos.
7.2 BREVE DIÁLOGO ENTRE O PL n.º 2.338/2023 E AS IA-NRCs
O Projeto de Lei n.º 2.338/2023, em tramitação no Senado Federal, representa um avanço significativo na tentativa de estabelecer um marco regulatório nacional para a inteligência artificial. O texto propõe princípios como responsabilidade, transparência, segurança e não discriminação, além de prever mecanismos de governança e avaliação de risco (art. 4º, VII). No entanto, o PL limita-se a definir diretrizes gerais, deixando lacunas quanto à implementação prática e à fiscalização técnica das atividades com IA.
Nesse sentido, as IA-NRCs surgem como instrumento complementar e operativo do PL 2.338/2023, pois transformam princípios abstratos em obrigações técnicas concretas. Por exemplo: Enquanto o PL 2.338/2023 prevê o dever de gestão de riscos, a IA-NRC 04 estabelece protocolos de avaliação e mitigação de riscos estruturais em sistemas de IA no nosso caso aplicados à engenharia civil; O princípio da supervisão humana significativa, citado no PL, é concretizado pela IA-NRC 03, que impõe a obrigatoriedade de validação técnica humana em processos automatizados de alto impacto; O princípio da transparência e rastreabilidade encontra correspondência direta nas IA-NRCs 01 e 02, que preveem aplicabilidade algorítmica e registro obrigatório de logs para auditoria.
Assim, o PL 2.338/2023 fornece a base jurídico-política, enquanto as IA-NRCs oferecem a base técnico-operacional necessária à efetividade da responsabilidade civil preventiva.
7.3 APLICAÇÃO PRÁTICA DO ESTUDO DE CASO
No estudo de caso em questão, o erro da IA no cálculo estrutural da laje, a determinação da responsabilidade civil se torna clara quando analisada sob o prisma
conjunto dessas normas.
De acordo com o art. 927 do Código Civil, configura-se responsabilidade objetiva sempre que a atividade implicar risco à integridade de terceiros. A ausência de supervisão humana (IA-NRC 03) e a falha na auditoria de risco (IA-NRC 04) demonstram violação direta aos deveres de diligência técnica e de prevenção. Ao mesmo tempo, a LGPD impõe o dever de segurança informacional, enquanto o PL 2.338/2023 reforça a necessidade de gestão ética e transparente das decisões algorítmicas.
O Código Civil, o CDC, o Marco Civil da Internet e a LGPD estabelecem princípios gerais de responsabilidade objetiva, prevenção de danos e transparência, mas não contemplam a complexidade das decisões automatizadas.
OPL 2338/2023 fornece diretrizes sobre ética, governança e gestão de riscos em IA, mas permanece abstrato quanto à operacionalização. Nesse contexto, as IA-NRCs surgem como instrumentos complementares, transformando princípios legais em obrigações técnicas concretas, como auditoria de riscos, supervisão humana e rastreabilidade algorítmica.
No caso da laje, a ausência de supervisão (IA-NRC 03)e deauditoria de risco (IA-NRC 04) demonstra violação dos deveres de diligência, consolidando a responsabilidade civil objetiva do agente. Dessa forma, a conjugação normativa entre Código Civil, CDC, LGPD, Marco Civil da Internet, PL 2.338/2023 e IA-NRCs viabiliza a definição clara e objetiva da responsabilidade civil, no caso das IA-NRCs temos a seguinte análise:
-Empresa responsável pelo projeto ou execução da obra: utilizou a IA semauditoria prévia, supervisão humana (IA-NRC 03) ou protocolos de mitigação de riscos (IA-NRC 04); configuranegligência ou imprudência, caracterizando oato ilícito civilnostermos doart. 927 do Código Civil(responsabilidade objetiva em atividades de risco).
-Desenvolvedor ou fornecedor do software de IA(caso tenha fornecido sistema com falha conhecida ou sem documentação e protocolos de segurança):Pode haverresponsabilidade solidáriase a falha técnica decorreu deomissão ou defeito do sistema, conforme previsto naproposta de IA-NRC 05.
8 CONSIDERAÇÕES FINAIS
A pesquisa assegura que a expansão da IA em setores fundamentais, como a construção, requer uma estrutura jurídica e técnica robusta, fundamentada na Constituição Federal, na Projeto de Lei da IA no Brasil (PL 2.338/2023), no Código Civil, no Código de Defesa do Consumidor e nas futuras Normas Regulamentadoras Civis de IA. Essa estrutura jurídica possibilita a identificação e responsabilização dos envolvidos por possíveis danos, assegurando também o direito integral de reparação à vítima.
A avaliação de um incidente de erro estrutural em uma laje provocado por IA revelou que falhas em algoritmos podem resultar em perdas significativas de ordem materiais, financeiras e jurídicas. Tal constatação evidência a responsabilidade civil objetiva da empresa ou do operador do sistema, além de enfatizar a importância de supervisão humana contínua. Nesse contexto, as Normas Regulamentadoras Civis de IA surgem como instrumento eficazes de segurança e transparência, permitindo o monitoramento das decisões automatizadas, a autorização prévia das ações, a documentação ética dos processos e a gestão de riscos. Essas diretrizes transformam princípios legais gerais em regras práticas específicas, reforçando a governança, a rastreabilidade e a integridade na utilização da IA.
O estudo contribui ao propor um modelo normativo híbrido (técnico-jurídico) para a inteligência artificial, que integra ética algorítmica, gestão de riscos e responsabilidade civil, oferecendo subsídios para regulamentações futuras e práticas seguras em contextos tecnológicos complexos.
Em conclusão, recomenda-se que futuras pesquisas ampliem a aplicação das Normas Regulamentadoras Civis de IA para diferentes setores, examinem os erros reais da IA e desenvolvam métodos de auditoria automática e IA explicável. Assim, estabelece-se um modelo de responsabilidade civil preventivo, ético e reparador, que une tecnologia e direito, promovendo segurança jurídica, proteção da vítima e uso consciente da inteligência artificial no Brasil.
REFERÊNCIAS
BFBM ADVOGADOS. A responsabilidade civil e a inteligência artificial. Disponível em: https://www.bfbm.com.br/a-responsabilidade-civil-e-a-inteligencia-artificial/. Acesso em: 28 out. 2025.
BINDA FILHO, D. L.; ZAGANELLI, M. V. Responsabilidade civil e inteligência artificial: quem responde por danos ocasionados por sistemas inteligentes autônomos, 2021. Derecho y Cambio Social / Revista DCS v.18, n.°64, Abr/jun 2021
BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Diário Oficial da União: seção 1, Brasília, DF, ano 139, n. 8, p. 1-74, 11 jan. 2002. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/2002/L10406.htm. Acesso em: 28 out. 2025.
BRASIL. Lei nº 8.078, de 11 de setembro de 1990. Dispõe sobre a proteção do consumidor e da outras providências. Brasília, DF: Diário Oficial da União,1990 Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8078.htm. Acesso em: 28 out. 2025.
BRASIL. Constituição (1988). Constituição da República Federativa do Brasil 1988. Brasília, DF: Senado Federal, 1988.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados (LGPD), Brasília,DF: Presidência da República, [2020]. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato20152018/2018/lei/L13709.htm .Acesso em: 28 out. 2025.
BRASIL. Lei 13.709 de 14 de agosto de 2018. Dispõe sobre a proteção dos dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014(Marco Civil da Internet). Diário Oficial da União, Brasília, DF: 15 ago. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato20112014/2014/lei/l12965.htm. Acesso em: 28 out. 2025.
BRASIL. Projeto de Lei nº 2.338/2023, Marco Legal da Inteligência Artificial. Disponível em: https://www.camara.leg.br/propostas-legislativas/2461325 Acesso em: 28 out. 2025.
FERREZ, T. P. Inteligência artificial explicável para atenuar a falta de transparência e a legitimidade na moderação. Disponível em: https://doi.org /10.1590/s0103-4014.202438111.020 da internet. 2024. Estudos Avançados, v.38, n.111 Acesso em: 28 out. 2025
GAGLIANO, Pablo Stolze; PAMPLONA FILHO, Rodolfo. Novo curso de direito civil: responsabilidade civil. 4. ed. São Paulo: Saraiva, 2023.
GOMES, Orlando. Culpa x Risco. Revista de Direito Civil Contemporâneo. v. 11, abr./jun. 2017 DTR\2017\1677; p. 4-5, 349/358.
LIMA, Sérgio Cavalieri. Responsabilidade Civil no Código Civil. 7. ed. Rio de Janeiro: Forense, 2020.
NORONHA, Fernando. Direito das Obrigações: Fundamentos do Direito das Obrigações; Introdução à Responsabilidade Civil. 2ª ed. v.1. São Paulo: Editora Saraiva, 2007, p. 528.
REVISTA FT. Responsabilidade civil em casos de violação da LGPD por algoritmos de inteligência artificial. 2024. Disponível em: https://revistaft.com.br/responsabilidade-civil-em-casos-de-violacao-da-lgpd-por-algoritmos-de-inteligencia-artificial/. Acesso em: 28 out. 2025.
TABLEAU. Tudo sobre Inteligência Artificial (IA): Significado, Exemplos e Mais. Tableau. Disponível em: https://www.tableau.com/pt-br/learn/articles/ai. Acesso em: 02 nov. 2025. TARTUCE, Flávio. Manual de Direito Civil: volume único. 14. ed. Rio de Janeiro: Forense; São Paulo: Método, 2023, p.21.
[1]Bacharelando em Direito. Centro Universitário de João Pessoa – UNIPÊ. E-mail: alexandretannuss54@email.com. Orientador: Professor MSc Markus Samuel Leite Norat. E-mail: markus.norat@unipe.edu.br.
[2] Doutorando em Ciências Jurídicas e Sociais. Mestre em Direito e Desenvolvimento Sustentável. Especialização em Coordenação Pedagógica. Especialização em Tutoria em Educação a Distância e Docência do Ensino Superior. Especialização em Direito da Seguridade Social Previdenciário e Prática Previdenciária. Especialização em Advocacia Extrajudicial. Especialização em Direito da Criança, Juventude e Idosos. Especialização em Direito Educacional. Especialização em Direito do Consumidor. Especialização em Direito Civil, Processo Civil e Direito do Consumidor. Especialização em Direito do Trabalho e Processual do Trabalho. Especialização em Direito Ambiental. Especialização em Desenvolvimento em Aplicações Web. Especialização em Desenvolvimento de Jogos Digitais. Especialização em Ensino Religioso. Especialização em Docência no Ensino de Ciências Biológicas. Especialização em Ensino de História e Geografia. Especialização em Ensino de Arte e História. Especialização em Docência em Educação Física. Licenciatura em Geografia. Licenciatura em Ciências Biológicas. Licenciatura em História. Licenciatura em Letras Português. Licenciatura em Ciências da Religião. Licenciatura em Educação Física. Licenciatura em Artes. Licenciatura em Ciências Sociais. Licenciatura em Filosofia. Bacharelado em Direito. Editor de Livros, Revistas e Websites. Advogado especializado em Direito do Consumidor. Coordenador Pedagógico e Professor do Departamento de Pós-Graduação em Direito do Centro Universitário de João Pessoa UNIPÊ; Professor convidado da Escola Nacional de Defesa do Consumidor do Ministério da Justiça; Professor do Curso de Graduação em Direito no Centro Universitário de João Pessoa UNIPÊ; Professor do Curso de Graduação em Direito na Faculdade Internacional Cidade Viva FICV; Membro Coordenador Editorial de Livros Jurídicos da Editora Edijur (São Paulo); Membro Diretor Geral e Editorial das seguintes Revistas Científicas: Scientia et Ratio; Revista Brasileira de Direito do Consumidor; Revista Brasileira de Direito e Processo Civil; Revista Brasileira de Direito Imobiliário; Revista Brasileira de Direito Penal; Revista Científica Jurídica Cognitio Juris, ISSN 2236-3009; e Ciência Jurídica; Membro do Conselho Editorial da Revista Luso-Brasileira de Direito do Consumo, ISSN 2237-1168; Autor de mais de 90 livros jurídicos e de diversos artigos científicos.
[3] Bacharel em Direito pela UDC-Paraná; Graduanda em Letras-Português (FPB); Pós-Graduanda em Direito Penal e Processo Penal (Damásio-2017); Pós-Graduanda em Direito Civil e Processo Civil (Unipê-2025-2026); Mestranda em Direito e Desenvolvimento (Unipê-2025-2026); Professora Estagiária em Letras (2025-Escola Argentina Pereira Gomes-PB); Professora Estagiária de Metodologia (2025-Unipê).

