Quem é responsável quando uma Inteligência Artificial causa prejuízo? O que diz o Direito brasileiro

Erros de inteligência artificial já causam prejuízos reais. Mas quem responde legalmente por isso no Brasil? Desenvolvedor, empresa ou usuário? Entenda.

12/25/20252 min read

Quando a Inteligência Artificial erra, alguém precisa responder

A inteligência artificial já está tomando decisões que impactam diretamente a vida das pessoas: concessão de crédito, análise de currículos, diagnósticos médicos, bloqueio de contas e até decisões judiciais automatizadas.
Mas quando uma IA erra e causa um prejuízo real, surge uma pergunta inevitável: quem é o responsável legalmente?

No Brasil, ainda não existe uma lei específica e completa sobre responsabilidade civil da IA, mas o Direito já possui caminhos claros para lidar com esse problema.

A IA pode ser responsabilizada juridicamente?

Não.
No ordenamento jurídico brasileiro, a inteligência artificial não possui personalidade jurídica. Isso significa que ela não pode ser processada, condenada ou obrigada a indenizar alguém.

Logo, a responsabilidade sempre recairá sobre pessoas físicas ou jurídicas envolvidas no uso, desenvolvimento ou fornecimento da tecnologia.

Quem pode responder pelos danos causados por uma IA?

A depender do caso concreto, a responsabilidade pode recair sobre:

1. O desenvolvedor da IA

Se ficar comprovado que o erro ocorreu por falha no código, no treinamento do modelo ou em vieses conhecidos e ignorados, o desenvolvedor pode ser responsabilizado.

Aqui, entra a lógica da responsabilidade por defeito do produto, prevista no Código de Defesa do Consumidor (CDC).

2. A empresa que utiliza a IA

Empresas que adotam sistemas automatizados para tomar decisões assumem o risco da atividade.

Se uma IA negar crédito injustamente, errar um cálculo financeiro ou gerar um prejuízo ao consumidor, a empresa pode responder objetivamente, mesmo sem culpa direta.

3. O fornecedor do serviço de IA

Plataformas que oferecem IA como serviço (IA “as a Service”) também podem ser enquadradas como fornecedoras, especialmente quando o consumidor final não tem controle algum sobre o funcionamento da tecnologia.

4. O usuário, em casos específicos

O usuário pode ser responsabilizado quando utiliza a IA de forma:

  • Indevida

  • Dolosa

  • Em desacordo com orientações claras

Exemplo: uso de IA para gerar documentos falsos ou aplicar golpes.

O que diz o Código de Defesa do Consumidor?

O CDC é hoje a principal base jurídica para casos envolvendo IA no Brasil.

Ele prevê:

  • Responsabilidade objetiva do fornecedor

  • Inversão do ônus da prova

  • Proteção contra produtos e serviços defeituosos

Ou seja, não é necessário provar culpa, apenas o dano e o nexo causal.

E o Marco Legal da IA?

O Brasil avança na discussão do chamado Marco Legal da Inteligência Artificial, que busca:

  • Estabelecer princípios

  • Definir níveis de risco

  • Garantir transparência e segurança

Embora ainda não seja definitivo, a tendência é aumentar a responsabilidade de empresas e desenvolvedores, especialmente em sistemas de alto risco.

Conclusão

A inteligência artificial pode até ser inovadora, mas não está fora do alcance do Direito.
Quando uma IA causa prejuízo, a responsabilidade existe — só não recai sobre a máquina, e sim sobre quem lucra, desenvolve ou decide usá-la.

O desafio agora é adaptar o Direito à velocidade da tecnologia, sem abrir mão da proteção jurídica do cidadão.