PL 2338/23
Marco legal da IA: projeto delimita regime de responsabilidade civil

Advogada Ester Silva Assana
Foto: Banco de Imagens/DAA
Por Ester Silva Assana
A incorporação de tecnologias baseadas em inteligência artificial (IA) suscita relevantes debates éticos e jurídicos, especialmente no que tange à atribuição de responsabilidade por falhas ou decisões automatizadas potencialmente lesivas às partes envolvidas.
Com o intuito de acompanhar esse avanço tecnológico e promover maior segurança jurídica, tramita no Congresso Nacional o Projeto de Lei (PL) n.º 2.338/2023.
Conhecido como o ‘‘Marco Legal da Inteligência Artificial’’, o projeto busca estabelecer um regime claro de responsabilidade civil para os operadores e desenvolvedores de sistemas de inteligência artificial para garantir a reparação dos danos causados.
O PL impõe, entre outras regras, a obrigatoriedade da supervisão humana sobre os sistemas de IA, com o objetivo de assegurar o controle efetivo e minimizar possíveis falhas, vieses ou injustiças que possam decorrer de decisões automatizadas.
Ainda, dispõe que o fornecedor ou operador do sistema que causar dano patrimonial, moral, individual ou coletivo deverá repará-lo integralmente, qualquer que seja o grau de autonomia do sistema utilizado.
Essa premissa reforça o princípio da responsabilidade objetiva, afastando a necessidade de comprovação de culpa para a reparação dos prejuízos.
Historicamente, no Brasil, a responsabilidade civil gerada pelos danos ocasionados por decisões automatizadas é tratada de maneira fragmentada e sem regulamentação específica abrangente.
Dessa forma, aplicam-se subsidiariamente os dispositivos do Código Civil (CC), do Código de Defesa do Consumidor (CDC) e da Lei Geral de Proteção de Dados (LGPD).
No contexto das relações de consumo, a jurisprudência nacional tende a adotar a responsabilidade objetiva, fundamentada no artigo 14 do CDC. Este dispositivo responsabiliza o fornecedor pelo dano causado ao consumidor, independentemente da existência de culpa.
Assim, em situações envolvendo decisões automatizadas no âmbito do consumo, a empresa responsável pelo serviço que utiliza IA pode ser diretamente responsabilizada pelos danos causados, bastando a demonstração do nexo causal entre a falha do sistema e o prejuízo sofrido pelo consumidor.
Por outro lado, em relações jurídicas que não envolvem o consumo, o entendimento predominante é o da responsabilidade subjetiva, situação em que é imprescindível a comprovação de dolo ou culpa para configurar a responsabilização.
Isso implica a comprovação de negligência, imprudência ou falhas técnicas na operação do sistema de IA para atribuir a responsabilidade à empresa ou ao operador.
A LGPD, por sua vez, desempenha papel relevante nesse cenário ao estabelecer obrigações de transparência em relação às decisões automatizadas que envolvam dados pessoais.
Conforme o artigo 20 da LGPD (Lei nº 13.709/2018), o titular dos dados tem o direito de solicitar a revisão dessas decisões, especialmente quando elas produzam efeitos jurídicos ou impactem significativamente os seus direitos.
Tal mecanismo proporciona uma via de recurso para os afetados, além de reforçar a necessidade de transparência, auditabilidade e prestação de contas dos sistemas de inteligência artificial.
No que diz respeito à responsabilização dos desenvolvedores de IA, esta pode ocorrer de forma solidária, principalmente nos casos em que se comprovem negligência técnica, falhas graves de segurança ou omissão quanto aos riscos inerentes ao uso dos sistemas.
Assim, tanto os desenvolvedores quanto os operadores podem ser responsabilizados pelos danos causados, conforme o princípio da solidariedade previsto no Direito Civil brasileiro.
Por fim, é importante destacar que o Projeto de Lei n.º 2.338/2023 ainda apresenta lacunas no que concerne às particularidades do Poder Judiciário.
A centralização da responsabilidade nos operadores pode ser insuficiente para abarcar toda a complexidade dos processos judiciais automatizados, especialmente porque não prevê a responsabilidade direta dos magistrados que utilizam e decidem com o suporte dessas ferramentas.
A ausência de regulamentação específica que garanta transparência, justiça e proteção efetiva aos cidadãos torna ainda mais urgente o desenvolvimento de normativas complementares que assegurem um ambiente jurídico seguro e equilibrado frente aos desafios impostos pela IA.
A depender dos próximos capítulos da tramitação deste PL, podemos ter, no Brasil, o início de uma ‘‘era digital’’ devidamente regulamentada, respeitando os limites não só legislativos, mas também – em paralelo – dos usos e costumes envolvendo a inteligência artificial.
Ester Silva Assana é advogada da Controladoria Jurídica do escritório Diamantino Advogados Associados (DAA)








