A Inteligência Artificial (IA) deixou de ser uma tendência futurista e já faz parte da realidade das empresas brasileiras, sendo utilizada para automatizar processos, analisar dados, atender clientes e até auxiliar em tomadas de decisão estratégicas.
Apesar dos benefícios, o uso da IA traz desafios jurídicos relevantes, especialmente em relação à responsabilidade civil, trabalhista, proteção de dados (LGPD) e até penal, além da necessidade de políticas de compliance para evitar riscos legais.
Não por menos, novas regras específicas sobre IA estão em discussão no Parlamento do Brasil (
PL nº 2338/2023).
1. Responsabilidade civil
Empresas podem ser responsabilizadas por danos causados por decisões automatizadas, com base no Código Civil (arts. 186 e 927) e no Código de Defesa do Consumidor (arts. 12 e 14).
A responsabilização pode ocorrer em situações como:
a) Decisões erradas da IA que prejudiquem consumidores ou terceiros;
b) Viés discriminatório em processos automatizados, como concessão de crédito ou recrutamento;
c) Uso indevido ou exposição de dados pessoais em violação à LGPD.
Em relações de consumo, a responsabilidade tende a ser objetiva, bastando comprovar o dano e o nexo causal com a decisão automatizada. Por isso, é essencial que as empresas adotem políticas de governança e auditoria de IA, garantindo transparência e confiabilidade.
2. Responsabilidade trabalhista
Ferramentas de IA aplicadas a recrutamento, seleção e gestão de desempenho podem gerar riscos quando utilizam critérios que resultam em discriminação indireta.
A Constituição Federal (art. 7º), a CLT (art. 373-A) e a Lei nº 9.029/95 proíbem práticas discriminatórias no ambiente de trabalho.
Se comprovado que uma decisão automatizada violou direitos de candidatos ou empregados, a empresa pode ser condenada a pagar indenizações por danos morais e materiais, além de responder a ações civis públicas movidas pelo Ministério Público do Trabalho.
Prevenção: supervisão humana em decisões relevantes, políticas internas claras e testes para eliminar vieses discriminatórios.
3. Proteção de dados (LGPD)
O art. 20 da Lei Geral de Proteção de Dados (Lei nº 13.709/2018) assegura ao titular o direito de solicitar revisão de decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais, o que evidentemente inclui aquelas realizadas por sistemas de Inteligência Artificial (IA), sempre que tais decisões afetarem seus interesses.
Isso significa que, mesmo sem uma lei específica sobre IA no Brasil, já existe previsão legal impondo cuidados rigorosos na utilização de dados pessoais em decisões automatizadas.
Dessa forma, as empresas devem:
a) Garantir base legal adequada para o tratamento de dados pessoais, conforme as hipóteses da LGPD;
b) Assegurar transparência quanto aos critérios utilizados pela IA nas decisões automatizadas;
c) Evitar o uso de dados pessoais sensíveis sem consentimento expresso ou outra hipótese legal prevista na LGPD.
A inobservância dessas obrigações pode gerar multas de até 2% do faturamento da empresa, limitadas a R$ 50 milhões por infração, além de danos à imagem e à reputação corporativa.
4. Responsabilidade penal e administrativa
Embora, como já dito, o Brasil ainda não tenha uma legislação específica para Inteligência Artificial, é certo que as empresas podem ser responsabilizadas criminal e administrativamente caso o uso da tecnologia resulte em ilícitos.
As situações de maior risco incluem:
a) Fraudes em licitações ou operações financeiras com o uso de ferramentas de IA;
b) Danos a consumidores, ao meio ambiente ou à sociedade decorrentes de decisões automatizadas;
c) Violações intencionais à LGPD, especialmente em casos de tratamento irregular ou vazamento de dados.
A Lei Anticorrupção (Lei nº 12.846/2013) e a Lei de Licitações (Lei nº 14.133/2021) já estabelecem penalidades severas para empresas e administradores responsáveis por atos ilícitos contra a Administração Pública, incluindo multas expressivas, impedimento de contratar com o poder público e responsabilização dos gestores.
Em paralelo, o Código Penal pode ser aplicado a condutas fraudulentas ou dolosas praticadas com apoio de sistemas de IA, reforçando a necessidade de compliance digital e governança corporativa robusta para mitigar riscos jurídicos.
5. Compliance e governança para uso de IA
Empresas que utilizam IA devem:
I - Criar políticas internas de uso responsável da tecnologia;
II - Avaliar fornecedores de IA, garantindo adequação à LGPD;
III - Documentar decisões automatizadas e permitir contestação pelos usuários;
IV - Treinar equipes para uso ético e seguro da tecnologia.
Antecipar-se às futuras regulamentações é uma vantagem competitiva e reduz riscos jurídicos e reputacionais.
___________________________________________________________
⚖️ A Teixeira Filho Advogados assessora empresas na adequação ao uso responsável de tecnologias e proteção de dados, oferecendo consultoria preventiva e estratégica em compliance, LGPD e riscos jurídicos relacionados à Inteligência Artificial.
Permitida a reprodução desde que citada a fonte e o link www.teixeirafilho.com.br
📷 Imagem: CanvaPro