SEÇÕES

Pela primeira vez, TST reconhece justa causa baseada em alerta de Inteligência Artificial

O caso envolve uma multinacional do setor farmacêutico que utilizava sistemas de auditoria preditiva para monitorar irregularidades internas.

Justa causa com IA: TST valida uso de inteligência artificial | Reprodução

O Tribunal Superior do Trabalho confirmou um marco histórico no país: pela primeira vez, uma demissão por justa causa apoiada em evidências identificadas por Inteligência Artificial foi considerada válida. A decisão altera o cenário de compliance e gestão de riscos nas empresas brasileiras.

O caso envolve uma multinacional do setor farmacêutico que utilizava sistemas de auditoria preditiva para monitorar irregularidades internas. A ferramenta apontou possíveis manipulações de relatórios de performance e apropriação indevida de dados comerciais por um colaborador. A partir do alerta, a companhia abriu uma investigação interna que terminou na demissão por justa causa.

A defesa do trabalhador tentou anular o desligamento alegando falta de transparência algorítmica, dependência tecnológica e suposta “decisão automatizada”. Argumentou ainda que o uso de IA comprometeria a legitimidade do processo disciplinar.

O TST, porém, entendeu que a Inteligência Artificial não substituiu o julgamento humano. Segundo a Corte, o sistema apenas identificou padrões suspeitos, mas coube aos gestores conduzir a apuração e tomar a decisão final. Para o tribunal, o alerta gerado pela IA funciona como qualquer outro indício técnico utilizado em auditorias tradicionais.

A decisão é considerada um divisor de águas para empresas que investem em ferramentas de compliance. Na prática, o TST sinaliza que modelos de IA podem ser usados para prever riscos, detectar fraudes e apoiar investigações, desde que haja supervisão humana e que decisões disciplinares não sejam totalmente automatizadas.

O precedente também acende um alerta: companhias precisam estabelecer políticas claras de governança, registradas e comunicadas aos funcionários, para evitar alegações de abuso, discriminação ou falta de transparência. Sem esses cuidados, a adoção de IA pode gerar mais litígios do que soluções.

A Corte, ao validar o uso supervisionado de algoritmos, inaugura o que especialistas já chamam de “era da subordinação algorítmica supervisionada”. Um período em que empresas que não se adaptarem às novas dinâmicas tecnológicas podem ficar expostas a riscos invisíveis — e a disputas judiciais cada vez mais complexas.

*** As opiniões aqui contidas não expressam a opinião no Grupo Meio.
Tópicos
Carregue mais
Veja Também