Rogério
4 de fev. de 2026
Uso correto ou irresponsável da IA gera riscos trabalhistas e jurídicos graves,
Olá Pessoal!
Hoje quero abordar um tema que tem chamado atenção cada dia mais de quem tenta acompanhar os movimentos de inteligência artificial no mercado...
Temos visto vários casos reais onde uso não correto ou irresponsável gera riscos trabalhistas e jurídicos graves, com impactos reputacionais e financeiros.
O problema no geral não é a tecnologia em si, mas a estratégia de adoção de achar que a IA substitui o julgamento humano.
#_Para_Reflexão
Vou destacar quatro casos que quases todos deve ter acompanhado na mídia..
#_Caso_1
O Técnico de Futebol
O técnico Robert Moreno, em 2025, foi demitido do FC Sochi após delegar decisões críticas de estratégia e ações do dia a dia ao ChatGPT, incluindo formação de time, treinos e até avaliação de contratações. O problema não foi usar IA como apoio, mas usar o resultado gerado pela IA sem passar por uma revisão, um julgamento crítico humano, para considerar questões como contexto do dia a dia dos jogadores, cultura local(Russia), aspectos que modelos de IA podem ter muita dificuldade de captarem e considerarem.
#_Caso_2
A Consultoria Deloitte
Em 2024, a Deloitte entregou um relatório ao governo australiano, como resultado de uma consultoria, com citações judiciais e estudos acadêmicos inventados pela IA. O caso ganhou repercussão internacional e expôs o impacto da fragilidade de processos usando IA sem validação humana rigorosa.
#_Caso_3
O Advogado
Em 2023, um advogado no EUA usou ChatGPT para redigir uma petição. A IA criou jurisprudências falsas (casos inexistentes). Resultado: multa e sanções disciplinares ao advogado, além de um impacto reputacional expressivo pois o caso foi divulgado por toda a mídia internacional. Casos como esse já vivenciamos aqui no Brasil também.
#_Caso_4
O Portal CNET
O CNET, anos atrás, publicou diversos artigos financeiros gerados por IA com erros importantes de cálculo, informações desatualizadas e até trechos plagiados. Teve que corrigir massivamente o conteúdo e perdeu credibilidade editorial no tema.
#_Acompanhando_Esse_Movimento
O que esses casos parecem ter em comum: confiança cega em outputs de IA sem validação crítica.
Existe uma expressão que vi recentemente e uma das minhas leituras, chamada "Falácia da Automação" que se refere a ideia que quanto mais confiamos em sistemas automatizados, menor nossa capacidade de detectar falhas.
A IA generativa não é determinística, ela é probabilística. Isso significa que ela gera respostas plausíveis, com uma coerência textual muito boa, mas não necessariamente corretas.
#_Impactos_Corporativos
Para empresas, os riscos possíveis são muitos. Coloco aqui alguns que me parece estar dentro desse contexto em alguma medida.
Reputacional: entregar trabalho de baixa qualidade ou incorreto mancha a marca.
Jurídico: usar IA em pareceres, contratos ou laudos sem validação pode gerar problemas diversos.
Trabalhista: profissionais que delegam julgamento crítico à IA podem ser inclusive demitidos por negligência.
Financeiro: custos de correção, multas e perda de contratos.
Compliance: violação de normas setoriais (OAB, CRM, CREA, etc.) que exigem responsabilidade técnica.
#_Sinais_De_Alerta
No profissional:
Incapacidade de Justificar ou explicar conceitualmente a entrega.
Velocidade suspeita: entregas complexas em minutos sem histórico de revisão detalhada.
Na Organização:
Falta do que o mercado tem chamado de "Human-in-the-loop": quando não há regra de que todo output de IA deve ser validado por um humano qualificado.
Corte de Custos Cego: trocar pessoas por IA sem critério de qualidade ou governança.
Analfabetismo digital: liberar a IA na empresa sem dar treinamentos e capacitar os colaboradores.
#_Na_Prática
A IA tem se apresentado como ótima copiloto. O responsável final pela entrega precisar ter uma leitura de contexto, nuances culturais da organização e do momento, que algoritmos podem ter muita dificuldade de captar.
Daí a importância das empresas estabelecerem algumas iniciativas como:
Políticas claras de uso de IA (o que pode, o que não pode, quem valida).
Treinamentos para que colaboradores entendam limitações técnicas (alucinações, vieses, falta de atualização).
Processos de validação obrigatórios antes de qualquer entrega crítica.
Trilhas de auditoria: registrar quando IA foi usada, quem validou, qual foi a fonte de dados.
#_Reflexão
A IA potencializa quem sabe o que está fazendo, mas expõe rapidamente quem tenta usá-la para mascarar falta de competência.
E você? Já viu alguma "alucinada" dessas na sua empresa? Como sua organização está lidando com validação de outputs de IA?
Espero que essas reflexões sejam úteis para sua estratégia de adoção de IA na sua organizações.
Se entender estratégico, avalie quem do comitê ou da diretoria poderia ser importante compartilhar essas reflexões!!
Abraços
Sobre o autor:
Rogério Coutinho da Silva
rogerio.coutinho.silva@gmail.com
https://www.linkedin.com/in/rogerio-coutinho-silva/
Engenheiro de Computação formado pela Universidade Federal de São Carlos (UFSCar). Sócio-fundador da Podium Tecnologia (Consultoria especializada em Governança de Segurança da Informação, Privacidade e Continuidade de Negócios) e da SimpleWay (Plataforma de Governança de Segurança Cibernética, Privacidade e IA).



.png)