Por Enzo Baggio Losso, advogado do Ciscato Advogados Associados
Profissionais de marketing usam plataformas generativas para criar campanhas, equipes de RH automatizam a triagem de currículos, departamentos jurídicos testam ferramentas que auxiliam na revisão de contratos, analistas exploram dados com apoio de algoritmos, e o uso da inteligência artificial se espalhou de forma veloz no dia a dia corporativo, no entanto, na maioria das empresas, o avanço tecnológico não foi acompanhado por estruturas de controle e governança.
A pesquisa Panorama Nacional 2025, realizada pela Cornerstone Career Services com apoio da ABRH-SP e do Infojobs, mostra que 79,1% dos profissionais brasileiros utilizam IA em suas rotinas, enquanto apenas 23,7% das companhias afirmam ter políticas institucionais sobre o tema.
Esses dados expõem um desequilíbrio entre a operação e a responsabilidade, pois a IA está presente nos processos, mas, na maioria dos casos, sem acompanhamento ou sequer regras.
Esse descompasso já preocupa reguladores. A União Europeia aprovou em 2024 o AI Act, a lei que criou um marco legal para o uso ético de sistemas de IA.
No Brasil, o Projeto de Lei 2.338/2023 propõe regras que incluem transparência, supervisão humana e prestação de contas, enquanto órgãos como o CNJ e a ANPD também vêm debatendo o tema, mas, ainda assim, dentro das empresas, a governança sobre o uso dessa tecnologia continua a ser exceção.
Grande parte das organizações adotou ferramentas de IA de forma espontânea, sem planejamento estratégico, e a tecnologia chegou antes das normas, agravando o problema quando a alta gestão não enxerga os riscos envolvidos.
Ainda há uma percepção equivocada de que criar políticas de governança atrasa a inovação, quando o resultado é o oposto, pois sem diretrizes aumentam as chances de falhas que geram passivos jurídicos e danos à reputação.
Os exemplos são numerosos. Um funcionário que utiliza IA para montar um relatório pode acabar expondo dados sigilosos da empresa ou do cliente, violando a LGPD (Lei Geral de Proteção de Dados – Lei nº 13.709, de 2018).
Campanhas geradas por algoritmos já vêm sendo publicadas sem checagem de autoria, o que gera possibilidade concreta de infração a direitos autorais. Em processos seletivos, o uso de critérios enviesados por ferramentas automatizadas tende a excluir candidatos de forma discriminatória ou imprecisa.
Mesmo em pareceres jurídicos, o uso de IA sem supervisão tem levado à circulação de informações incorretas ou desatualizadas, e quando não há diretrizes, treinamento ou rastreabilidade, a organização perde a capacidade de demonstrar diligência, o que, do ponto de vista jurídico, pesa.
Não importa se a ferramenta foi usada sem autorização da liderança, pois a responsabilidade continua a ser da empresa. O entendimento que vem se consolidando no Brasil e em outras jurisdições é que o dever de controle e supervisão é da organização, portanto, se não há regras, quem responde é a estrutura que permitiu o uso desordenado da tecnologia.
A falta de política formal, de documentação, de protocolos de revisão e de canais de reporte pode ser interpretada como negligência, o que também leva à responsabilização da empresa, como já ocorre em casos de integridade corporativa, assédio e proteção de dados, uma vez que tribunais e órgãos reguladores costumam tratar a falta de estrutura como falha de gestão.
O que precisa constar na política interna para uso da IA?
Uma política de uso responsável da inteligência artificial precisa estabelecer limites e finalidades, prevendo cláusulas de confidencialidade nos contratos com colaboradores e fornecedores.
Projetos que envolvam dados pessoais devem passar por avaliação de impacto e as decisões automatizadas precisam ser rastreáveis. O uso de plataformas abertas com dados sensíveis deve ser proibido, e os fornecedores devem garantir que as ferramentas estejam em conformidade com as normas em vigor.
A empresa também precisa saber o que está contratando, sendo fundamental conhecer a origem dos dados utilizados, verificar licenças, identificar violações autorais em potencial e manter processos de revisão humana, especialmente nas áreas criativas e jurídicas, pois a ausência de revisão pode levar ao uso indevido de informações, distorções e até plágio.
Hoje, muitas dessas ferramentas estão sendo utilizadas sem o conhecimento da alta liderança, o que reforça a necessidade de criar mecanismos de reporte, mapeamento de uso e supervisão. Isso porque ter clareza sobre quem está usando IA, com qual finalidade e sob quais condições, é o primeiro passo para reduzir a exposição a riscos.
Direcionar a inovação, em vez de engessá-la
A construção de uma governança adaptativa não precisa limitar o uso da tecnologia, pois o objetivo não é engessar a inovação, mas direcioná-la com responsabilidade, criando comitês interdisciplinares, registrando fluxos de decisão e envolvendo jurídico, compliance, TI e RH em medidas que fortalecem a organização e evitam passivos desnecessários.
Assim como ocorreu com a LGPD e a Lei Anticorrupção, forma-se um padrão que se repete, no qual a adesão voluntária abre caminho para a regulamentação, que evolui para a fiscalização e culmina na responsabilização.
O uso da inteligência artificial já entrou nessa trajetória, e o que ainda parece flexível hoje logo será objeto de auditorias, exigências contratuais e decisões judiciais.
As empresas que entenderem isso desde já estarão mais preparadas para crescer com segurança, pois a IA tem potencial de acelerar resultados, melhorar processos e gerar valor, mas isso só acontece quando ela é usada com critério.
O futuro corporativo será digital, mas também precisará se manter regulado, e quem não acompanhar esse movimento corre o risco de ficar vulnerável demais para competir.