10 Apr 2026
Aprimorando a governança de IA: o que as pesquisas mais recentes revelam sobre produtividade, confiança e IA que atua
A inteligência artificial generativa (genAI) já é utilizada diariamente em diversos setores por aproximadamente metade dos profissionais.
No entanto, de acordo com a mais recente pesquisa Future of Work da LexisNexis, a adoção de genAI está avançando mais rapidamente do que a governança de IA nas organizações. O resultado? Maior exposição a responsabilidades e riscos.
A genAI deve impulsionar o crescimento da sua organização, não limitá-lo. Neste artigo, ajudaremos você a identificar em que estágio sua organização se encontra na jornada de desenvolvimento em IA, analisando como políticas, diretrizes e treinamentos organizacionais não estão acompanhando o ritmo da adoção. Ao final, apresentamos recomendações práticas para lideranças.
IA e o futuro do trabalho
Como Snehit Cherian, CTO da Global Nexis Solutions, já destacou, o valor mais duradouro da genAI está em ampliar o esforço humano, liberando profissionais para focarem em atividades mais estratégicas e de maior valor. O relatório Future of Work Report 2026: Generative AI — Tool, Colleague, or Liability confirma essa visão, ao mesmo tempo em que evidencia lacunas de supervisão, confiança e governança que podem comprometer esse potencial.
De acordo com nossa pesquisa, a genAI já está profundamente integrada aos fluxos de trabalho profissionais. Aproximadamente metade dos profissionais relata uso frequente, abrangendo desde suporte básico até execução completa de tarefas.
Entretanto, enquanto a adoção acelerou, a governança e a preparação não acompanharam esse ritmo. O resultado é um desalinhamento crescente entre a percepção da liderança e a realidade operacional, potencialmente expondo organizações a riscos legais, de segurança e reputacionais.
Os dados deste ano destacam três temas críticos que estão moldando o futuro do trabalho:
- Uma crescente crise de governança impulsionada pelo shadow AI
- Excesso de confiança que mascara riscos reais
- Avanços em treinamento que aumentam a confiança, mas mantêm o acesso desigual
Principal insight 1: A crise de governança em IA é o maior ponto cego da liderança
A adoção de genAI está acontecendo com ou sem aprovação formal. Embora líderes acreditem que políticas e controles estejam em vigor, os dados revelam um cenário mais preocupante.
Mais da metade dos profissionais entrevistados (53%) afirma utilizar ferramentas de genAI sem aprovação formal. Quase um terço (28%) diz que sua organização não possui nenhuma política de genAI, e 42% sequer sabem se existe uma. Além disso, 55% pagam por suas próprias ferramentas de IA, sendo que a maioria as utiliza para fins profissionais.
Essa é a realidade do shadow AI: colaboradores resolvendo problemas reais com as ferramentas disponíveis, muitas vezes fora de sistemas e controles aprovados.
A lacuna de governança é, em grande parte, resultado de desalinhamento. As equipes avançam mais rápido do que a infraestrutura criada para apoiá-las, gerando exposições que a liderança pode não perceber até que um problema ocorra.
Os ganhos de produtividade com IA são reais, mas frágeis
Não há dúvidas de que a genAI está gerando ganhos de produtividade. Profissionais passam a enxergar modelos de IA como mais do que simples ferramentas. Quase 40% já veem a genAI como colaboradora ou parceira, e 16% confiam nela para executar tarefas completas. Esses movimentos refletem uma integração mais profunda aos fluxos de trabalho e ganhos reais de eficiência.
Isso está alinhado com a visão de liderança que posiciona a genAI como uma “colega de trabalho de suporte”, e não como substituta. No entanto, os dados também mostram que esses ganhos são frágeis quando baseados em uso não governado.
Principal insight 2: Organizações estão preparadas na teoria, mas expostas na prática
Um dos achados mais relevantes do relatório de 2026 é a lacuna entre confiança e compreensão.
Quase 64% dos profissionais afirmam estar muito ou extremamente confiantes no uso responsável da IA. À primeira vista, isso parece positivo. Na prática, cria uma nova categoria de risco.
Muitos profissionais admitem não compreender totalmente:
- De onde vêm os resultados da IA
- Como as conclusões são geradas
- Quando a IA não deve ser utilizada
Mais de um terço afirma ter baixa confiança na compreensão das fontes de dados da IA, e outro terço tem dificuldade em identificar quando seu uso é inadequado. Ao mesmo tempo, cresce a confiança nos outputs da IA, que passam a ser utilizados em entregas de maior criticidade, muitas vezes sem validação consistente.
A combinação de alta confiança, baixa visibilidade e uso ampliado cria um ponto cego de risco. O que começa como suporte para brainstorming ou redação pode evoluir silenciosamente para decisões com impacto legal, financeiro ou reputacional.
Quando a IA deixa de apoiar e passa a atuar
Os riscos aumentam à medida que a IA evolui de suporte para execução autônoma.
Mais da metade dos profissionais afirma que sua organização já implementou agentes internos de IA, mas apenas 44% entendem claramente o que são esses agentes. Um quarto relata compreensão mínima ou insuficiente, e alguns nem sabem se esses sistemas estão em uso.
Apesar disso, a maioria ainda espera envolvimento humano:
- 65% afirmam que a validação humana é muito ou extremamente importante
- 56% acreditam que humanos devem participar em todas as etapas
- Apenas 9% apoiam supervisão humana mínima
O aumento da autonomia, combinado com compreensão limitada, evidencia que modelos de governança projetados para IA assistiva já não são suficientes. À medida que sistemas passam a atuar, aspectos como responsabilização, explicabilidade e supervisão precisam ser incorporados desde a concepção.
Os dados de 2026 deixam claro que experimentação sem validação introduz riscos significativos — e que governança deve evoluir junto com a adoção.
Principal insight 3: Treinamento em IA aumenta a confiança, mas o acesso ainda é desigual
A cobertura de treinamentos melhorou significativamente: 82% dos profissionais recebem algum tipo de capacitação em IA, contra 72% no ano anterior. Há forte correlação entre treinamento e confiança — quase 80% daqueles com treinamento obrigatório relatam alta confiança no uso da IA.
No entanto, treinamento por si só não é suficiente e, em alguns casos, pode até aumentar o risco.
Profissionais com treinamento obrigatório apresentam taxas significativamente maiores de uso não autorizado de IA em comparação àqueles sem treinamento. Isso sugere que conscientização sem ferramentas adequadas, acesso apropriado ou governança estruturada pode levar colaboradores a buscar soluções paralelas quando as opções oficiais não atendem às necessidades.
A força de trabalho está pronta e disposta a adotar IA. O desafio é se as organizações estão oferecendo ferramentas confiáveis, seguras e validadas que acompanhem as demandas reais.
Da adoção de IA à accountability
Em conjunto, os dados apontam para uma conclusão clara: a estratégia de genAI agora é uma estratégia de modelo operacional.
Organizações que continuam focando apenas em métricas de adoção — como uso, volume de ferramentas ou experimentação — deixarão de capturar a transformação mais profunda em curso. A próxima fase do futuro do trabalho será definida por accountability, não por acesso.
Organizações preparadas estão:
- Incorporando validação de outputs de IA diretamente nos fluxos de trabalho
- Tratando a confiança como algo mensurável, não presumido
- Alinhando treinamentos a ferramentas aprovadas e diretrizes claras
- Planejando governança para IA que atua, e não apenas auxilia
A grande mudança de 2026 não é mais perguntar “A IA consegue fazer isso?”, mas sim “Devemos confiar em como ela faz isso — e estamos protegidos quando ela faz?”.
Próximos passos: explore o relatório AI and the Future of Work
Este artigo apresenta apenas parte dos insights do relatório Future of Work Report 2026: Generative AI — Tool, Colleague, or Liability?. O material completo aprofunda padrões de adoção, lacunas de preparo e riscos de governança em diversos setores, oferecendo uma visão clara de onde as organizações estão — e o que vem a seguir.
Para entender como sua organização se compara e como fechar essa lacuna de forma responsável, baixe o relatório completo.
Baixar o relatório completo Obter insights por setor