A inteligência artificial generativa (genAI) já é utilizada diariamente em diversos setores por aproximadamente metade dos profissionais. No entanto, de acordo com a mais recente pesquisa Future of Work...
A inteligência artificial (IA) oferece um enorme potencial — desde o aumento da produtividade até a melhoria na gestão da informação. No entanto, como a IA “aprende” a partir dos dados que fornecemos,...
A IA está em todos os lugares — mas a credibilidade, nem sempre. Com 80% dos consultores de gestão já utilizando ferramentas de IA generativa em seu trabalho diário e mais da metade economizando de três...
Consultores de negócios sabem que uma boa estratégia começa com bons dados. Seja ao aconselhar sobre entrada em novos mercados, oportunidades de crescimento ou posicionamento competitivo, os clientes esperam...
As empresas estão cada vez mais adotando uma abordagem API-first, na qual qualquer projeto de IA ou iniciativa digital começa com a definição da API que será utilizada para integrar os dados necessários...
A inteligência artificial generativa (genAI) já é utilizada diariamente em diversos setores por aproximadamente metade dos profissionais.
No entanto, de acordo com a mais recente pesquisa Future of Work da LexisNexis, a adoção de genAI está avançando mais rapidamente do que a governança de IA nas organizações. O resultado? Maior exposição a responsabilidades e riscos.
A genAI deve impulsionar o crescimento da sua organização, não limitá-lo. Neste artigo, ajudaremos você a identificar em que estágio sua organização se encontra na jornada de desenvolvimento em IA, analisando como políticas, diretrizes e treinamentos organizacionais não estão acompanhando o ritmo da adoção. Ao final, apresentamos recomendações práticas para lideranças.
Como Snehit Cherian, CTO da Global Nexis Solutions, já destacou, o valor mais duradouro da genAI está em ampliar o esforço humano, liberando profissionais para focarem em atividades mais estratégicas e de maior valor. O relatório Future of Work Report 2026: Generative AI — Tool, Colleague, or Liability confirma essa visão, ao mesmo tempo em que evidencia lacunas de supervisão, confiança e governança que podem comprometer esse potencial.
De acordo com nossa pesquisa, a genAI já está profundamente integrada aos fluxos de trabalho profissionais. Aproximadamente metade dos profissionais relata uso frequente, abrangendo desde suporte básico até execução completa de tarefas.
Entretanto, enquanto a adoção acelerou, a governança e a preparação não acompanharam esse ritmo. O resultado é um desalinhamento crescente entre a percepção da liderança e a realidade operacional, potencialmente expondo organizações a riscos legais, de segurança e reputacionais.
Os dados deste ano destacam três temas críticos que estão moldando o futuro do trabalho:
A adoção de genAI está acontecendo com ou sem aprovação formal. Embora líderes acreditem que políticas e controles estejam em vigor, os dados revelam um cenário mais preocupante.
Mais da metade dos profissionais entrevistados (53%) afirma utilizar ferramentas de genAI sem aprovação formal. Quase um terço (28%) diz que sua organização não possui nenhuma política de genAI, e 42% sequer sabem se existe uma. Além disso, 55% pagam por suas próprias ferramentas de IA, sendo que a maioria as utiliza para fins profissionais.
Essa é a realidade do shadow AI: colaboradores resolvendo problemas reais com as ferramentas disponíveis, muitas vezes fora de sistemas e controles aprovados.
A lacuna de governança é, em grande parte, resultado de desalinhamento. As equipes avançam mais rápido do que a infraestrutura criada para apoiá-las, gerando exposições que a liderança pode não perceber até que um problema ocorra.
Não há dúvidas de que a genAI está gerando ganhos de produtividade. Profissionais passam a enxergar modelos de IA como mais do que simples ferramentas. Quase 40% já veem a genAI como colaboradora ou parceira, e 16% confiam nela para executar tarefas completas. Esses movimentos refletem uma integração mais profunda aos fluxos de trabalho e ganhos reais de eficiência.
Isso está alinhado com a visão de liderança que posiciona a genAI como uma “colega de trabalho de suporte”, e não como substituta. No entanto, os dados também mostram que esses ganhos são frágeis quando baseados em uso não governado.
Um dos achados mais relevantes do relatório de 2026 é a lacuna entre confiança e compreensão.
Quase 64% dos profissionais afirmam estar muito ou extremamente confiantes no uso responsável da IA. À primeira vista, isso parece positivo. Na prática, cria uma nova categoria de risco.
Muitos profissionais admitem não compreender totalmente:
Mais de um terço afirma ter baixa confiança na compreensão das fontes de dados da IA, e outro terço tem dificuldade em identificar quando seu uso é inadequado. Ao mesmo tempo, cresce a confiança nos outputs da IA, que passam a ser utilizados em entregas de maior criticidade, muitas vezes sem validação consistente.
A combinação de alta confiança, baixa visibilidade e uso ampliado cria um ponto cego de risco. O que começa como suporte para brainstorming ou redação pode evoluir silenciosamente para decisões com impacto legal, financeiro ou reputacional.
Os riscos aumentam à medida que a IA evolui de suporte para execução autônoma.
Mais da metade dos profissionais afirma que sua organização já implementou agentes internos de IA, mas apenas 44% entendem claramente o que são esses agentes. Um quarto relata compreensão mínima ou insuficiente, e alguns nem sabem se esses sistemas estão em uso.
Apesar disso, a maioria ainda espera envolvimento humano:
O aumento da autonomia, combinado com compreensão limitada, evidencia que modelos de governança projetados para IA assistiva já não são suficientes. À medida que sistemas passam a atuar, aspectos como responsabilização, explicabilidade e supervisão precisam ser incorporados desde a concepção.
Os dados de 2026 deixam claro que experimentação sem validação introduz riscos significativos — e que governança deve evoluir junto com a adoção.
A cobertura de treinamentos melhorou significativamente: 82% dos profissionais recebem algum tipo de capacitação em IA, contra 72% no ano anterior. Há forte correlação entre treinamento e confiança — quase 80% daqueles com treinamento obrigatório relatam alta confiança no uso da IA.
No entanto, treinamento por si só não é suficiente e, em alguns casos, pode até aumentar o risco.
Profissionais com treinamento obrigatório apresentam taxas significativamente maiores de uso não autorizado de IA em comparação àqueles sem treinamento. Isso sugere que conscientização sem ferramentas adequadas, acesso apropriado ou governança estruturada pode levar colaboradores a buscar soluções paralelas quando as opções oficiais não atendem às necessidades.
A força de trabalho está pronta e disposta a adotar IA. O desafio é se as organizações estão oferecendo ferramentas confiáveis, seguras e validadas que acompanhem as demandas reais.
Em conjunto, os dados apontam para uma conclusão clara: a estratégia de genAI agora é uma estratégia de modelo operacional.
Organizações que continuam focando apenas em métricas de adoção — como uso, volume de ferramentas ou experimentação — deixarão de capturar a transformação mais profunda em curso. A próxima fase do futuro do trabalho será definida por accountability, não por acesso.
Organizações preparadas estão:
A grande mudança de 2026 não é mais perguntar “A IA consegue fazer isso?”, mas sim “Devemos confiar em como ela faz isso — e estamos protegidos quando ela faz?”.
Este artigo apresenta apenas parte dos insights do relatório Future of Work Report 2026: Generative AI — Tool, Colleague, or Liability?. O material completo aprofunda padrões de adoção, lacunas de preparo e riscos de governança em diversos setores, oferecendo uma visão clara de onde as organizações estão — e o que vem a seguir.
Para entender como sua organização se compara e como fechar essa lacuna de forma responsável, baixe o relatório completo.
Baixar o relatório completo Obter insights por setor
Email: brasil@lexisnexis.com
Téléphone: +551142809193