Gebruik deze knop om te wisselen tussen donkere en lichte modus.

AI governance verbeteren: inzichten over risico en vertrouwen

Generatieve AI (genAI) wordt inmiddels dagelijks gebruikt in verschillende sectoren door ongeveer de helft van de werkende professionals.

Maar volgens het recente LexisNexis Future of Work-onderzoek groeit de adoptie van genAI sneller dan de AI governance binnen organisaties. Het gevolg: verhoogde aansprakelijkheid en risico’s.

GenAI zou organisaties moeten helpen groeien, niet afremmen. In deze blog krijg je inzicht in waar jouw organisatie staat in de AI-volwassenheid. We laten zien hoe beleid, richtlijnen en training achterblijven bij de adoptiesnelheid van AI en sluiten af met concrete vervolgstappen.

AI en de toekomst van werk

Zoals Snehit Cherian, CTO van Global Nexis Solutions, eerder aangaf, ligt de blijvende waarde van genAI in het versterken van menselijk werk. Professionals krijgen hierdoor ruimte om zich te richten op strategische en waardetoevoegende activiteiten.

Het rapport Future of Work 2026: Generative AI — Tool, Colleague, or Liability bevestigt dit, maar laat ook zien waar tekortkomingen in toezicht, vertrouwen en controle deze waarde onder druk zetten.

Uit het onderzoek blijkt dat genAI al diep is geïntegreerd in dagelijkse werkprocessen. Ongeveer de helft van de professionals gebruikt genAI regelmatig, variërend van eenvoudige ondersteuning tot volledige taakuitvoering.

Tegelijkertijd blijft governance achter bij deze ontwikkeling. Hierdoor ontstaat een groeiende kloof tussen perceptie op directieniveau en de operationele realiteit, met mogelijke juridische, security- en reputatierisico’s tot gevolg.

Download het rapport

Drie belangrijke thema’s uit het onderzoek

  1. Een groeiende governancecrisis door shadow AI
  2. Toenemende overconfidence die risico’s maskeert
  3. Vooruitgang in training, maar ongelijke toegang

Belangrijk inzicht 1: AI governance is de grootste blinde vlek van leiderschap

De adoptie van genAI vindt plaats, met of zonder formele goedkeuring. Waar leiders denken dat beleid en controle aanwezig zijn, schetst de praktijk een ander beeld.

Meer dan de helft van de professionals (53%) gebruikt genAI-tools zonder formele toestemming. Bijna een derde (28%) geeft aan dat er helemaal geen beleid is, en 42% weet niet of het bestaat. Tegelijkertijd betaalt 55% zelf voor AI-tools, vaak voor werkgerelateerde toepassingen.

Dit is de realiteit van shadow AI: medewerkers lossen concrete problemen op met beschikbare tools, vaak buiten goedgekeurde systemen en beveiligingskaders.

De oorzaak ligt vooral in een gebrek aan afstemming. Teams bewegen sneller dan de ondersteunende infrastructuur, waardoor risico’s ontstaan die pas zichtbaar worden als het misgaat.

AI-productiviteit is reëel, maar kwetsbaar

GenAI levert aantoonbare productiviteitswinst op. Professionals zien AI steeds vaker als meer dan een tool:

  • Bijna 40% beschouwt genAI als een samenwerkingspartner
  • 16% vertrouwt AI volledige taken toe

Dit wijst op een diepere integratie in werkprocessen en daadwerkelijke efficiëntieverbetering.

Maar deze winst is kwetsbaar wanneer deze gebaseerd is op ongecontroleerd gebruik.

Belangrijk inzicht 2: Organisaties zijn in theorie voorbereid, maar in de praktijk kwetsbaar

Een opvallende uitkomst uit het rapport van 2026 is de kloof tussen vertrouwen en begrip.

Bijna 64% van de professionals zegt zeer of extreem vertrouwen te hebben in het verantwoord gebruik van AI. Op het eerste gezicht positief, maar in de praktijk introduceert dit nieuwe risico’s.

Veel professionals geven aan onvoldoende inzicht te hebben in:

  • De herkomst van AI-output
  • Hoe conclusies tot stand komen
  • Wanneer AI niet geschikt is

Meer dan een derde voelt zich onzeker over databronnen van AI, en een vergelijkbare groep weet niet goed wanneer AI ongeschikt is voor een taak.

Tegelijkertijd groeit het vertrouwen in AI-output, waardoor deze steeds vaker wordt gebruikt in kritische deliverables — vaak zonder consistente validatie.

De combinatie van hoog vertrouwen, beperkt inzicht en toenemend gebruik creëert een risicovolle blinde vlek.

Wanneer AI van ondersteunen naar handelen gaat

De risico’s nemen verder toe naarmate AI evolueert van ondersteunend naar autonoom handelend.

Meer dan de helft van de professionals geeft aan dat hun organisatie interne AI-agents heeft geïntroduceerd, terwijl slechts 44% duidelijk begrijpt wat deze agents zijn.

Ondanks deze beperkte kennis blijft de behoefte aan menselijke controle groot:

  • 65% vindt menselijke validatie zeer belangrijk
  • 56% wil betrokkenheid in elke fase
  • Slechts 9% ondersteunt minimale controle

Deze ontwikkeling laat zien dat governance die is ontworpen voor ondersteunende AI niet langer volstaat.

Wanneer systemen zelfstandig handelen, moeten accountability, uitlegbaarheid en controle vanaf het begin ingebouwd zijn.

Belangrijk inzicht 3: AI-training vergroot vertrouwen, maar toegang blijft ongelijk

De dekking van AI-training is toegenomen: 82% van de professionals ontvangt training, tegenover 72% een jaar eerder.

Training correleert sterk met vertrouwen: bijna 80% van de professionals met verplichte training voelt zich zeer zeker in het gebruik van AI.

Maar training alleen is onvoldoende — en kan risico’s zelfs vergroten.

Professionals met verplichte training gebruiken vaker ongeautoriseerde AI-tools dan medewerkers zonder training. Dit suggereert dat bewustzijn zonder passende tools of governance leidt tot shadow AI.

De workforce is klaar voor AI. De vraag is of organisaties veilige, gevalideerde en bruikbare oplossingen bieden die aansluiten op de praktijk.

Van AI-adoptie naar accountability

De conclusie is duidelijk: een genAI-strategie is inmiddels een operationeel vraagstuk.

Organisaties die zich blijven richten op adoptie (gebruik, tools, experimenten) missen de fundamentele verschuiving. De volgende fase draait om verantwoordelijkheid en controle.

Voorbereide organisaties

  • Integreren validatie van AI-output in workflows
  • Behandelen vertrouwen als meetbare factor
  • Koppelen training aan goedgekeurde tools en duidelijke kaders
  • Ontwikkelen governance voor handelende AI

De centrale vraag in 2026 is niet langer:

“Kan AI dit?”

maar:

“Kunnen we vertrouwen op hoe AI dit doet — en zijn we beschermd?”

Benieuwd hoe AI-ready jouw organisatie is?

Doe de AI-check

Volgende stap: Download het AI en Future of Work rapport

Dit artikel belicht slechts een deel van de inzichten uit het rapport Future of Work 2026: Generative AI — Tool, Colleague, or Liability.

Het volledige rapport biedt verdieping in adoptiepatronen, governance-risico’s en maturity gaps per sector.

Wil je weten hoe jouw organisatie zich verhoudt tot de markt en hoe je de kloof tussen adoptie en governance verantwoord overbrugt?

Download het volledige rapport

Neem contact met ons op

E-mail: support@lexisnexis.eu
Telefoonnummer: +31 (0) 20 485 3456