Media monitoring is van cruciaal belang voor alle organisaties, zeker tijdens een crisis. Hoe effectiever de monitoring, hoe sneller je goed geïnformeerd bent en de juiste stappen kunt zetten. Crises kunnen...
Reputatiebeheer tijdens een crisis Het kost jaren om een sterke reputatie op de bouwen. Een onhandige opmerking kan een zorgvuldig opgebouwd imago in een klap tenietdoen. Imagoschade kan ontstaan door...
In een crisissituatie draait alles om tijd. Hoe sneller je kunt reageren, des te beter je in staat bent om de situatie onder controle te krijgen en je reputatie te beschermen. Dit is waar real-time media...
Voor het opbouwen van een sterk merk is kwalitatieve content onmisbaar. Maar als het gaat om het beheren van reputatierisico's, is de context cruciaal. Reputatie wordt gevormd door perceptie, en om reputatierisico...
Het medialandschap verandert voortdurend. Nieuwe platforms en communicatiekanalen lijken dagelijks geïntroduceerd te worden; trends komen en gaan in een oogwenk. Dat betekent dat geen enkele communicatiestrategie...
Je hebt vast al kennis gemaakt met een nieuwe technologie die de mogelijkheid heeft om de waarheid te verhullen: Deepfake video's. Met behulp van geavanceerde, en vaak verrassend makkelijke, computersoftware, kunnen zeer realistische audio of visuele uitingen gemaakt worden waarin mensen dingen doen of zeggen die door de maker van de video zijn bedacht. In 2021 raakten zelfs Tweede Kamer leden misleid door een deepfake.
De technologie waarmee deze soms misleidende video’s gemaakt worden is steeds eenvoudiger te verkrijgen, zoals apps die iedereen kan installeren en gebruiken. Wat zijn hiervan de gevolgen? Kan straks iedereen van alles verspreiden online en hoe weten we nog wat echt is en wat niet?
Deepfake is een techniek die ontwikkeld is door en voor de filmindustrie. De aanleiding was destijds het overlijden van een acteur terwijl de film waarin hij speelde nog niet af was. Inmiddels is de techniek wijdverspreid en wordt deze door diverse gebruikers ingezet voor verschillende doelen, van grappig tot manipulerend.
Een voorbeeld dat veel in het nieuws is geweest is een video waarin in intro van de jaren ’90 komedie Full House alle gezichten van de cast vervangen zijn door het gezicht van de komiek Nick Offerman. Hijzelf was niet betrokken bij het maken van de video maar op de een of ander manier passen zijn gezicht en bewegingen toch perfect bij alle personages en is het griezelig echt.
Meer alarmerende voorbeelden zijn de uitspraken van wereldleiders zoals Volodymyr Zelensky, die nooit echt hebben plaatsgevonden maar die wel erg realistisch en geloofwaardig over kwamen.
Met de Deepfake technologie is elke persoon en organisatie mogelijk dicht bij een potentiële ramp. Want hoe kun je een vertrouwensband opbouwen wanneer dit soort video’s de lijn tussen de feiten en fictie vervagen? Om deze reden zie je momenteel ook de trend dat er wapens worden ontwikkeld tegen Deepfake video’s. Je kunt bijvoorbeeld mensen die voor de camera staan vooraf trainen in het gebruik van bewegingen die het heel moeilijk maken voor softwareprogramma’s om deze te kopiëren en te gebruiken voor een Deepfake uiting. Bijvoorbeeld het knipperen met ogen is een uitdaging voor Deepfake software. In echte video’s knipperen mensen vaak en snel, in Deepfake video’s is dit vaak trager en minder frequent.
Maar dit is niet voldoende, nieuwsorganisaties moeten ook gaan nadenken over een verdedigende strategie tegen Deepfakes. Net als pr-professionals die een plan moeten hebben voor als het misgaat en een Deepfake video een bedreiging vormt voor hun merk of product.
En zolang volledig voorkomen nog geen optie is, is het het beste goed te blijven monitoren wat er over jouw organisatie wordt gezegd in de media. Nexis Newsdesk is daar de ideale oplossing voor. Alleen door te monitoren kun je er op tijd bij zijn om een crisis te voorkomen.
Deepfake, fact checking, social listening. Hoe goed ben jij al op de hoogte van alle termen die er tot doen? Bekijk onze begrippenlijst!
E-mail: support@lexisnexis.eu
Telefoonnummer: +31 (0) 20 485 3456