Als je in communicatie, mediarelaties of reputatiemanagement werkt, herken je de druk vast: meer content, snellere reacties, strakkere budgetten en een steeds groeiende lijst van kanalen om te beheren...
Kunstmatige intelligentie (AI) verandert razendsnel hoe we werken en de wereld van public relations vormt daarop geen uitzondering. Wat ooit begon als een modewoord, is nu een dagelijks hulpmiddel voor...
Als communicatie en PR professional steek je veel tijd in branding, het opzetten van campagnes en het creëren van nieuws rondom jouw merk of organisatie. Dan wil je toch ook kunnen meten wat uit deze inspanningen...
Met een sentiment analyse kun je de onderliggende toon en emotie in teksten detecteren. Met behulp van geavanceerde algoritmen en natuurlijke taalverwerking, wordt geanalyseerd of de inhoud een positieve...
Media aandacht: dat wordt elke communicatie professional enthousiast van! Want als je het goed doet zorgt het voor naamsbekendheid, geloofwaardigheid en meer bereik. In deze blog vertellen we je er meer...
Je hebt vast al kennis gemaakt met een nieuwe technologie die de mogelijkheid heeft om de waarheid te verhullen: Deepfake video's. Met behulp van geavanceerde, en vaak verrassend makkelijke, computersoftware, kunnen zeer realistische audio of visuele uitingen gemaakt worden waarin mensen dingen doen of zeggen die door de maker van de video zijn bedacht. In 2021 raakten zelfs Tweede Kamer leden misleid door een deepfake.
De technologie waarmee deze soms misleidende video’s gemaakt worden is steeds eenvoudiger te verkrijgen, zoals apps die iedereen kan installeren en gebruiken. Wat zijn hiervan de gevolgen? Kan straks iedereen van alles verspreiden online en hoe weten we nog wat echt is en wat niet?
Deepfake is een techniek die ontwikkeld is door en voor de filmindustrie. De aanleiding was destijds het overlijden van een acteur terwijl de film waarin hij speelde nog niet af was. Inmiddels is de techniek wijdverspreid en wordt deze door diverse gebruikers ingezet voor verschillende doelen, van grappig tot manipulerend.
Een voorbeeld dat veel in het nieuws is geweest is een video waarin in intro van de jaren ’90 komedie Full House alle gezichten van de cast vervangen zijn door het gezicht van de komiek Nick Offerman. Hijzelf was niet betrokken bij het maken van de video maar op de een of ander manier passen zijn gezicht en bewegingen toch perfect bij alle personages en is het griezelig echt.
Meer alarmerende voorbeelden zijn de uitspraken van wereldleiders zoals Volodymyr Zelensky, die nooit echt hebben plaatsgevonden maar die wel erg realistisch en geloofwaardig over kwamen.
Met de Deepfake technologie is elke persoon en organisatie mogelijk dicht bij een potentiële ramp. Want hoe kun je een vertrouwensband opbouwen wanneer dit soort video’s de lijn tussen de feiten en fictie vervagen? Om deze reden zie je momenteel ook de trend dat er wapens worden ontwikkeld tegen Deepfake video’s. Je kunt bijvoorbeeld mensen die voor de camera staan vooraf trainen in het gebruik van bewegingen die het heel moeilijk maken voor softwareprogramma’s om deze te kopiëren en te gebruiken voor een Deepfake uiting. Bijvoorbeeld het knipperen met ogen is een uitdaging voor Deepfake software. In echte video’s knipperen mensen vaak en snel, in Deepfake video’s is dit vaak trager en minder frequent.
Maar dit is niet voldoende, nieuwsorganisaties moeten ook gaan nadenken over een verdedigende strategie tegen Deepfakes. Net als pr-professionals die een plan moeten hebben voor als het misgaat en een Deepfake video een bedreiging vormt voor hun merk of product.
En zolang volledig voorkomen nog geen optie is, is het het beste goed te blijven monitoren wat er over jouw organisatie wordt gezegd in de media. Nexis Newsdesk is daar de ideale oplossing voor. Alleen door te monitoren kun je er op tijd bij zijn om een crisis te voorkomen.
Deepfake, fact checking, social listening. Hoe goed ben jij al op de hoogte van alle termen die er tot doen? Bekijk onze begrippenlijst!
E-mail: support@lexisnexis.eu
Telefoonnummer: +31 (0) 20 485 3456