vrijdag 26 april 2024
HomeInternetDe gevaren van deepfakes en de gevolgen voor onze herinneringen

De gevaren van deepfakes en de gevolgen voor onze herinneringen

Je hebt het vast wel eens voorbij zien komen, een foto van de paus in een enorme witte donsjas of de bekende “This is not Morgan Freeman”- video die rond circuleerde op Youtube. Dit zijn allemaal voorbeelden van deepfakes. Hierbij gaat het om misleidende media waarin personen met behulp van kunstmatige intelligentie (AI) zijn hervormd tot bijvoorbeeld beroemdheden. In de meeste gevallen is dit onschuldig, maar je kunt je vast wel bedenken waarom het ook gevaren met zich meebrengt. Denk bijvoorbeeld aan het creëren van nepnieuws of phishing. Daarnaast kunnen ze volgens het recente onderzoek van ExpressVPN ook collectieve herinneringen aantasten.

Wat zijn deepfakes

Deepfake gaat om een combinatie van “deep learning” en “fake”. Deep learning verwijst naar de techniek die gebruikt wordt bij kunstmatige intelligentie. Computers kunnen met behulp van deep learning grote hoeveelheden nieuwe gegevens leren. Deze data kan dus ook in de vorm van geluid of beeld voorkomen. Bij een deepfake zet de computer deep learning in om verschillende media, zoals video en geluid, samen te voegen. Vaak wordt het gezicht van een persoon over een ander videofragment geplaatst. Deze wordt dan aangevuld met gemanipuleerde stemgeluiden en zo wordt er dus een nieuw mediafragment gecreëerd waarin mensen dingen zeggen of doen die ze in werkelijkheid nooit hebben gezegd of gedaan. Deepfakes die moeilijk te onderscheiden zijn van de realiteit, zijn vaak gemaakt met behulp van duizenden mediabeelden. Dit soort technologie was voorheen alleen te vinden in filmstudio’s, maar de laatste tijd is het ook gratis te downloaden en gebruiken. Denk bijvoorbeeld aan Snapchat. Dit sociale media platform geeft gebruikers de mogelijkheid om via Snapchat-filters een minimalistische vorm van deepfakes te gebruiken.

Gevaren van deepfakes

Een van de enkele zorgelijke consequenties van deepfakes is dat ze kunnen worden gebruikt voor gevaarlijke doeleinden zoals het creëren van nepnieuws en verspreiden van propaganda om politieke opinie te beïnvloeden. Doordat deepfakes erg realistisch kunnen ogen kan het er ook voor zorgen dat mensen geloven dat ze iets hebben gezien wat nooit echt is gebeurd. Dit kan er uiteindelijk voor zorgen dat zij zich een nep scenario gaan herinneren als feit. Dit kan op den duur bijdragen tot het Mandela-effect. Bij het Mandela-effect spreken we over het fenomeen waarbij mensen collectief gebeurtenissen of feiten verkeerd herinneren door misinformatie. Wanneer deepfakes bijvoorbeeld worden ingezet bij de verspreiding van nepnieuws kunnen deze zo realistisch lijken dat ze overtuigend overkomen. Indien het niet te achterhalen valt of deze gebeurtenissen daadwerkelijk zijn gebeurd, kan het voorkomen dat het uiteindelijk leidt tot een vertekend beeld van deze gebeurtenissen.

Hoe kunnen we deepfakes herkennen?

Ondanks dat deepfakes realistisch ogen, zijn er enkele manieren om ze te herkennen. Let bijvoorbeeld goed op of lip- en oogbewegingen er realistisch uitzien door op de schaduwen, oogkleur, en moedervlekken te letten. Daarnaast kun je extra opletten of er inconsistenties zijn in de verlichting en reflecties die niet overeenkomen met de persoon in de video. Ook kun je zoeken naar inconsistenties en vervormingen van gezichten in de deepfake. Vaak zijn deze herkenbaar in de textuur van de wangen, wenkbrauwen, of het voorhoofd.

Dit vind je misschien ook leuk

Het laatste technieuws