Deep fake

Liam van Koert

Deep learning en nauwgezette beeldherkenning. Het is dan slechts een kleine stap om het herkende zelf weer te geven en in steeds meer apps gebeurt dat dus ook. Een van de favoriete voorbeelden van mijn dochter is videobellen via Messenger. Zit ik weer eens in het buitenland en laat ik het thuisfront meegenieten van het uitzicht, dan kan ik er mijn klok - soms plus of min een paar hele uren - op gelijk zetten: in plaats van mijn dochter is het een mauwende kat die antwoord geeft. Of beter nog: een vuurspuwende draak. En met halloween is een ‘dias de los muertes’ geschilderd gezicht ­natuurlijk favoriet. Het ‘augmented’ en oorspronkelijke gezicht liggen hierbij precies over elkaar heen. Knippert mijn dochter? Dan knippert ook haar ‘avatar’. Doet ze haar mond open? Dan gromt de kat, ontbloot het skelet zijn benige tanden en laat de draak zich een vuurbal ontglippen. De software houdt de gezichtsuitdrukkingen van de gebruiker namelijk nauwlettend in de gaten, leert en projecteert. Overigens is het tegenwoordig vooral tic toc dat de ‘augmented’ projectieklok slaat, maar dat terzijde.

Nu zijn videobellen en filmpjes opleuken een ding. Het verzorgen van complete gedaanteverwisselingen een heel ander. Toch gebeurt ook dit in toenemende mate. En steeds professioneler. Soms voor de lol. Soms voor het ­onderzoeken van de technische grenzen. Soms voor het genereren van clicks en de bijbehorende pesos. Net als wel vaker op het internet loopt hier de porno-industrie voorop. Jouw ­favoriete model in jouw favoriete fantasie?

U vraagt, wij ‘morphen’. Deep fake wordt de ­onderliggende technologie genoemd die naast beeld overigens ook met geluid mogelijk is.

Het is natuurlijk een kleine gedachtestap deep fake door te trekken naar het publieke domein. Een krachtige tool voor de beïnvloeding van meningen tijdens bijvoorbeeld verkiezingen. ‘Fake news’ riep een dubieuze president al eens te pas en te onpas. Een nieuwe realiteit die zich zelfs met bewijzende beelden steeds lastiger laat toetsen door Jan met de pet (heeft hij er wel echt een op?!). In een interessant item dat onlangs in wired verscheen, lieten deep fake experts weten dat de ultieme niet van echt te onderscheiden replica vooralsnog toekomstmuziek is. Maar lang zal dat niet ­duren. Moet de consument zich nu in allerijl de tools eigen maken om deep fake content te ontkrachten? Onbegonnen werk. Beter is een gezonde scepsis te ontwikkelen ten aanzien van al te ­opmerkelijke zaken. Een nieuwe ­mediawijsheid. Klinkt het te mooi om waar te zijn? Dan is het dat waarschijnlijk ook.

Qua deep fake teksten loopt het overigens ook zo’n vaart nog niet. Reden dat Wallenski - onze eigen robotcolumbist - er even tussenuit gaat voor een welverdiende vakantie. En of dat waar is, moet u zelf maar afwegen.

Liam van Koert