Een tekenstijl recreëren is een hele kunst. Het kostte de Canadese stripauteur Marc Delafontaine (Delaf) drie jaar om de tekenstijl van de originele auteur van Guust Flater na te bootsen. Hij maakte een database aan met meer dan 10.000 afbeeldingen die als voorbeeld konden dienen voor verschillende personages, objecten en achtergronden. Zo’n database is toevallig net wat een AI-netwerk nodig heeft om afbeeldingen te kunnen imiteren. Wat als een slimme computer het werk van overleden tekenaars kan verderzetten? Striptekenaar Nix onderzocht wat er mogelijk is met de huidige technologie.
Machines leren tekenen
Nix verzamelde voor zijn onderzoek 56.000 afbeeldingen uit zijn stripreeks Kinky & Cosy. Die vergeleek hij met een kleinere dataset van 8.500 afbeeldingen, enkel van hoofdpersonages. Uit vorig onderzoek blijkt namelijk dat AI-systemen het beste werken met grote hoeveelheden data met zo weinig mogelijk visuele variatie. Met die data moest de AI-software zijn tekenstijl leren.
Om een AI in zijn stijl te leren tekenen maakte Nix gebruik van GANs (General Adversarial Networks). Dat is AI-software die bestaat uit twee algoritmes die elkaar continu tegenwerken, om zo tot een betrouwbaar resultaat te komen. Het eerste algoritme is de generator. Die creëert op basis van de voorbeelden die hij te zien krijgt zelf een tekening. Zijn taak is om een vervalst beeld te genereren dat precies in de datareeks past. Het tweede algoritme is de discriminator. Die zal proberen om die nieuwe tekening te onderscheiden van de originele voorbeelden. Zo probeert hij de vervalste beelden te detecteren. Als dat niet lukt, dan is de generator in zijn opzet geslaagd.
Fake it till you make it?
Nix vergeleek drie verschillende AI-netwerken. Het ene netwerk maakte al een betere striptekening dan het andere. Toch was de tendens duidelijk. Als de software de grootste dataset met veel diversiteit kreeg, genereerde die voor het menselijk oog vreemde beelden. Kreeg datzelfde programma de kleinere dataset met enkel de hoofdpersonages, dan waren de resultaten al realistischer.
De voornaamste reden daarvoor? «Die is tweeledig. Enerzijds is de variatie bij strips te groot», legt Marnix uit. «Elk vakje toont een andere scène. De personages kijken niet altijd dezelfde richting uit en de decors veranderen voortdurend. Een GAN heeft duidelijk baat aan minder diversiteit. Die beperking is veroorzaakt door het gebrek aan kennis van de echte wereld.» Want hoewel een GAN niet weet dat een bril geen onderdeel is van een gezicht, weet een striptekenaar als Delaf dat namelijk wel. «Anderzijs was de tweede dataset te beperkt. Hoe meer afbeeldingen een GAN krijgt, hoe nauwkeuriger het resultaat.»
De verbeelding van AI
Het internet staat vol foto’s van mensen. GANs kunnen daardoor wél al een gezicht samenstellen dat niet bestaat. Ook in zijn onderzoek merkte Nix op dat het netwerk iets nieuws uitvond. «Bij één van de afbeeldingen leek het of het personage het hoofd draaide.» Die beweging zat niet in de dataset en kwam dus rechtstreeks uit de verbeelding van het netwerk. Maar volledige strips genereren lukt dus nog niet. Al kan daar volgens Nix snel verandering in komen. «Er zijn op dit moment al AI-netwerken die gesofisticeerd genoeg zijn om van een ruwe schets een afgewerkte tekening te maken.»
Hoewel Nix zeker is dat AI sterk genoeg evolueert om in de nabije toekomst zijn werk te kunnen verrichten, is doemdenken nog niet aan de orde. Wel kan technologie ervoor zorgen dat er, ook voor de creatieve sector, een waardevolle samenwerking onstaat tussen mens en machine.
Marnix Verduyn (KU Leuven) nam deel aan de Vlaamse Scriptieprijs 2022. Lees zijn masterproef op www.scriptiebank.be/strip-ai.