Generatieve AI voor afbeeldingen heeft zich razendsnel ontwikkeld. Ik werk hier zelf al langere tijd mee en begon ooit met Stable Diffusion 1.5, vooral omdat er toen simpelweg nog weinig keuze was. Inmiddels is dat compleet anders en zijn er veel modellen bijgekomen, zoals SDXL, SD 3.5, Flux, Qwen, Wan, Pony en Illustrious. In dit artikel geef ik een overzicht van deze modellen en geef ik je een tijdlijn.
Korte geschiedenis van open-source generatieve AI (afbeeldingen)
De doorbraak van open-source generatieve AI voor afbeeldingen begon in 2022 met de release van Stable Diffusion 1.4 en later 1.5. Het werd ontwikkeld door Stability AI in samenwerking met onder andere CompVis en Runway. In tegenstelling tot eerdere modellen zoals DALL·E en Midjourney, die gesloten systemen waren, maakte Stable Diffusion het mogelijk om lokaal afbeeldingen te genereren en modellen vrij aan te passen.
In 2023 volgde SDXL, dat een duidelijke stap vooruit zette in beeldkwaliteit en compositie. Daarna verschoof de ontwikkeling naar meer gespecialiseerde en efficiënte modellen, zoals SD 3.5 (dat uiteindelijk faalde), en alternatieve architecturen zoals Flux. Tegelijkertijd kwamen er nieuwe spelers op, zoals Qwen en Wan en ontstonden er nichemodellen zoals Pony en Illustrious die zich richten op specifieke stijlen. Hierdoor is het open-source landschap snel uitgegroeid tot een divers ecosysteem met veel keuze en specialisatie.
Tijdlijn van generatieve Ai modellen voor afbeeldingen
| Datum | Model | Bijzonderheden |
| Jan 2021 | DALL·E | Eerste grote doorbraak voor text-to-image; liet zien dat taal en beeld samen konden werken. |
| Apr 2022 | DALL·E 2 | Veel realistischer dan DALL·E 1, met hogere resolutie en betere promptvolging. |
| Mrt 2022 | Midjourney beta | Vroege publieke beta; werd snel populair door sterke artistieke stijl. |
| Aug 2022 | Stable Diffusion 1 | Open model dat de markt openbrak voor lokaal draaien en community-mods. |
| Nov 2022 | Stable Diffusion 2 | Verdere verbetering in kwaliteit en workflow, maar met veel discussie in de community. |
| Nov 2022 | DALL·E 2 public rollout | De wachtlijst werd verwijderd en het model werd breder toegankelijk. |
| Mrt 2023 | Midjourney V5 | Grote stap in fotorealisme, anatomie en promptkwaliteit. |
| Jul 2023 | Stable Diffusion XL 1.0 | Belangrijk open model met native 1024×1024 output en betere compositie/detail. |
| Okt 2023 | DALL·E 3 | Sterker in promptbegrip en tekst in beelden; veel betere prompt adherence. |
| Dec 2023 | Midjourney V6 alpha | Nog realistischer, met sterkere details en betere tekstweergave.. |
| Jul 2024 | Stable Diffusion 3 | Nieuwe generatie met focus op betere tekstpromptrepresentatie en kwaliteit. |
| Aug 2024 | Flux.1 | Black Forest Labs (ex-Stability); state-of-the-art in promptvolging en resolutie tot 2MP. |
| Okt 2024 | Stable Diffusion 3.5 | Drie varianten (Large, Medium, Turbo); top in kwaliteit en commercieel gebruik. |
| Okt 2024 | Flux.1.1 Pro | Sneller (4.5s/image); beste fotorealisme en anatomie. |
| Mrt/Apr 2025 | Midjourney V7 | Artistieke topper; betere stijl en character consistency. |
| Nov 2025 | Z-Image-Turbo | Alibaba; snel en illustration-stijl met diverse composities. |
| Jan 2026 | Z-Image base | Basisversie van Z-Image; sterk in illustraties, fine-tuning potentieel. |
Wat mij opvalt
Wat vooral opvalt in deze tijdlijn is hoe snel de focus is verschoven. Waar de eerste generatie modellen zoals DALL·E en Midjourney vooral draaiden om het bewijzen dat text-to-image überhaupt werkte, ligt de nadruk nu op drie dingen: prompt adherence, snelheid en specialisatie. Modellen zoals Flux en Qwen proberen steeds beter exact te doen wat je vraagt, terwijl andere modellen juist uitblinken in snelheid of een specifieke stijl. Tegelijk zie je dat het steeds minder draait om één “beste model” en meer om het kiezen van het juiste model voor jouw use case.
