Künstliche Designer: Braucht noch irgendwer Designer?

kreative-kuenstliche-intelligenz

2019 klang es noch wie Science-Fiction: eine KI, die Logos entwirft, Kampagnen gestaltet, Bilder malt. Heute, im März 2026, ist es Alltag — und die Frage „Braucht noch irgendwer Designer?“ hat sich von einer rhetorischen zu einer sehr ernsten verwandelt. Zeit für einen Rückblick mit Augenzwinkern — und einen nüchternen Ausblick.

Inhalt

Ein Zeitsprung: Was wir 2019 dachten

Erlauben Sie uns einen kurzen Moment der Ehrlichkeit. Als wir 2019 diesen Artikel ursprünglich veröffentlichten, schrieben wir über den Rembrandt-Algorithmus der Universität Delft als handelte es sich um eine Weltsensation. Ein Computer, der neue Bilder im Stil des holländischen Meisters erzeugt? Unglaublich! Wir verlinkten auf NextRembrandt.com, als wäre das die Spitze menschlicher Ingenieurskunst.

Wir lagen nicht falsch. Wir ahnten nur nicht, was sieben Jahre später normal sein würde.

Heute tippt jemand in Midjourney oder DALL-E 3 „Rembrandt-style portrait of a startup founder, dramatic lighting, oil on canvas“ — und bekommt in 30 Sekunden zwölf Varianten, aus denen er wählen kann. Nicht eine Version. Zwölf. In 30 Sekunden. Die Debatte von 2019 über „kann KI Kunst?“ wirkt rückblickend so, als hätten wir 1995 darüber diskutiert, ob das Internet jemals mehr als E-Mail können wird.

Schauen wir uns an, was wir damals schrieben — und was die Realität daraus gemacht hat.

2019: „KI kann Rembrandt imitieren.“ 2026: KI erfindet neue Stile.

Das Rembrandt-Projekt war beeindruckend, keine Frage. Aber es war statisch, einmalig und auf einen einzigen Kunststil trainiert. Was Künstliche Intelligenz seit damals gelernt hat, geht deutlich weiter: Midjourney v6, DALL-E 3, Adobe Firefly, Stable Diffusion, Flux und Googles Imagen generieren nicht nur Stilkopien — sie erfinden neue visuelle Grammatiken, mischen Epochen und Medien, setzen Prompts in fotorealistische Szenen um, die von echten Fotografien kaum zu unterscheiden sind.

Mal ehrlich: Haben Sie schon mal eins dieser Bilder auf LinkedIn gescrollt, nicht gewusst, ob es ein Stockfoto ist, und dann irgendwann gemerkt, dass da kein Mensch am Werk war? Willkommen in 2026.

Was hat sich konkret getan? Ein schneller Überblick:

  • Midjourney (Version 6.1, 2025): Fotorealismus, der selbst Fachleute täuscht. Textur, Licht, Tiefenschärfe — alles da.
  • Adobe Firefly: Direkt in Photoshop und Illustrator integriert, lizenzrechtlich sauber, weil auf Adobe Stock-Material trainiert.
  • DALL-E 3: Über ChatGPT zugänglich, deutlich besser in der Textumsetzung als seine Vorgänger.
  • Flux: Open-Source-Alternative mit bemerkenswerter Bildqualität, besonders bei Architektur und Produktdesign.
  • Gemini Image Generation: Googles Einstieg ins Rennen, stark in komplexen Szenen mit mehreren Elementen.

Was 2019 ein Forschungsprojekt war, ist 2026 ein Werkzeug, das jeder Grafik-Designer täglich benutzt — oder ignoriert und damit riskiert, den Anschluss zu verlieren.

Designerin arbeitet mit KI-gestützten Design-Tools am modernen Arbeitsplatz
KI-Design-Workflow 2026: Kreative nutzen KI-Tools wie Midjourney und Figma AI täglich

Video, Motion, UI: KI übernimmt die ganze Prozesskette

Bildgenerierung ist dabei nur der Anfang. Wer gedacht hat, KI bleibt bei Standbildern, hat sich gründlich geirrt. Die nächste Welle betrifft bewegte Bilder.

OpenAIs Sora erzeugt aus Textbeschreibungen kurze, kinoreife Videoclips. Runway Gen-3 ermöglicht es, einzelne Frames zu animieren oder ganze Szenen zu verlängern. Kling aus China produziert Videos mit fließenden Kamerabewegungen, die einem Spielfilmregisseur das Herz aufgehen lassen würden. Und Googles Veo liefert ebenfalls beachtliche Ergebnisse im Video-KI-Bereich.

Für Motion Designer bedeutet das: Der Workflow hat sich verschoben. Statt stundenlang in After Effects Keyframes zu setzen, werden Ausgangsmaterialien per KI erstellt und dann verfeinert. Adobe hat KI-Funktionen direkt in After Effects integriert. Rive erlaubt interaktive Animationen für Web und Apps — mit KI-Unterstützung bei der Erstellung von Übergängen und States.

Im UI/UX-Bereich sieht es ähnlich aus. Figma selbst hat mit der Funktion „Make Design“ einen KI-Assistenten eingebaut, der aus Textbeschreibungen erste Wireframes erstellt. Tools wie Galileo AI und Uizard gehen noch weiter: Sie generieren komplette App-Interfaces aus einem Satz — mit Komponenten, die direkt in Figma importiert werden können.

Code-generiertes Design ist inzwischen eine eigene Kategorie. v0 by Vercel baut React-Komponenten aus natürlichsprachlichen Prompts. Framer AI erstellt fertige Websites, die sofort deployt werden können. Die Grenze zwischen Design und Entwicklung — sie verschwimmt schneller, als viele Studiengänge ihre Lehrpläne anpassen können.

2019: Tailor Brands als KI-Wunderkind. 2026: Vollständige Brand-Identitäten in Minuten.

2019 schwärmten wir von Tailor Brands, weil das Tool aus Schriftarten, Farben und Layoutstrukturen automatisch Logos generiert. Damals war das Neuland. Heute ist es Basiserwartung.

Werkzeuge wie Looka und Brandmark gehen deutlich weiter: Sie liefern nicht nur ein Logo, sondern eine vollständige Markenidentität — Visitenkarten, Social-Media-Vorlagen, Briefpapier, Favicon, Farb- und Schriftpaletten, alles aufeinander abgestimmt. In Minuten. Für einen Bruchteil dessen, was eine Designagentur kostet. Adobe Express KI ergänzt das Ganze durch sofort einsetzbare Content-Vorlagen, die auf Knopfdruck an Corporate-Design-Vorgaben angepasst werden.

Wir bei digital-magazin.de haben mehrere dieser Tools getestet: Die Ergebnisse sind solide bis beeindruckend — besonders für Startups und Solopreneure, die kein Budget für eine Designagentur haben. Wer allerdings einen wirklich unverwechselbaren, strategisch durchdachten Markenauftritt braucht, der kommt nach wie vor um menschliches Designdenken nicht herum. Mehr dazu gleich.

Der Designermarkt: Mehr Nachfrage, andere Qualifikationen

Wer jetzt erwartet, dass wir einen Nekrolog auf den Designerberuf schreiben — falsche Erwartung. Die Lage ist komplizierter und, ehrlich gesagt, interessanter. Was die Kreativbranche insgesamt durch KI erlebt, zeigt: Disruption sieht selten so aus wie erwartet.

Figma hat Anfang 2026 eine umfangreiche Design Hiring Study veröffentlicht. Ergebnis: 82 Prozent der befragten Unternehmen berichten von stabiler oder steigender Nachfrage nach Designerinnen und Designern. Gleichzeitig erwarten 73 Prozent, dass neue Mitarbeitende KI-Tools beherrschen. Und 79 Prozent wollen auch Fachleute, die speziell KI-Produkte gestalten können.

Das klingt zunächst paradox: KI macht Designarbeit schneller, und trotzdem steigt die Nachfrage? Ja — weil der Kuchen größer geworden ist. Mehr Unternehmen als je zuvor produzieren digitale Inhalte, weil die Produktionsbarrieren gesunken sind. Wer früher keine Kapazität für professionelles Design hatte, kann sich jetzt zumindest eine KI-gestützte Basisidentität leisten. Und je mehr Unternehmen Design ernst nehmen, desto mehr steigt auch die Nachfrage nach Profis, die das Ganze strategisch steuern.

Der Knackpunkt: „Ich kann Photoshop“ reicht nicht mehr. Wer heute in der Designbranche gut unterwegs sein will, braucht KI-Kompetenz — nicht als Zusatzqualifikation, sondern als Kern seiner Arbeit. Design-Fachleute, die KI-Tools in ihren Workflow integrieren, sind schneller, produzieren mehr Varianten, können Kundenwünsche direkter umsetzen. Wer das verweigert, kämpft mit einem Werkzeugkasten von 2018.

Die Seele-Debatte: Was 2019 noch eindeutig war

Kommen wir zur schwierigsten Frage. 2019 zitierte dieser Artikel Professor Holger Felten von der Akademie der Bildenden Künste Nürnberg mit einem klaren „Nein“: KI-Kunst fehle Bewusstsein, Seele und menschlicher Geist. Kunst habe gesellschaftliche Relevanz — und das könne KI nicht leisten.

Nein! Es fehlt etwas ganz Entscheidendes: das Bewusstsein, die Seele und der menschliche Geist.

Professor Holger Felten, Akademie der Bildenden Künste Nürnberg (2019)

Siebenundzwanzig Monate nach Veröffentlichung von Midjourney v1, sechs Jahre nach diesem Artikel, ist die philosophische Position von Prof. Felten nicht weniger valide — aber sie hat sich von einer handlungsleitenden zu einer akademischen verschoben. Denn der Markt hat entschieden: Er fragt nicht nach der Seele. Er fragt nach dem Ergebnis.

KI-generierte Kunst hängt in Galerien. KI-designte Marken gewinnen Designpreise. KI-komponierte Musik läuft auf Streaming-Plattformen. Das ändert nichts daran, dass Menschen und KI unterschiedliche Wesen sind — aber es zeigt, dass die Grenze zwischen „Kunst“ und „Nicht-Kunst“ nie so eindeutig war, wie wir dachten.

Was sagen Fachleute heute? Die Positionen haben sich ausdifferenziert. Viele Kunstkritiker unterscheiden zwischen KI als Werkzeug (in der Hand eines Menschen mit künstlerischer Intention) und vollautomatischer KI-Produktion ohne menschliche Steuerung. Ersteres gilt zunehmend als legitime Kunstform. Letzteres bleibt umstritten — unter anderem aus rechtlichen Gründen.

KI-generierte Bilder und Urheberrecht — symbolische Darstellung der rechtlichen Debatte
Wem gehört das KI-Bild? Die Urheberrechtsdebatte rund um KI-Design ist 2026 noch ungelöst

Wem gehört das Bild? Urheberrecht im KI-Zeitalter

Wer ein Bild mit Midjourney erstellt, hält möglicherweise kein Urheberrecht daran. Das klingt seltsam, ist aber die aktuelle Rechtslage in vielen Ländern — und ein heißes Eisen, das Gerichte, Gesetzgeber und die Kreativbranche gleichermaßen beschäftigt.

In Deutschland und der EU gilt: Urheberrecht entsteht durch menschliche Schöpfung. Ein Algorithmus kann kein Schöpfer im Rechtssinne sein. Das Bezirksgericht Prag hat bereits klargestellt, dass KI-generierte Bilder keinen urheberrechtlichen Schutz genießen, weil keine natürliche Person als Schöpferin gilt. Was die menschliche Beteiligung beim Prompt-Schreiben angeht — darüber streiten Juristen noch.

Parallel dazu: Die Klage von Getty Images gegen Stability AI ist einer der wichtigsten laufenden Rechtsfälle. Getty wirft dem Unternehmen vor, Millionen lizenzpflichtiger Fotos ohne Genehmigung zum KI-Training verwendet zu haben. Das EU-Parlament hat im März 2026 Empfehlungen verabschiedet, die das Urheberrecht für das KI-Zeitalter neu kalibrieren sollen — wie genau, ist noch im Entstehen.

Für Unternehmen, die KI-generierte Bilder kommerziell einsetzen, bedeutet das: Vorsicht walten lassen. Adobe Firefly ist bewusst auf lizenzrechtlich sauberem Material trainiert — ein klarer Wettbewerbsvorteil gegenüber Tools, bei denen die Trainingsdaten-Herkunft unklar ist.

Qualität vs. Geschwindigkeit: Das unterschätzte Dilemma

Wir müssen über die Qualitätsfrage reden. KI ist schnell. Sehr schnell. Aber ist schnell auch gut?

In der Designbranche gibt es einen Begriff, der selten in KI-Artikeln auftaucht: Strategie. Ein gutes Logo ist nicht gut, weil es hübsch ist. Es ist gut, weil es die Werte einer Marke transportiert, in unterschiedlichen Größen funktioniert, im Gedächtnis bleibt und zur Zielgruppe passt. Das erfordert Verständnis — von der Marke, dem Markt, der Psychologie der Zielgruppe.

KI kann Varianten produzieren. Sie kann nicht — noch nicht — aus einem Brief von 1.000 Zeichen über ein Startup und seine Vision eine wirklich originelle Markenidentität ableiten, die langfristig wirkt. Dafür braucht es Designerinnen und Designer, die zuhören, nachfragen, einordnen. KI ist ein erstklassiges Werkzeug für die Ausführung. Für die Konzeption ist der Mensch nach wie vor im Vorteil.

Gleichzeitig: Unterschätzen Sie nicht, wie schnell sich das ändert. Was KI vor zwei Jahren noch nicht konnte, kann sie heute. Was sie heute noch nicht kann, wird sie morgen lernen. Wer in der Kreativbranche arbeitet und das ignoriert, wird in fünf Jahren fragen, warum er den Anschluss verloren hat.

Und jetzt? Ende immer noch offen — aber die Frage hat sich verschoben

2019 schlossen wir mit „Ende offen!“ Das gilt immer noch. Aber die Frage, um die es geht, ist eine andere geworden.

2019 fragten wir: „Kann KI überhaupt Design?“ 2026 fragen wir: „Wie viel Design bleibt beim Menschen, und wie viel übernimmt die KI — und was muss ich als Designer oder Unternehmerin können, um in dieser neuen Realität zu bestehen?“

Die Antwort ist nicht düster. Designerinnen und Designer, die KI-Tools meistern, sind produktiver denn je. Sie können mehr Ideen in kürzerer Zeit testen, mehr Varianten präsentieren, schneller auf Kundenfeedback reagieren. Der Figma-Studie zufolge steigt die Nachfrage nach Designfachleuten sogar, solange diese KI-Kompetenz mitbringen.

Was wirklich auf dem Spiel steht, ist nicht der Job des Designers. Es ist das Selbstverständnis. Wer sich weigert, KI als Werkzeug zu akzeptieren, kämpft gegen ein Werkzeug, das sein Handwerk gerade neu erfindet — so wie Fotografen gegen Photoshop kämpften, Grafiker gegen Desktop-Publishing, Redakteure gegen das Internet. Sie alle haben verloren. Und gewonnen. Weil die neuen Werkzeuge mehr möglich machten, nicht weniger.

Die Seele-Frage von Prof. Felten ist unbeantwortet. Ob KI eines Tages wirklich kreiert oder nur kombiniert — das werden Philosophen noch lange diskutieren. Der Markt wartet nicht auf die Antwort.

0 0 Bewertungen
Artikel Bewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
Ähnliche Artikel