KI goes Visual

Was sind die dominierenden Design-Trends für 2023? Die Antwort war noch nie so eindeutig: KI generierte Bilder mischen die Designbranche ordentlich auf. Was die künstlich erzeugten Bilder können und was nicht, erfahren Sie hier.

Eine Entwicklung begann bereits in diesem Jahr, alle anderen gestalterischen Trends zu überlagern: die Bildgenerierung via künstlicher Intelligenz (KI). Die Idee an sich ist nicht neu. In den letzten Jahren gab es immer wieder Vorstöße von Unternehmen. Diese blieben jedoch wegen des jeweils sehr eingeschränkten Anwendungsbereichs in ihrer Nische. Die Software Canvas vom Grafikkartenhersteller Nvidia generiert aus ein paar groben Strichen realistische Landschaftsbilder. Quickdraw, das mit Hilfe von Google entwickelt wurde, erkennt auch im grobmotorischsten Gekrickel die beabsichtigte Illustration.

Text-to-Image: Der neue heiße Scheiß

Nun drängten gleich drei große Player nahezu zeitgleich mit einem neuen und in allen drei Fällen ähnlichen Ansatz auf den Markt: Text-to-Image. Imagen von Google, Dall·E von OpenAI sowie das Forschungsprojekt Midjourney. Und schon hat auch TikTok eine eigene Text-zu-Bild-KI integriert. Bei allen drei Programmen werden textliche Eingaben visuell interpretiert. Geben Sie zum Beispiel „Tokio im Stil von van Gogh“ ein, so werden ohne weitere Vorgaben Bildvorschläge errechnet, die eine japanische Stadt mit den typischen Pinselspuren van Goghs zeigen. Derart profane Dinge beherrscht Photoshop allerdings schon seit Jahren. Dass es auch deutlich konzeptioneller, abstrakter und gleichzeitig anwendungsbezogener zugehen kann, zeigen Beispiele aus Kunst, Gaming und Werbung.

KI im Trendspot

Der große Erfolg der neuen Plattformen ist einerseits dem Fortschritt in der KI und andererseits deren praktischer Anwendung auf die gezielte Generierung überaus fotorealistischer Motive zu verdanken. Wie fotorealistisch oder filigran illustriert die Bilder sein können, sehen Sie an den Titelmotiven der Artikel dieses Trendspot-Magazins: Sie entstammen alle unseren textlichen Eingaben auf Basis der Inhalte der Artikel und der visuellen Interpretation seitens der KI. Allerdings hat es auch viele Anläufe gebraucht, um gute KI-Bilder zu generieren.

Ohne Mensch wird's meh

Eine sehr große visuelle Datenbasis und Lernerfahrungen der KI sind die Voraussetzung für derartige Leistungen. Einige Erfahrung mit der Auswahl und Formulierung der Prompts, wie die Texteingaben genannt werden, gehört allerdings auf der menschlichen Seite ebenfalls dazu. Sonst bleiben die erzeugten Motive nur allzu oft in der Welt neblig-surrealer Fantasy-Gemälde. Denn was und wie die KI Eingaben gewichtet und im Verhältnis zueinander interpretiert, findet man derzeit nur durch Ausprobieren heraus.

Achtung Stereotype

Wie leistungsfähig bzw. beschränkt die gezielte Generierung expliziter Motive zum jetzigen Zeitpunkt noch ist, zeigt das Ketchup-Artefakt: Jedes generierte Motiv, das den Begriff „Ketchup“ enthielt, zeigt(e) ausschließlich Flaschen der Marke Heinz – generisch für Ketchup. Denn die KI lernt, vereinfacht gesagt, aus öffentlich zugänglichen Bildern im Netz. Und dort ist Heinz im Bereich Ketchup klarer Marktführer. Glück für Heinz, die dieses Artefakt medial nutzten. Problematisch, wenn es um Diversität geht.

Stereotype gibt es aber nicht nur bei Ketchup-Flaschen, sondern zum Beispiel auch bei Hautfarben und Geschlechterrollen. Nur ein Grund, warum viele Menschen bei KI-generierten Bildern Bauchschmerzen bekommen.

Ist das Kunst oder kann das weg?

Auch in der Kunst- und Illustratoren-Szene regt sich ein heftiges Missbehagen bezüglich der KI-Bildgeneratoren. Denn sie liefern meist unfreiwillig die Vorlagen, anhand derer die künstliche Intelligenz „trainiert“. Bereits jetzt sperren erste Kunstportale ihre Dienste für KI-generierte Werke.

Hier werden Parallelen mit vielen inzwischen automatisierten Jobs erkennbar: Je häufiger Maschinen Aufgaben schneller, besser, sicherer und billiger erledigen als Menschen, desto öfter wird man ihnen entsprechende Aufgaben auch irgendwann vollständig übertragen. Eine anschließende Frage ist, ob menschliche Kunstschaffende und Illustrator*innen Lizenzansprüche geltend machen können.

Gamechanger im Gaming

In der sehr experimentierfreudigen Gaming-Szene bahnt sich sogar ein Paradigmen-Wechsel an: Gaming-Artists, also Designer*innen und Künstler*innen, die die visuellen Welten digitaler Spiele gestalten, werden von den autonom generierten, fantastischen Arbeiten teilweise schon jetzt verdrängt.

3D-Elemente und Scrollytelling im Web

Produktvideos waren gestern: Wer heute mit Websites herausstechen will, setzt auf 3D. Die Erweiterung von Browsern und Fortschritte in der 3D-Grafik eröffnen eine neue Dimension der Produktpräsentation. Vor allem Unternehmen mit einer technisch versierten und jungen Zielgruppe setzen auf den Trend. Das Ergebnis: eine hohe Interaktionsrate, eine hohe Nutzerkontrolle und Wow-Effekte bei den Besucher*innen der Website.

Top-Marken und -Unternehmen nutzen 3D-Webtechnologie, um ihr Publikum zu faszinieren. Nicht nur Tech-Unternehmen wie Apple, sondern auch Modemarken wie Gucci und Adidas springen auf den 3D-Zug auf und schaffen erstaunliche Online-Experiences. Aber auch aufstrebende Marken erreichen mit spektakulären 3D-Anwendungen Aufmerksamkeit und Sichtbarkeit.

Es gibt verschiedene Möglichkeiten, wie 3D-Elemente im Webdesign verwendet werden können:

  • Scrollytelling: Bei der Kombination aus Storytelling und Scrolling entfaltet sich eine lebendige Geschichte auf der Website. Durch 3D-Elemente, die beim Srollen ein- und ausfaden, erleben Besucher*innen die Website als immersive Erzählung.
  • Lebensechte Renderings: Verbraucher* innen fällt es schwer, hochpreisige Produkte online zu kaufen. Durch das Hinzufügen lebensechter Renderings auf der Website werden Produkte nahbarer. Entscheidungs- und Kaufprozesse können viel schneller und reibungsloser verlaufen.
  • Rundgänge: Immobilien oder Kraftfahrzeuge können bei Rundgängen im Web realistisch betrachtet werden. Diese Funktion wird zum Beispiel beim 3D-Fahrzeugkonfigurator von BMW verwendet.

Zwiebelfisch Reloaded

Gemischte Typografie: Verirrte sich früher ein Bleibuchstabe aus einem anderen Alphabet in den sortenreinen Setzkasten und mischte sich anschließend unbemerkt in den neuen Schriftsatz, nannten das die Setzer*innen einen „Zwiebelfisch“*.

Mit den Möglichkeiten der sogenannten Variable Fonts können Schriften hinsichtlich Laufweite, Fette und Neigung an sehr individuelle Anforderungen angepasst werden. Eine Steilvorlage für Designer*innen, um Aufmerksamkeit zu steuern. Das machen sie zum Beispiel mit kleinen, absichtlichen Fehlern in Form von Buchstaben aus anderen Schriften, die in Headlines eingebaut werden. Den Lesefluss stört das nicht unmittelbar, sorgt aber für unbewusstes Aufmerken. Und die Botschaft bekommt damit eine kommunikative Meta-Ebene: Wir sind anders, wir machen unsere eigenen Regeln.

* Für unsere jüngeren Leser*innen: Bis in die 1960er Jahre wurden Texte, teilweise noch von Hand, aus einzelnen Bleibuchstaben zu Zeilen und Seiten von Setzer*innen zusammengesetzt. Ein Beruf, der mittlerweile weitestgehend ausgestorben ist.

Quellen:

Nvidia Canvas

Quickdraw with Google

Midjourney 

Imagen

Dall·E

DreamStudio

konversionskraft.de

Lutz ist Creative Director und Innovationsmanager bei New Communication. Seit Agentur-Gründung sorgt er für öffentliches Aufsehen mit wegweisenden Designs und Interfaces. Nebenbei lebt er seine Typographie-Leidenschaft aus. Definiert Corporate Designs. Leitet Kreativ-und Innovationsworkshops. Ist mehrfacher Fachbuch-Autor. Und generiert systematisch Ideen im Sekundentakt. Während Sie diesen Text lesen, waren es übrigens 15 neue.

Heiß auf Insider-Infos?

Immer up to date: Unser Newsletter versorgt dich einmal monatlich mit brandneuen Trends und Innovationen aus der Kommunikationswelt.

Newsletter bestellen