Die Integration bildgenerierender Diffusionsmodelle führt zu einer Neuordnung gestalterischer Prozesse. Das Modul untersucht deren gezielten Einsatz im Kontext visueller Konzeptentwicklung und analysiert, wie sich Entwurf, Iteration und Darstellung unter algorithmischen Bedingungen verschieben. Im Zentrum stehen Verfahren wie Text-to-Image, Sketch-to-Rendering und Image-to-3D, die es ermöglichen, Entwurfsprozesse zu beschleunigen, Varianten systematisch zu explorieren und visuelle Narrative präzise auszuarbeiten. Diffusionsbasierte Systeme werden dabei nicht als reine Produktionsmittel verstanden, sondern als operative Systeme, die ästhetische Entscheidungen mitprägen und neue Formen der Bildgenese hervorbringen. Parallel dazu erfolgt eine kritische Einordnung hinsichtlich ökologischer Auswirkungen, gesellschaftlicher Verschiebungen und ethischer Fragestellungen. Ziel ist die Entwicklung eines reflektierten Umgangs mit KI als gestalterischem und epistemischem Medium. Modulziele: • Fundiertes Verständnis für den Einsatz KI-gestützter Werkzeuge im kreativen Designprozess • Entwicklung und Anwendung von Strategien zur Optimierung von Prompting-Techniken • Gestaltung konsistenter visueller Szenarien und Produktdarstellungen mit KI-Tools • Kritische Analyse von Potenzialen und Grenzen generativer Systeme in ökologischer, gesellschaftlicher und gestalterischer Hinsicht konkret: • Parametrische Kontrolle von Stil, Form und Objektkonsistenz • Live Sketch-to-Rendering • Text-to-Image-Generierung als exploratives Entwurfsinstrument • Multi-Image-Blending für Kampagnen, Moodboards • Image-to-3D-Mesh für digitale Modellierung und prototypische Entwürfe |