In Gruppenarbeit wird ein set-up entwickelt, in welchem wir ein System der künstlichen Intelligenz (AI), ein sog. GAN, mit Bild- und Videomaterial trainieren. Dieses System wird in der Lage sein, beliebigen visuellen Input (prozedural und auf Musik reagierend) in die Stilistik des trainierten Materials zu übertragen. Das Endresultat wir ein aufführungsfähiges, interaktives Live-Visual-System sein, das kreative Ausdrucksweisen mit den modernen Möglichkeiten einer AI verbindet. Dabei soll erfahrbar gemacht werden, warum eine solche Technologie niemals einen Künstler ersetzen können, jedoch wie jedes andere Tool neue Möglichkeiten für kreative Prozesse bereitstellt. Die innere Funktionsweise von AI-Systemen wird offengelegt und exemplarisch verdeutlicht.
Das Modul besteht aus drei Schichten:
- es eine Einführung in Machine Learning unter Verwendung von GANs und der Entwicklung eines interaktiven Frontends in Touchdesigner, welches auf Musik reagiert.
- Methoden zur interdisziplinären Zusammenarbeit im Sinne der Philosophie Gilbert Simondons und eine kreative Auseinandersetzung mit dem Thema AI - es ermöglicht den Teilnehmern kritisch und reflektierend an dem aktuellen Diskurs über AI zu partizipieren.
Voraussetzungen der Teilnehmer aus mind. 1 Bereics:
Programmierung (Python) Visual Programming (Touchdesigner/Processing/VVVV etc.) Generative Soundproduktion /Audio (MAX/Ableton /reaper etc.) Machine Learning (Tensorflow) Medientheorie UX/UI/Design |