GMU:DeepVisualMemories

From Medien Wiki
Revision as of 13:30, 10 March 2020 by Koenig (talk | contribs) (Created page with "Lecturer: Dr. Alexander König (http://www.media-art-theory.com) First Meeting: 06.04. Wir werden zusammen ein Projekt entwickeln in dem wir ein AI-Sytem, ein sogenanntes GA...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

Lecturer: Dr. Alexander König (http://www.media-art-theory.com)

First Meeting: 06.04.

Wir werden zusammen ein Projekt entwickeln in dem wir ein AI-Sytem, ein sogenanntes GAN, mit visuellem Material trainieren. Dieses System ist dann in der Lage einen visuellen (procedural kreierten und auf Musik reagierenden) Input in die Stilistik des trainierten Materials zu übertragen. Das endresultat wir ein aufführungsfähiges, interaktives Live-Visual-System sein, das kreative Ausdrucksweisen mit den modernen Möglichkeiten einer AI verbindet. Dabei wird klar ersichtlich werden, dass eine solche Technologie niemals KünstlerInnen ersetzen kann, jedoch wie jedes andere Toll neue Möglichkeiten für kreative Prozesse ermöglicht. Zudem wird so die innere Funktionsweise der Systeme offengelegt und exemplarisch verdeutlicht.

Das Modul besteht aus drei Schichten: Zum einen ist es eine Einführung in Machine Learning unter Verwendung von GANs und der Entwicklung eines interaktiven Frontends in Touchdesigner, welches auf Musik reagiert. Außerdem werden Methoden zur interdisziplinären Zusammenarbeit im Sinne der Philosophie Gilbert Simondons vorgestellt und somit aus einer kreativen Auseinandersetzung mit dem Thema AI, positionen entwickelt die es den TeinlehmernInnen ermöglichen kritisch und reflektierend an dem aktuellen Diskurs über AI zu partizipieren.

Erfahrungen in einem der folgenden Felder sind erwünscht:

  • Programmierung (Python)
  • Visual Programming (Touchdesigner/Processing/VVVV etc.)
  • Soundproduktion /Audio (MAX/Ableton/reaper etc.)
  • Machine Learning (Tensorflow)
  • Medientheorie
  • UX/UI/Design

Termine

2.) 20.04. 3.) 18.05. 4.) 15.06. 5.) 29.06.

Außerdem ist ein mehrtägiger "Hackathon" angedacht.

Am Ende des Kurses steht eine Live-Aufführung des entstandenen Werkes.

____


Together we will develop a project in which we train an AI system, a so-called GAN, with visual material. This system is then able to transfer a visual (procedurally created and music responsive) input into the stylistics of the trained material. The end result will be a performable, interactive live visual system that combines creative expression with the modern possibilities of AI. It will become clear that such a technology can never replace artists, but like any other Toll, it opens up new possibilities for creative processes. In addition, the inner workings of the systems will be revealed and exemplified.

The module consists of three layers: Firstly, it is an introduction to machine learning using GANs and the development of an interactive front end in Touchdesigner that reacts to music. In addition, methods for interdisciplinary cooperation in the sense of the philosophy of Gilbert Simondon are presented and thus, from a creative examination of the topic of AI, positions are developed that enable the students to participate critically and reflectively in the current discourse on AI.

Experience in one of the following fields is desired:

  • Programming (Python)
  • Visual Programming (Touchdesigner/Processing/VVVV etc.)
  • Sound production / audio (MAX/Ableton/reaper etc.)
  • Machine Learning (Tensorflow)
  • Media theory
  • UX/UI/Design