GMU:DeepVisualMemories: Difference between revisions

From Medien Wiki
No edit summary
No edit summary
Line 1: Line 1:
Lecturer: Dr. Alexander König (http://www.media-art-theory.com)
Lecturer: Dr. Alexander König (http://www.media-art-theory.com)


First Meeting: 06.04.
Durch eine eigens dafür entworfene Online-Lernumgebung erkunden wir zunächst die Cloud-Welten in denen das machine learning (AI) beheimatet ist und versuchen dessen Bild-Verständnis zu begreifen. NACH diesem technischen Ausflug folgt dann eine kritische Auseinandersetzung mit dem Thema anhand von ausgewählten theoretischen Texten. Gleichzeitig werden wir das als Pix2Pix bezeichnete Verfahren nutzen, um Neuronale Netze mit unseren eigenen visuellen Kondensaten zu trainieren, die sich dann Form von Lernprozessen in deren Strukturen kristallisieren. Das so erhaltene kondensierte Kristall kann dann benutzt werden um jeglichen visuellen Inhalt, in seine innere monadische Struktur zu übertragen.


Wir werden zusammen ein Projekt entwickeln in dem wir ein AI-Sytem, ein sogenanntes GAN, mit visuellem Material trainieren. Dieses System ist dann in der Lage einen visuellen (procedural kreierten und auf Musik reagierenden) Input in die Stilistik des trainierten Materials zu übertragen. Das endresultat wir ein aufführungsfähiges, interaktives Live-Visual-System sein, das kreative Ausdrucksweisen mit den modernen Möglichkeiten einer AI verbindet. Dabei wird klar ersichtlich werden, dass eine solche Technologie niemals  KünstlerInnen ersetzen kann, jedoch wie jedes andere Toll neue Möglichkeiten für kreative Prozesse ermöglicht. Zudem wird so die innere Funktionsweise der Systeme offengelegt und exemplarisch verdeutlicht.
Wir werden zusammen ein Projekt entwickeln in dem wir ein AI-System, ein sogenanntes GAN, mit visuellem Material trainieren. Dieses System ist dann in der Lage einen visuellen (procedural kreierten und auf Musik reagierenden) Input in die Stilistik des trainierten Materials zu übertragen. Das Endresultat wir ein aufführungsfähiges, interaktives Live-Visual-System sein, das kreative Ausdrucksweisen mit den modernen Möglichkeiten einer AI verbindet. Dabei wird klar ersichtlich werden, dass eine solche Technologie niemals  KünstlerInnen ersetzen kann, jedoch wie jedes andere Toll neue Möglichkeiten für kreative Prozesse ermöglicht. Zudem wird so die innere Funktionsweise der Systeme offengelegt und exemplarisch verdeutlicht.


Das Modul besteht aus drei Schichten: Zum einen ist es eine Einführung in Machine Learning unter Verwendung von GANs und der Entwicklung eines interaktiven Frontends in Touchdesigner, welches auf Musik reagiert. Außerdem werden Methoden zur interdisziplinären Zusammenarbeit im Sinne der Philosophie Gilbert Simondons vorgestellt und somit aus einer kreativen Auseinandersetzung mit dem Thema AI, positionen entwickelt die es den TeinlehmernInnen ermöglichen kritisch und reflektierend an dem aktuellen Diskurs über AI zu partizipieren.
Das Modul besteht aus drei Schichten: Zum einen ist es eine Einführung in Machine Learning unter Verwendung von GANs und der Entwicklung eines interaktiven Frontends in Touchdesigner, welches auf Musik reagiert. Außerdem werden Methoden zur interdisziplinären Zusammenarbeit im Sinne der Philosophie Gilbert Simondons vorgestellt und somit aus einer kreativen Auseinandersetzung mit dem Thema AI, Positionen entwickelt die es den TeinlehmernInnen ermöglichen kritisch und reflektierend an dem aktuellen Diskurs über AI zu partizipieren.
 
Es sind keine Vorkenntnisse notwendig.
Erfahrungen in einem der folgenden Felder sind erwünscht:
 
* Programmierung (Python)
* Visual Programming (Touchdesigner/Processing/VVVV etc.)
* Soundproduktion /Audio (MAX/Ableton/reaper etc.)
* Machine Learning (Tensorflow)
* Medientheorie
* UX/UI/Design
 
 
Termine
 
2.) 20.04.
3.) 18.05.
4.) 15.06.
5.) 29.06.
 
Außerdem ist ein mehrtägiger "Hackathon" angedacht.
 
Am Ende des Kurses steht eine Live-Aufführung des entstandenen Werkes.  


Am Ende des Kurses steht eine Live-Aufführung des entstandenen Werkes.
____
____