Beschreibung

Sehen und Hören sind zwei Sinne, welche in der Perzeption von Medienkunst in ein multisensuelles Zusammenspiel verwickelt sind. Was passiert zwischen den Sinnen? Was zwischen den Medien? Synergien und Interferenzen der Wahrnehmung sind Synästhesien. Dieses Neurologische Phänomen ist in der Bildenden Kunst nicht zuletzt durch Wassily Kandinsky bekannt geworden. Ab den 1920er Jahren wurden durch Ludwig Hirschfeld-Mack und László Moholy-Nagy filmische und objekthafte Experimente mit Licht und Schatten durchgeführt, die durch Oskar Fischinger, Norman McLaren und anderen mit Ton fortgesetzt wurden. Der Music-Clip kann als eine Vermischung der Medien Musik und Video gesehen werden - hier tritt, wie auch im Fluxus und Happening, Intermedialität auf. In den digitalen Medien werden Ton und Bild als zwei unabhängige Datenströme behandelt. Während das Bild auch ohne die Dimension Zeit sichtbar bleibt, existiert Ton nur mit ihr. Beim Bewegtbild, dem Video, werden Bild und Ton synchron wiedergegeben. Die Digitalisierung eröffnete neue Möglichkeiten der Manipulation von Video die in den späten 1990er Jahren bis etwa 2005 zu einer Explosion des VeeJaying, später auch - wegen der Erosion der Begriffe VJ und Multimedia - Live Cinema genannten Trends. Dieser Hype ist vorbei - wo stehen wir jetzt?

Im Werkmodul Audio+Video werden wir uns intensiv mit Programmiertechniken befassen, welche es uns erlauben Audio und Video in Echtzeit zu manipulieren. Plattform ist die datenstromorientierte Programmierumgebung Pure Data und die Grafikbibliothek Gem[[Tracking Motion Detection#Gem|Graphics Environment for Multimedia]] an OpenGL extension for →[[Pure Data|Pd]]. Innerhalb davon werden wir uns der OpenGL Shading Language bedienen. Es werden keine Vorkenntnisse erwartet. Wir fangen ganz von vorne an und erarbeiten uns schrittweise Fähigkeiten, die es uns erlauben Audiovisuelle Performances oder Installationen zu verwirklichen.

Kursdetails

English description

Audiovisual performances and installations became pandemic since computer hardware and software can manipulate realtime streams. Since the big Hype of Veejaying around this turn of the millennium has declined we can find new approaches and aesthetics for audiovisual processing beyond that. In the class we learn techniques how to approach realtime media with software environments like Pure Data and Gem[[Tracking Motion Detection#Gem|Graphics Environment for Multimedia]] an OpenGL extension for →[[Pure Data|Pd]] with the use of OpenGL Shading Language. We start right at the beginning continue step by step to approach systems which will enable you to create complex audiovisual installations and performances.

We recommend to join the class “Bild zu Ton, Ton zu Bild“ in conjunction with this one.

Voraussetzungen

Keine Vorkenntnisse erforderlich.

Leistungsnachweis

Engagement und aktive, regelmäßige Teilnahme, künstlerische Prüfung, Dokumentation

Zielgruppe

Undergraduate (Bachelor)-Studierende der Fakultäten Medien und Gestaltung

Syllabus

  • 21.10.09 Einführung in die Grammatik von Pure Data, Sounddatei abspielen
  • 30.10.09 Einführung in Gem[[Tracking Motion Detection#Gem|Graphics Environment for Multimedia]] an OpenGL extension for →[[Pure Data|Pd]], Videodatei abspielen, Soundfdatei aus dem Speicher abspielen
  • 06.11.09 Audio und Video Synchron abspielen, Video aus dem Zwischenspeicher abspielen
  • 13.11.09 audio + video auf zwei instanzen verteilen: Netsend-Netreceive, pd~
  • 20.11.09 Scanned Synthesis
  • 27.11.09 Eingabegeräte: Midi, USB, Maus, Tastatur, Kamera
  • 04.12.09 Hüllkurven, Live video + audio
  • 08.-10.12.09 Exkursion nach Linz und Graz
  • 11.12.09
  • 18.12.09
  • 08.01.10 openGL shading language in GEM
  • 15.01.10 variables Delay
  • 22.01.10 Projektbetreuung
  • 29.01.10 Evaluierung, Projektbetreuung
  • 05.02.10 Zwischenpräsentation, Übung
  • 31.03.10 Abgabe der Projekte (per E-Mail)

Literatur

Alle diese Bücher und noch weitere findet ihr im Semesterapparat

Links