GMU:Spur, Weg, Vektor/sechste Aufgabe/EarMOTION: Difference between revisions

From Medien Wiki
Line 3: Line 3:
Diese Frage ist ohne Weiteres nicht zu beantworten. Mithilfe von OSCeleton, PureData und SimpleSynth näherten wir uns dem Thema an.
Diese Frage ist ohne Weiteres nicht zu beantworten. Mithilfe von OSCeleton, PureData und SimpleSynth näherten wir uns dem Thema an.


== Funktion des Earmotion ==
== Umsetzung ==
Beiden Händen werden Instrumente zugeteilt, die man aus einer virtuellen Liste auswählen kann, in dem man mit der Hand den gegenübeliegenden Ellebogen berührt um ein Instrument vorzuspulen oder an die gegenüberliegende Schulter, um ein Instrument zurück zu spulen. Durch hoch und runter Bewegungen der Hände werden Töne des jeweiligen Instruments in jeweiliger Tonhöhe angespielt. Die Länge der abgespielten Töne ist abhängig von dem Abstand zwischen Hand und Torso.
Zahlen, Bewegungen und akustische Signale unter einen Hut zu bringen bedarf einiger Vorbereitung. Nur durch ständiges Experimentieren, Verwerfen, Umstrukturieren und Andersmaches sind wir mit dem Projekt voran gekommen. Entstanden ist ein audiovisuelles Tool, dass sich mehr oder weniger intuitiv steuern lässt - pathetischerweise heißt es fortan "EarMOTION". Es bleibt nach wie vor ein experimenteller Ansatz zur Annäherung an die eingangs gestellte Frage und erhebt keinen Anspruch auf ein vollständiges Konzept.


Mit den Füßen werden Basedrum und Snare durch auf den Boden stellen gespielt.
== Funktion ==
Das Tool ist in einzelne Bewegungseinheiten gegliedert.
 
Wird der Kopf geneigt, ertönt ein sphärischer Sound. Mit einer Hand wird ein Instrument dirigiert, während die Andere hauptsächlich als Schalter dient. Mit ihr kann die Lautstärke geändert oder aber ein anderes Instrument ausgewählt werden. Der Bewegung der Füße sind Percussionelemente zugeordnet. Geht man aber in die Knie wird der Ton gebeugt.
Weitere Ideen werden momentan auf ihre Konzepttauglichkeit geprüft. Andere haben wir verworfen und für einige war die Zeit leider zu knapp.

Revision as of 20:26, 12 December 2011

Motivation

Inwiefern lässt sich das Körpergefühl eines Menschen beeinflussen, indem seine Bewegungen mit Klängen kombiniert werden? Diese Frage ist ohne Weiteres nicht zu beantworten. Mithilfe von OSCeleton, PureData und SimpleSynth näherten wir uns dem Thema an.

Umsetzung

Zahlen, Bewegungen und akustische Signale unter einen Hut zu bringen bedarf einiger Vorbereitung. Nur durch ständiges Experimentieren, Verwerfen, Umstrukturieren und Andersmaches sind wir mit dem Projekt voran gekommen. Entstanden ist ein audiovisuelles Tool, dass sich mehr oder weniger intuitiv steuern lässt - pathetischerweise heißt es fortan "EarMOTION". Es bleibt nach wie vor ein experimenteller Ansatz zur Annäherung an die eingangs gestellte Frage und erhebt keinen Anspruch auf ein vollständiges Konzept.

Funktion

Das Tool ist in einzelne Bewegungseinheiten gegliedert.

Wird der Kopf geneigt, ertönt ein sphärischer Sound. Mit einer Hand wird ein Instrument dirigiert, während die Andere hauptsächlich als Schalter dient. Mit ihr kann die Lautstärke geändert oder aber ein anderes Instrument ausgewählt werden. Der Bewegung der Füße sind Percussionelemente zugeordnet. Geht man aber in die Knie wird der Ton gebeugt. Weitere Ideen werden momentan auf ihre Konzepttauglichkeit geprüft. Andere haben wir verworfen und für einige war die Zeit leider zu knapp.