GMU:Spur, Weg, Vektor/sechste Aufgabe/EarMOTION: Difference between revisions

From Medien Wiki
No edit summary
mNo edit summary
 
(7 intermediate revisions by 2 users not shown)
Line 1: Line 1:
== Motivation ==
== Motivation ==
Lässt sich das Körpergefühl eines Menschen beeinflussen, indem seine Bewegungen mit Klängen kombiniert werden?
Inwiefern lässt sich das Körpergefühl eines Menschen beeinflussen, indem seine Bewegungen mit Klängen kombiniert werden?
Diese Frage ist ohne Weiteres nicht zu beantworten. Mithilfe von OSCeleton, Pure Data und SimpleSynth näherten wir uns dem Thema an.


Wir haben uns der Beantwortung dieser Frage gestellt. Mit OSCeleton, PureData und SimpleSynth erstellten wir einen Patch, der uns die Möglichkeit gibt genau das in Selbstexperimenten zu testen.
== Umsetzung ==
 
[[File:pk-2011-EarMOTION-code.jpg|thumb|Screenshot bei der Arbeit]]
-----> Was ist uns dadurch über unser Körpergefühl bewusst geworden?
Zahlen, Bewegungen und akustische Signale unter einen Hut zu bringen bedarf einiger Vorbereitung. Nur durch ständiges Experimentieren, Verwerfen, Umstrukturieren und Andersmaches sind wir mit dem Projekt voran gekommen. Entstanden ist ein audiovisuelles Tool, dass sich mehr oder weniger intuitiv steuern lässt - pathetischerweise heißt es fortan "EarMOTION". Es bleibt nach wie vor ein experimenteller Ansatz zur Annäherung an die eingangs gestellte Frage und erhebt keinen Anspruch auf ein vollständiges Konzept.
???Dabei fiel auf, dass intuitive Bewegungen oft nicht zu intuitiv sinnvollen Geräuscheabläufen führten.???
<br clear="all" />
 
== Funktion des Earmotion ==
Beiden Händen werden Instrumente zugeteilt, die man aus einer virtuellen Liste auswählen kann, in dem man mit der Hand den gegenübeliegenden Ellebogen berührt um ein Instrument vorzuspulen oder an die gegenüberliegende Schulter, um ein Instrument zurück zu spulen. Durch hoch und runter Bewegungen der Hände werden Töne des jeweiligen Instruments in jeweiliger Tonhöhe angespielt. Die Länge der abgespielten Töne ist abhängig von dem Abstand zwischen Hand und Torso.


Mit den Füßen werden Basedrum und Snare durch auf den Boden stellen gespielt.
== Funktion ==
Das Tool ist in einzelne Bewegungseinheiten gegliedert.


== Umsetzung ==
Wird der Kopf geneigt, ertönt ein sphärischer Sound. Mit einer Hand wird ein Instrument dirigiert, während die Andere hauptsächlich als Schalter dient. Mit ihr kann die Lautstärke geändert oder aber ein anderes Instrument ausgewählt werden. Der Bewegung der Füße sind Percussionelemente zugeordnet. Geht man aber in die Knie wird der Ton gebeugt.
Zu dritt überlegten wir uns zunächst, welche Funktionen unser Patch haben sollte und wie wir in der Projektarbeit vorgehen wollten. Es wurde viel ausprobiert mit verschiedenen Geräuschen und Bewegungen vor der Kinect. Nach einem Strukturplan zur Erstellung des Patches, wurden Aufageben verteilt und bei einem erneuten Treffen wurden Probleme in der Programierung besprochen und das Ergebnis ausprobiert.
Weitere Ideen werden momentan auf ihre Konzepttauglichkeit geprüft. Andere haben wir verworfen und für einige war die Zeit leider zu knapp.
<videoflash type=vimeo>33558678|530|300</videoflash>

Latest revision as of 15:44, 21 December 2011

Motivation

Inwiefern lässt sich das Körpergefühl eines Menschen beeinflussen, indem seine Bewegungen mit Klängen kombiniert werden? Diese Frage ist ohne Weiteres nicht zu beantworten. Mithilfe von OSCeleton, Pure Data und SimpleSynth näherten wir uns dem Thema an.

Umsetzung

Screenshot bei der Arbeit

Zahlen, Bewegungen und akustische Signale unter einen Hut zu bringen bedarf einiger Vorbereitung. Nur durch ständiges Experimentieren, Verwerfen, Umstrukturieren und Andersmaches sind wir mit dem Projekt voran gekommen. Entstanden ist ein audiovisuelles Tool, dass sich mehr oder weniger intuitiv steuern lässt - pathetischerweise heißt es fortan "EarMOTION". Es bleibt nach wie vor ein experimenteller Ansatz zur Annäherung an die eingangs gestellte Frage und erhebt keinen Anspruch auf ein vollständiges Konzept.

Funktion

Das Tool ist in einzelne Bewegungseinheiten gegliedert.

Wird der Kopf geneigt, ertönt ein sphärischer Sound. Mit einer Hand wird ein Instrument dirigiert, während die Andere hauptsächlich als Schalter dient. Mit ihr kann die Lautstärke geändert oder aber ein anderes Instrument ausgewählt werden. Der Bewegung der Füße sind Percussionelemente zugeordnet. Geht man aber in die Knie wird der Ton gebeugt. Weitere Ideen werden momentan auf ihre Konzepttauglichkeit geprüft. Andere haben wir verworfen und für einige war die Zeit leider zu knapp. <videoflash type=vimeo>33558678|530|300</videoflash>