Intelligente Fußakrobatik: »Kick-Flickable Interfaces for public places«
Betreten Gäste das Informatik-Labor in der Haußknechtstraße 7, stolpern sie beinahe über einige gelbe, merkwürdig geformte Figuren in Fußballgröße. Und das ist sogar gewollt. Denn was da liegt, sind die Formprototypen aus dem Projekt »Kick-Flickable Interfaces« – Mensch-Maschine-Schnittstellen also, bei denen Personen mit dem Fuß eine Interaktion auslösen.
Medieninformatik- und Media-Architecture-Studierende erarbeiten gemeinsam Möglichkeiten, um durch Tritte, Stöße oder andere Berührungen mit dem Fuß Klänge und Leuchtsignale auszulösen. Die Interfaces sollen später spielerisch und installativ auf großen öffentlichen Plätzen eingesetzt werden.
Feldforschung mit Klobürste
Klar, am Anfang jeden Projektes steht die experimentelle Feldforschung. Josephine und Franziska haben deshalb untersucht, wie sich Menschen auf öffentlichen Plätzen verhalten: Gruppendynamik, Experimentierfreude und Spieldrang waren dabei wichtige Komponenten. Durch das sogenannte Bodystorming wollten sie schließlich herausfinden, wie verschiedene Gegenstände mit dem Fuß funktionieren: »Mit den Füßen sind wir ja doch ungeschickter oder grobmotorischer als mit den Händen. Deswegen haben wir versucht zu testen, welche Dinge man mit den Füßen gut ziehen, anheben oder stoßen kann«, beschreibt Josephine den Versuchsaufbau. Und so kickten sie Fässer, Klobürsten, alte Bälle und Schuhspanner durch die Weimarer Schillerstraße.
Ein Tritt führt zur Erleuchtung
Daraus haben die beiden MediaArchitecture-Studentinnen ihre organischen Formen entwickelt. Als Styrodur-Prototypen existieren sie bereits – mit Leben wollen sie aber erst noch gefüllt werden. Darum kümmert sich das Medieninformatik-Team. »Wir untersuchen hier, welche Input- und Output-Möglichkeiten es innerhalb dieser Interfaces gibt. Wenn beispielsweise eine Person gegen die Form tritt, entsteht Energie. Diese Energie fangen Sensoren im Inneren der Figur ein und geben ein anderes Signal aus – zum Beispiel Licht oder Klang. Wie das funktioniert und welche Sensoren dafür am geeignetsten sind, versuchen wir herauszufinden«, beschreibt Ingo das komplexe Vorgehen.
Das Rad neu erfinden
Jenny beispielsweise beschäftigt sich mit einem kleinen Rad, das mit Magnetsensoren verbunden ist – es soll später in die Formen integriert werden. Dreht sich das Rad einmal, beginnt eine LED-Lampe zu leuchten. Dreht es sich zweimal, leuchten zwei LEDs usw. Dreht sich das Rad in die andere Richtung, leuchten auch die LEDs in umgekehrter Reihenfolge. Die Sensoren und Outputs können also sehr unterschiedlich kombiniert werden. Werden die kleinen Module später in die Prototypen installiert, ergeben sich daraus auch ganz verschiedene Möglichkeiten.
Ganz eigene Charaktere
Und genau da setzt die Idee von Josephine und Franziska an: denn am Ende sollen nicht nur die menschlichen Füße mit den Figuren interagieren, auch die Formen untereinander sollen »kommunizieren« können. Josephine erklärt das so: »Wir stellen uns das wie einzelne Charaktere vor, die quasi emotional reagieren. Jede Form gibt jeweils eigene Outputs. Berühren sich beispielsweise zwei von ihnen, blinken sie schneller oder erzeugen ein spezifisches Geräusch.« Passanten sollen sich dadurch spielerisch mit den Figuren auseinandersetzen – anstubsen, staunen, ausprobieren. Natürlich hat das Team den Charakteren auch schon provisorische Namen gegeben. Was aus Paul, Tanja, Mama, Papa und der Rentnerin geworden ist, kann man sich am Freitag, 12. Juli, ab 17 Uhr bei der OpenLab Night in der Bauhausstraße 11 vom Projektteam erklären lassen.
Das Projekt entsteht an der Professur Human-Computer Interaction bei Prof. Dr. Eva Hornecker und Patrick-Tobias Fischer.
Projektbeteiligte: Jenny Carolina Gonzalez Acuna, Franziska Gerlach, Michael Pannier, Daniel Pollack, Ingo Schäfer, Josephine Trautmann
Mehr Informationen zum Projekt gibt es hier.