<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Anjae</id>
	<title>Medien Wiki - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Anjae"/>
	<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/Special:Contributions/Anjae"/>
	<updated>2026-05-09T04:51:56Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.39.6</generator>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=RADIO:Klangarchiv&amp;diff=35545</id>
		<title>RADIO:Klangarchiv</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=RADIO:Klangarchiv&amp;diff=35545"/>
		<updated>2011-12-08T10:38:12Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Klangarchiv */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Klangarchiv==&lt;br /&gt;
1. Tabelle der Auswahlstücke mit Texten/Infos erweitert&amp;lt;br&amp;gt;&lt;br /&gt;
2. Stichworte aus den Texten alphabetisch aufgelistet&amp;lt;br&amp;gt;&lt;br /&gt;
*[[Media:PARAMETERfindung_01.pdf|PARAMETERfindung-01]]&amp;lt;br&amp;gt;&lt;br /&gt;
3. Kategorien -&amp;gt; mgl. Unterkategorien&amp;lt;br&amp;gt;&lt;br /&gt;
*[[Media:PARAMETERfindung_02.pdf|PARAMETERfindung-02]]&lt;br /&gt;
&lt;br /&gt;
==Räumliches Interface==&lt;br /&gt;
Im Museum selbst soll ein räumliches Interface entstehen, welches als Ergänzung zum &#039;chambre d&#039;ecoute&#039; einen interaktiven Zugang zu besagter &#039;Werksammlung der Klangkunst&#039; bietet.&lt;br /&gt;
&lt;br /&gt;
====Die Räumlichkeiten====&lt;br /&gt;
*[[Media:überblick_1.pdf|Überblick]]  &lt;br /&gt;
*[[Media:3d-ansicht-raucm.jpg|3D-Ansicht des Raums]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Website==&lt;br /&gt;
1. Strukturidee (Frederik)&lt;br /&gt;
*[[Image:drafts.zip]]&lt;br /&gt;
&lt;br /&gt;
2. Strukturidee (Anja)&lt;br /&gt;
- (unabhängig vom Interface und der späteren Gestaltung;&lt;br /&gt;
nur für meine Logik/ Strukturfindung)&lt;br /&gt;
*[[Media:Idee-01_website-ansicht.jpg|website-idee-01]]&lt;br /&gt;
*[[Media:Idee-02_website-ansicht.pdf|website-idee-02]]&lt;br /&gt;
*[[Media:Idee-03_website-ansicht.pdf|website-idee-03]]&lt;br /&gt;
*[[Media:Idee-04_website-ansicht.jpg|website-idee-04]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=PDCON:Schedule&amp;diff=31429</id>
		<title>PDCON:Schedule</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=PDCON:Schedule&amp;diff=31429"/>
		<updated>2011-08-09T15:44:20Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Friday 12. Aug. 2011 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Legend===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference|Conference Panels]]&lt;br /&gt;
|-&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops|Workshops]]&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|Workshops exclusive for Bauhaus Summer School [http://www.uni-weimar.de/summerschool/en/welcome/culture-media/creating-interactive-art-and-music Sign up here](€!) &lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts|Concerts]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Not included in the schedule: [[PDCON:Exhibition|Exhibition]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Sunday 07. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|18:30 - 20:30&lt;br /&gt;
|opening ceremony and reception of the Bauhaus Summer School&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Auditorium maximum, university library Steubenstraße 6&amp;lt;/small&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===Monday 08. Aug 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|10:30 - 12:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee, welcome reception, registration&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marienstraße 18|Marienstraße 18]] - Café&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Data Structures|Data Structures]]&amp;lt;br /&amp;gt; João Pais&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Xth Sense, Biophysical Music|Xth Sense, Biophysical Music]]&amp;lt;br /&amp;gt; Marco Donnarumma&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Pd for beginners|Pd for beginners]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/RjDj|RjDj]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Xth Sense, Biophysical Music|Xth Sense, Biophysical Music]]&amp;lt;br /&amp;gt; Marco Donnarumma&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Build your own USB-MIDI-Interface|Build your own USB-MIDI-Interface for Pd]]&amp;lt;br /&amp;gt; Felix Krüger, Felix Pfeifer &amp;amp; Georg Werner&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner break&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Bileam Kümper]]: &#039;&#039;Clockwork, 24 *60 canons for each minute of the day&#039;&#039; (12 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 22:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Words of welcome, Keynote by Prof. Winfried Ritsch&amp;lt;br /&amp;gt;[[PDCON:Concerts/Chikashi Miyama|Chikashi Miyama: Black Vox]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Endphase: João Pais, Alberto C. Bernal, Enrique Tomás|Endphase-João Pais, Alberto C. Bernal, Enrique Tomás: Endphase 18-2 “Mixed Cities”]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Thomas Grill|Thomas Grill: Points of View]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Tim Vets|Tim Vets: Extended Guitar Duo]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Platz der Demokratie, Fürstenhaus [[PDCON:Venues/Fürstensaal|Fürstensaal]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tuesday 09. Aug. 2011 ===&lt;br /&gt;
Topic: [[Spatialisation]], [[General]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Self-replication: how to do more using less|Self-replication: how to do more using less]]&amp;lt;br /&amp;gt;Krzysztof Czaja  &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Pd framework for the Xth Sense: enabling computers to sense human kinetic behaviour|A Pd framework for the Xth Sense: enabling computers to sense human kinetic behaviour]]&amp;lt;br /&amp;gt;Marco Donnarumma &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/AUDIENCE for Pd, a scene-oriented library for spatial audio|AUDIENCE for Pd, a scene-oriented library for spatial audio]]&amp;lt;br /&amp;gt;Regis Faria&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Dynamic Time Warping for Pure Data|Dynamic Time Warping for Pure Data]]&amp;lt;br /&amp;gt;Pedro Lopez and Joaquim Jorge &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Electro-Acoustic Tools (EAT): High-Level Abstractions for Audio Manipulation and Spatialisation|Electro-Acoustic Tools (EAT): High-Level Abstractions for Audio Manipulation and Spatialisation]]&amp;lt;br /&amp;gt;Richard Thomas &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Using Pure Data in Spore and Darkspore - successes and failures|Using Pure Data in Spore and Darkspore - successes and failures]]&amp;lt;br \&amp;gt;Kent Jolly &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Custom Spatialisation PD Patch for a  Large Non-conventional Area|Custom Spatialisation PD Patch for a  Large Non-conventional Area]]&amp;lt;br /&amp;gt;José Rafael Subía Valdez &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Music in expression - A DSP based compositional methodology|Music in expression - A DSP based compositional methodology]]&amp;lt;br \&amp;gt;Chun Lee &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|lunch break&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Data Structures|Data Structures]]&amp;lt;br /&amp;gt; João Pais&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Build your own USB-MIDI-Interface|Build your own USB-MIDI-Interface for Pd]]&amp;lt;br /&amp;gt; Felix Krüger, Felix Pfeifer &amp;amp; Georg Werner&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|rowspan=&amp;quot;3&amp;quot;|excursion to&amp;lt;br /&amp;gt;Fraunhofer IDMT Ilmenau&amp;lt;br /&amp;gt;approx. 15 seats available: [[/Excursion Ilmenau|more info &amp;amp; sign up]]&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;2&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/RjDj|RjDj]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Laptop Orchestra|Laptop Orchestra]]&amp;lt;br /&amp;gt; Quim Llimona, John O&#039;connell, William Goutfreind&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner break&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Rich Thomas]]: &#039;&#039;Race, War, and a Failed Treaty&#039;&#039; (11:49 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 20:00&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Opening of the Exhibition&amp;lt;br /&amp;gt;[[PDCON:Concerts/Tad Bisaha, Sitan Adele K|Tad Bisaha, Sitan Adele K: Rock-Art2noise]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Nietzsche Gedächnishalle|Nietzsche Gedächnishalle]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|rowspan=&amp;quot;2&amp;quot;|[http://www.uni-weimar.de/summerschool/en/welcome/accompanying-programme/parties Bauhaus Summer School welcome party]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Geschwister Scholl Str. 8, Campus&amp;lt;br /&amp;gt;Hint: free food and drinks&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:30 - 22:00&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Koray Tahiroğlu|Koray Tahiroğlu: Live Audio Cues]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Richard Graham|Richard Graham: Axon]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Hsin-jen Wang|Hsin-jen Wang: Moving Resonance]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Eduardo Flores Abad|Eduardo Flores Abad: Poder y Resistencia]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Marco Donnarumma|Marco Donnarumma: Music for Flesh II &amp;lt; PdCon 2011 &amp;gt;]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Wednesday 10. Aug. 2011 ===&lt;br /&gt;
Topic: [[General]], [[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A collaboration workflow from sound-based composition to performance of electroacoustic music using Pd as a framework|A collaboration workflow from sound-based composition to performance of electroacoustic music using Pd as a framework]]&amp;lt;br /&amp;gt;Kyriakos Tsoukalas &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/GUI Plugins in Pd 0.43|GUI Plugins in Pd 0.43]]&amp;lt;br /&amp;gt;Hans-Christoph Steiner &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Voice as joystick and oscillator|Voice as joystick and oscillator]]&amp;lt;br /&amp;gt;Miller Puckette &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Plug your cam - extending Gem the modular way|Plug your cam - extending Gem the modular way]]&amp;lt;br /&amp;gt;IOhannes zmölnig &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|lunch break&amp;lt;br /&amp;gt;[[PDCON:Concerts/Katja Vetter|Katja Vetter: Instant Decomposer]]&amp;lt;br/&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park|Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Projection Mapping|Projection Mapping]]&amp;lt;br /&amp;gt; Ricardo Palmieri&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Audience|Audience]]&amp;lt;br /&amp;gt; Regis Faria&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/DIY electronic music using Visual Tracker|DIY electronic music using Visual Tracker]]&amp;lt;br /&amp;gt; Bérenger Recoules&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Universal Polyphonic Player|Universal Polyphonic Player]]&amp;lt;br /&amp;gt; Thomas Grill&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/ATMEL AVR|ATMEL AVR]]&amp;lt;br /&amp;gt; Chikashi Miyama&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/pmpd|pmpd for Beginners]]&amp;lt;br /&amp;gt; Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Thomas Grill]]: &#039;&#039;luscinia megarhynchos&#039;&#039; (12:20 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:00 - 22:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|DJ+Bar&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Radio Lotte Sendesaal|Goetheplatz 12, Radio Lotte]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - 24:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Radio Broadcast&amp;lt;br /&amp;gt;[[PDCON:Concerts/Oscar Martin (Noish)|Oscar Martin (Noish): Eetz]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Quim Llimona, John O&#039;connell, William Goutfreind, Alex Barrachina|Barcelona Laptop Orchestra - Quim Llimona, John O&#039;connell, William Goutfreind, Alex Barrachina: La Roda]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Radio Lotte Sendesaal|Goetheplatz 12, Radio Lotte]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Thursday 11. Aug. 2011 ===&lt;br /&gt;
Topic: [[Embeded]],[[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Embedding Pure Data with libpd: Design and Workflow|Embedding Pure Data with libpd]]&amp;lt;br /&amp;gt;Peter Brinkmann, Peter Kirn, Richard Lawler, Chris McCormick, Martin Roth, Hans-Christoph Steiner&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Dissonance Model Toolbox in Pure Data|Dissonance model toolbox in Pure Data]]&amp;lt;br /&amp;gt;Alexandre Porres&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/An Exploration on Mobile Interfaces with Adaptive Mapping Strategies in Pure Data|An Exploration on Mobile Interfaces with Adaptive Mapping Strategies in Pure Data]]&amp;lt;br /&amp;gt;Koray Tahiroğlu&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Framework for Real-time Instrumental Sound Segmentation and Labeling|A Framework for Real-time Instrumental Sound Segmentation and Labeling]]&amp;lt;br /&amp;gt;Adriano Monteiro&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/rj - abstractions for getting things done|rj - abstractions for getting things done]]&amp;lt;br /&amp;gt;Frank Barknecht &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Reverb Design|Reverb Design]]&amp;lt;br /&amp;gt;Urban Schlemmer&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/VisualTracker - modular pd environment for sequencing events on timeline|VisualTracker – Modular Pd Environment for sequencing events on the timeline]]&amp;lt;br /&amp;gt;Aleš Černý&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Using Pd to create a visualization instrument for percussion|Using Pd to create a visualization instrument for percussion]]&amp;lt;br /&amp;gt;John Harrison&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|lunch break&amp;lt;br /&amp;gt;[[PDCON:Concerts/Alexander Senko|Alexander Senko: Acoustic Images]]&amp;lt;br/&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park|Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for Android]]&amp;lt;br /&amp;gt;Peter Brinkmann&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/DIY_electronic_music_using_Visual_Tracker|DIY electronic music using Visual Tracker]]&amp;lt;br /&amp;gt; Bérenger Recoules&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/GEM|GEM Introduction]]&amp;lt;br /&amp;gt;IOhannes Zmölnig&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/pmpd|pmpd Advanced]]&amp;lt;br /&amp;gt;Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/ATMEL AVR|ATMEL AVR]]&amp;lt;br /&amp;gt;Chikashi Miyama&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Spectral Analysis|Spectral Analysis]]&amp;lt;br /&amp;gt;Alexandre Porres&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 19:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Dinner for all participants at the [[PDCON:Venues/Schießhaus|Schießhaus]]&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 21:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Moritz Schell, Frederic Seybicke|Moritz Schell, Frederic Seybicke: Listen How It Looks Like]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Cyrille Henry, Nicolas Montgermont|Cyrille Henry, Nicolas Montgermont: Egregore]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Dan Wilcox|Dan Wilcox: Robot Cowboy]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Onyx Ashanti|Onyx Ashanti: Beatjazz]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Schießhaus|Schießhaus]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
			&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Friday 12. Aug. 2011 ===&lt;br /&gt;
Topic: [[Audiovisual]], [[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Image Processing Algorithm Optimization with CUDA for Pure Data|Image Processing Algorithm Optimization with CUDA for Pure Data]]&amp;lt;br \&amp;gt;Rudi Giot, Jacques Tichon and Abilio Rodrigues&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Live Performance System in Pure Data: Pitch Contour as Figurative Gesture|A Live Performance System in Pure Data: Pitch Contour as Figurative Gesture]]&amp;lt;br \&amp;gt;Richard Graham&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/GPU audio signals processing in Pd, and PDCUDA, an implementation with the CUDA runtime API|GPU audio signals processing in Pd, and PDCUDA, an implementation with the CUDA runtime API]]&amp;lt;br \&amp;gt;Charles Henry&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Pure Data implementation of an ESS-based impulse response acoustic measurement tool|Pure Data implementation of an ESS-based impulse response acoustic measurement tool]]&amp;lt;br \&amp;gt;Serafino Di Rosario and Katja Vetter&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Extended View Toolkit|Extended View Toolkit]]&amp;lt;br \&amp;gt;Peter Venus&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Click Tracker: Performance/composition tool for metrically complex scores|Click Tracker: Performance/composition tool for metrically complex scores]]&amp;lt;br /&amp;gt;João Pais and Pedro Lopes&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Gemnotes: A Realtime music notation system for pure data|Gemnotes: A Realtime music notation system for pure data]]&amp;lt;br /&amp;gt;Edward Kelly &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/DILIB: Control Data Parsing for Digital Musical Instrument Design|DILIB: Control Data Parsing for Digital Musical Instrument Design]]&amp;lt;br \&amp;gt;William Brent &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt; [[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|lunch break&amp;lt;br /&amp;gt;[[PDCON:Concerts/Seiichiro Matsumura|Seiichiro Matsumura: Pendulums]]&amp;lt;br/&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park|Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for iOs]]&amp;lt;br /&amp;gt; Peter Brinkmann and Martin Roth&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/GEM|GEM Advanced]]&amp;lt;br /&amp;gt; IOhannes zmölnig	&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Pd for beginners|Pd for beginners]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for open frameworks]]&amp;lt;br /&amp;gt; Dan Wilcox	&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/GLSL|GLSL]]&amp;lt;br /&amp;gt; Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Spectral Analysis|Spectral Analysis]]&amp;lt;br /&amp;gt; Alexandre Porres&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Chelsea Leventhal]]: &#039;&#039;Spieluhrgruss für Weimar&#039;&#039; (ca. 12:00 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 20:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Round Table commercial application of Pd&amp;lt;br /&amp;gt;Peter Brinkmann, Google (USA) Author of libpd&amp;lt;br /&amp;gt;Kent Jolly, Electronic Arts (USA) Author of Spore&amp;lt;br /&amp;gt;Martin Roth, CTO Reality Jockey Ltd. (London)&amp;lt;br /&amp;gt;N.N., Fraunhofer IDMT (Ilmenau)&amp;lt;br /&amp;gt;Martin Enderlein, Netlabel Headphonica (Weimar/Halle)&amp;lt;br /&amp;gt;Sebastian Dittmann, CEO Audanika (Erfurt)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Location t.b.a&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:00 - 20:20&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Presentation Robert Wechsler&lt;br /&gt;
|-&lt;br /&gt;
|20:30 - 21:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Round Table future Developments&amp;lt;br /&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Saturday 13. Aug. 2011===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|10:00 - 14:00&lt;br /&gt;
|Transfer Weimar~Berlin [[/Coach transfer|Sign up here]]&lt;br /&gt;
|-&lt;br /&gt;
|17:00 - 20:00&amp;lt;br /&amp;gt;or&amp;lt;br /&amp;gt;18:00 - 20:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|Pd meeting “Show you patch” #1]]&lt;br /&gt;
Just like a normal Pd meeting, let people meet and start communicating. Show &#039;&#039;&#039;YOUR&#039;&#039;&#039; patches to others, make questions, talk, have a drink, ... &lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/N.K.|N.K.]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - ... &lt;br /&gt;
|style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Ed Kelly|Ed Kelly: Synchroma Was a Broken String]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Alexandre Porres|Alexandre Porres: Something Stuck in My Throat]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Paloma Oliveira, Jaime Lobato|Paloma Oliveira, Jaime Lobato: La grand Pelea]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Jinyao Lin|Jinyao Lin: Tracks]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Anela Takac|Anela Takac: Video Organ]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
			&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Sunday 14. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|14:00 - 17:00 &lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|Pd meeting “Show you patch” #2]]&lt;br /&gt;
Just like a normal Pd meeting, let people meet and start communicating. Show &#039;&#039;&#039;YOUR&#039;&#039;&#039; patches to others, make questions, talk, have a drink, ... &lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/N.K.|N.K.]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|18:00 - 20:00&lt;br /&gt;
|[[PDCON:Berlin-events#Sketch pages collective improvisation|Sketch pages collective improvisation]]&lt;br /&gt;
A collective live-coding improvisation on foreign terrain - with &#039;&#039;&#039;YOUR&#039;&#039;&#039; participation.&lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Blanc sketch pages collective improvisation|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - open end&lt;br /&gt;
|style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Berlin-events#Late night open improvisation marathon|Late night open improvisation marathon]]&lt;br /&gt;
Bring anything &#039;&#039;&#039;YOU&#039;&#039;&#039; want and can do - audio, video, sensors, ... -, and join in the group. Take an empty slot, and improvise for a while; leave for a drink and give your place to someone else; and so on and so on, until it&#039;s morning again.&lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Late night open improvisation marathon|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
		&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Monday 15. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|12:00 - ...&lt;br /&gt;
|Brunch&lt;br /&gt;
For who might still be awake from the previous night, or whoever might want to join in after having had some sleep.&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
{{Template:PdCon11}}&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=PDCON:Schedule&amp;diff=31428</id>
		<title>PDCON:Schedule</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=PDCON:Schedule&amp;diff=31428"/>
		<updated>2011-08-09T15:40:13Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Friday 12. Aug. 2011 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Legend===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference|Conference Panels]]&lt;br /&gt;
|-&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops|Workshops]]&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|Workshops exclusive for Bauhaus Summer School [http://www.uni-weimar.de/summerschool/en/welcome/culture-media/creating-interactive-art-and-music Sign up here](€!) &lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts|Concerts]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Not included in the schedule: [[PDCON:Exhibition|Exhibition]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Sunday 07. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|18:30 - 20:30&lt;br /&gt;
|opening ceremony and reception of the Bauhaus Summer School&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Auditorium maximum, university library Steubenstraße 6&amp;lt;/small&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===Monday 08. Aug 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|10:30 - 12:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee, welcome reception, registration&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marienstraße 18|Marienstraße 18]] - Café&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Data Structures|Data Structures]]&amp;lt;br /&amp;gt; João Pais&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Xth Sense, Biophysical Music|Xth Sense, Biophysical Music]]&amp;lt;br /&amp;gt; Marco Donnarumma&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Pd for beginners|Pd for beginners]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/RjDj|RjDj]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Xth Sense, Biophysical Music|Xth Sense, Biophysical Music]]&amp;lt;br /&amp;gt; Marco Donnarumma&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Build your own USB-MIDI-Interface|Build your own USB-MIDI-Interface for Pd]]&amp;lt;br /&amp;gt; Felix Krüger, Felix Pfeifer &amp;amp; Georg Werner&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner break&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Bileam Kümper]]: &#039;&#039;Clockwork, 24 *60 canons for each minute of the day&#039;&#039; (12 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 22:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Words of welcome, Keynote by Prof. Winfried Ritsch&amp;lt;br /&amp;gt;[[PDCON:Concerts/Chikashi Miyama|Chikashi Miyama: Black Vox]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Endphase: João Pais, Alberto C. Bernal, Enrique Tomás|Endphase-João Pais, Alberto C. Bernal, Enrique Tomás: Endphase 18-2 “Mixed Cities”]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Thomas Grill|Thomas Grill: Points of View]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Tim Vets|Tim Vets: Extended Guitar Duo]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Platz der Demokratie, Fürstenhaus [[PDCON:Venues/Fürstensaal|Fürstensaal]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tuesday 09. Aug. 2011 ===&lt;br /&gt;
Topic: [[Spatialisation]], [[General]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Self-replication: how to do more using less|Self-replication: how to do more using less]]&amp;lt;br /&amp;gt;Krzysztof Czaja  &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Pd framework for the Xth Sense: enabling computers to sense human kinetic behaviour|A Pd framework for the Xth Sense: enabling computers to sense human kinetic behaviour]]&amp;lt;br /&amp;gt;Marco Donnarumma &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/AUDIENCE for Pd, a scene-oriented library for spatial audio|AUDIENCE for Pd, a scene-oriented library for spatial audio]]&amp;lt;br /&amp;gt;Regis Faria&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Dynamic Time Warping for Pure Data|Dynamic Time Warping for Pure Data]]&amp;lt;br /&amp;gt;Pedro Lopez and Joaquim Jorge &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Electro-Acoustic Tools (EAT): High-Level Abstractions for Audio Manipulation and Spatialisation|Electro-Acoustic Tools (EAT): High-Level Abstractions for Audio Manipulation and Spatialisation]]&amp;lt;br /&amp;gt;Richard Thomas &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Using Pure Data in Spore and Darkspore - successes and failures|Using Pure Data in Spore and Darkspore - successes and failures]]&amp;lt;br \&amp;gt;Kent Jolly &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Custom Spatialisation PD Patch for a  Large Non-conventional Area|Custom Spatialisation PD Patch for a  Large Non-conventional Area]]&amp;lt;br /&amp;gt;José Rafael Subía Valdez &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Music in expression - A DSP based compositional methodology|Music in expression - A DSP based compositional methodology]]&amp;lt;br \&amp;gt;Chun Lee &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|lunch break&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Data Structures|Data Structures]]&amp;lt;br /&amp;gt; João Pais&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Build your own USB-MIDI-Interface|Build your own USB-MIDI-Interface for Pd]]&amp;lt;br /&amp;gt; Felix Krüger, Felix Pfeifer &amp;amp; Georg Werner&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|rowspan=&amp;quot;3&amp;quot;|excursion to&amp;lt;br /&amp;gt;Fraunhofer IDMT Ilmenau&amp;lt;br /&amp;gt;approx. 15 seats available: [[/Excursion Ilmenau|more info &amp;amp; sign up]]&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;2&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/RjDj|RjDj]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Laptop Orchestra|Laptop Orchestra]]&amp;lt;br /&amp;gt; Quim Llimona, John O&#039;connell, William Goutfreind&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner break&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Rich Thomas]]: &#039;&#039;Race, War, and a Failed Treaty&#039;&#039; (11:49 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 20:00&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Opening of the Exhibition&amp;lt;br /&amp;gt;[[PDCON:Concerts/Tad Bisaha, Sitan Adele K|Tad Bisaha, Sitan Adele K: Rock-Art2noise]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Nietzsche Gedächnishalle|Nietzsche Gedächnishalle]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|rowspan=&amp;quot;2&amp;quot;|[http://www.uni-weimar.de/summerschool/en/welcome/accompanying-programme/parties Bauhaus Summer School welcome party]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Geschwister Scholl Str. 8, Campus&amp;lt;br /&amp;gt;Hint: free food and drinks&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:30 - 22:00&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Koray Tahiroğlu|Koray Tahiroğlu: Live Audio Cues]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Richard Graham|Richard Graham: Axon]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Hsin-jen Wang|Hsin-jen Wang: Moving Resonance]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Eduardo Flores Abad|Eduardo Flores Abad: Poder y Resistencia]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Marco Donnarumma|Marco Donnarumma: Music for Flesh II &amp;lt; PdCon 2011 &amp;gt;]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Wednesday 10. Aug. 2011 ===&lt;br /&gt;
Topic: [[General]], [[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A collaboration workflow from sound-based composition to performance of electroacoustic music using Pd as a framework|A collaboration workflow from sound-based composition to performance of electroacoustic music using Pd as a framework]]&amp;lt;br /&amp;gt;Kyriakos Tsoukalas &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/GUI Plugins in Pd 0.43|GUI Plugins in Pd 0.43]]&amp;lt;br /&amp;gt;Hans-Christoph Steiner &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Voice as joystick and oscillator|Voice as joystick and oscillator]]&amp;lt;br /&amp;gt;Miller Puckette &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Plug your cam - extending Gem the modular way|Plug your cam - extending Gem the modular way]]&amp;lt;br /&amp;gt;IOhannes zmölnig &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|lunch break&amp;lt;br /&amp;gt;[[PDCON:Concerts/Katja Vetter|Katja Vetter: Instant Decomposer]]&amp;lt;br/&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park|Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Projection Mapping|Projection Mapping]]&amp;lt;br /&amp;gt; Ricardo Palmieri&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Audience|Audience]]&amp;lt;br /&amp;gt; Regis Faria&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/DIY electronic music using Visual Tracker|DIY electronic music using Visual Tracker]]&amp;lt;br /&amp;gt; Bérenger Recoules&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Universal Polyphonic Player|Universal Polyphonic Player]]&amp;lt;br /&amp;gt; Thomas Grill&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/ATMEL AVR|ATMEL AVR]]&amp;lt;br /&amp;gt; Chikashi Miyama&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/pmpd|pmpd for Beginners]]&amp;lt;br /&amp;gt; Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Thomas Grill]]: &#039;&#039;luscinia megarhynchos&#039;&#039; (12:20 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:00 - 22:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|DJ+Bar&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Radio Lotte Sendesaal|Goetheplatz 12, Radio Lotte]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - 24:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Radio Broadcast&amp;lt;br /&amp;gt;[[PDCON:Concerts/Oscar Martin (Noish)|Oscar Martin (Noish): Eetz]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Quim Llimona, John O&#039;connell, William Goutfreind, Alex Barrachina|Barcelona Laptop Orchestra - Quim Llimona, John O&#039;connell, William Goutfreind, Alex Barrachina: La Roda]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Radio Lotte Sendesaal|Goetheplatz 12, Radio Lotte]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Thursday 11. Aug. 2011 ===&lt;br /&gt;
Topic: [[Embeded]],[[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Embedding Pure Data with libpd: Design and Workflow|Embedding Pure Data with libpd]]&amp;lt;br /&amp;gt;Peter Brinkmann, Peter Kirn, Richard Lawler, Chris McCormick, Martin Roth, Hans-Christoph Steiner&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Dissonance Model Toolbox in Pure Data|Dissonance model toolbox in Pure Data]]&amp;lt;br /&amp;gt;Alexandre Porres&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/An Exploration on Mobile Interfaces with Adaptive Mapping Strategies in Pure Data|An Exploration on Mobile Interfaces with Adaptive Mapping Strategies in Pure Data]]&amp;lt;br /&amp;gt;Koray Tahiroğlu&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Framework for Real-time Instrumental Sound Segmentation and Labeling|A Framework for Real-time Instrumental Sound Segmentation and Labeling]]&amp;lt;br /&amp;gt;Adriano Monteiro&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/rj - abstractions for getting things done|rj - abstractions for getting things done]]&amp;lt;br /&amp;gt;Frank Barknecht &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Reverb Design|Reverb Design]]&amp;lt;br /&amp;gt;Urban Schlemmer&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/VisualTracker - modular pd environment for sequencing events on timeline|VisualTracker – Modular Pd Environment for sequencing events on the timeline]]&amp;lt;br /&amp;gt;Aleš Černý&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Using Pd to create a visualization instrument for percussion|Using Pd to create a visualization instrument for percussion]]&amp;lt;br /&amp;gt;John Harrison&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|lunch break&amp;lt;br /&amp;gt;[[PDCON:Concerts/Alexander Senko|Alexander Senko: Acoustic Images]]&amp;lt;br/&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park|Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for Android]]&amp;lt;br /&amp;gt;Peter Brinkmann&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/DIY_electronic_music_using_Visual_Tracker|DIY electronic music using Visual Tracker]]&amp;lt;br /&amp;gt; Bérenger Recoules&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/GEM|GEM Introduction]]&amp;lt;br /&amp;gt;IOhannes Zmölnig&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/pmpd|pmpd Advanced]]&amp;lt;br /&amp;gt;Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/ATMEL AVR|ATMEL AVR]]&amp;lt;br /&amp;gt;Chikashi Miyama&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Spectral Analysis|Spectral Analysis]]&amp;lt;br /&amp;gt;Alexandre Porres&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 19:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Dinner for all participants at the [[PDCON:Venues/Schießhaus|Schießhaus]]&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 21:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Moritz Schell, Frederic Seybicke|Moritz Schell, Frederic Seybicke: Listen How It Looks Like]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Cyrille Henry, Nicolas Montgermont|Cyrille Henry, Nicolas Montgermont: Egregore]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Dan Wilcox|Dan Wilcox: Robot Cowboy]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Onyx Ashanti|Onyx Ashanti: Beatjazz]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Schießhaus|Schießhaus]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
			&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Friday 12. Aug. 2011 ===&lt;br /&gt;
Topic: [[Audiovisual]], [[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Image Processing Algorithm Optimization with CUDA for Pure Data|Image Processing Algorithm Optimization with CUDA for Pure Data]]&amp;lt;br \&amp;gt;Rudi Giot, Jacques Tichon and Abilio Rodrigues&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Live Performance System in Pure Data: Pitch Contour as Figurative Gesture|A Live Performance System in Pure Data: Pitch Contour as Figurative Gesture]]&amp;lt;br \&amp;gt;Richard Graham&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/GPU audio signals processing in Pd, and PDCUDA, an implementation with the CUDA runtime API|GPU audio signals processing in Pd, and PDCUDA, an implementation with the CUDA runtime API]]&amp;lt;br \&amp;gt;Charles Henry&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Pure Data implementation of an ESS-based impulse response acoustic measurement tool|Pure Data implementation of an ESS-based impulse response acoustic measurement tool]]&amp;lt;br \&amp;gt;Serafino Di Rosario and Katja Vetter&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Extended View Toolkit|Extended View Toolkit]]&amp;lt;br \&amp;gt;Peter Venus&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Click Tracker: Performance/composition tool for metrically complex scores|Click Tracker: Performance/composition tool for metrically complex scores]]&amp;lt;br /&amp;gt;João Pais and Pedro Lopes&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Gemnotes: A Realtime music notation system for pure data|Gemnotes: A Realtime music notation system for pure data]]&amp;lt;br /&amp;gt;Edward Kelly &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/DILIB: Control Data Parsing for Digital Musical Instrument Design|DILIB: Control Data Parsing for Digital Musical Instrument Design]]&amp;lt;br \&amp;gt;William Brent &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt; [[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|lunch break&amp;lt;br /&amp;gt;[[PDCON:Concerts/Seiichiro Matsumura|Seiichiro Matsumura: Pedulums]]&amp;lt;br/&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park|Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for iOs]]&amp;lt;br /&amp;gt; Peter Brinkmann and Martin Roth&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/GEM|GEM Advanced]]&amp;lt;br /&amp;gt; IOhannes zmölnig	&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Pd for beginners|Pd for beginners]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for open frameworks]]&amp;lt;br /&amp;gt; Dan Wilcox	&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/GLSL|GLSL]]&amp;lt;br /&amp;gt; Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Spectral Analysis|Spectral Analysis]]&amp;lt;br /&amp;gt; Alexandre Porres&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Chelsea Leventhal]]: &#039;&#039;Spieluhrgruss für Weimar&#039;&#039; (ca. 12:00 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 20:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Round Table commercial application of Pd&amp;lt;br /&amp;gt;Peter Brinkmann, Google (USA) Author of libpd&amp;lt;br /&amp;gt;Kent Jolly, Electronic Arts (USA) Author of Spore&amp;lt;br /&amp;gt;Martin Roth, CTO Reality Jockey Ltd. (London)&amp;lt;br /&amp;gt;N.N., Fraunhofer IDMT (Ilmenau)&amp;lt;br /&amp;gt;Martin Enderlein, Netlabel Headphonica (Weimar/Halle)&amp;lt;br /&amp;gt;Sebastian Dittmann, CEO Audanika (Erfurt)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Location t.b.a&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:00 - 20:20&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Presentation Robert Wechsler&lt;br /&gt;
|-&lt;br /&gt;
|20:30 - 21:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Round Table future Developments&amp;lt;br /&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Saturday 13. Aug. 2011===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|10:00 - 14:00&lt;br /&gt;
|Transfer Weimar~Berlin [[/Coach transfer|Sign up here]]&lt;br /&gt;
|-&lt;br /&gt;
|17:00 - 20:00&amp;lt;br /&amp;gt;or&amp;lt;br /&amp;gt;18:00 - 20:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|Pd meeting “Show you patch” #1]]&lt;br /&gt;
Just like a normal Pd meeting, let people meet and start communicating. Show &#039;&#039;&#039;YOUR&#039;&#039;&#039; patches to others, make questions, talk, have a drink, ... &lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/N.K.|N.K.]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - ... &lt;br /&gt;
|style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Ed Kelly|Ed Kelly: Synchroma Was a Broken String]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Alexandre Porres|Alexandre Porres: Something Stuck in My Throat]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Paloma Oliveira, Jaime Lobato|Paloma Oliveira, Jaime Lobato: La grand Pelea]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Jinyao Lin|Jinyao Lin: Tracks]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Anela Takac|Anela Takac: Video Organ]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
			&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Sunday 14. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|14:00 - 17:00 &lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|Pd meeting “Show you patch” #2]]&lt;br /&gt;
Just like a normal Pd meeting, let people meet and start communicating. Show &#039;&#039;&#039;YOUR&#039;&#039;&#039; patches to others, make questions, talk, have a drink, ... &lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/N.K.|N.K.]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|18:00 - 20:00&lt;br /&gt;
|[[PDCON:Berlin-events#Sketch pages collective improvisation|Sketch pages collective improvisation]]&lt;br /&gt;
A collective live-coding improvisation on foreign terrain - with &#039;&#039;&#039;YOUR&#039;&#039;&#039; participation.&lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Blanc sketch pages collective improvisation|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - open end&lt;br /&gt;
|style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Berlin-events#Late night open improvisation marathon|Late night open improvisation marathon]]&lt;br /&gt;
Bring anything &#039;&#039;&#039;YOU&#039;&#039;&#039; want and can do - audio, video, sensors, ... -, and join in the group. Take an empty slot, and improvise for a while; leave for a drink and give your place to someone else; and so on and so on, until it&#039;s morning again.&lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Late night open improvisation marathon|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
		&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Monday 15. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|12:00 - ...&lt;br /&gt;
|Brunch&lt;br /&gt;
For who might still be awake from the previous night, or whoever might want to join in after having had some sleep.&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
{{Template:PdCon11}}&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=PDCON:Schedule&amp;diff=31427</id>
		<title>PDCON:Schedule</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=PDCON:Schedule&amp;diff=31427"/>
		<updated>2011-08-09T15:39:09Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Thursday 11. Aug. 2011 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Legend===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference|Conference Panels]]&lt;br /&gt;
|-&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops|Workshops]]&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|Workshops exclusive for Bauhaus Summer School [http://www.uni-weimar.de/summerschool/en/welcome/culture-media/creating-interactive-art-and-music Sign up here](€!) &lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts|Concerts]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Not included in the schedule: [[PDCON:Exhibition|Exhibition]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Sunday 07. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|18:30 - 20:30&lt;br /&gt;
|opening ceremony and reception of the Bauhaus Summer School&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Auditorium maximum, university library Steubenstraße 6&amp;lt;/small&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===Monday 08. Aug 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|10:30 - 12:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee, welcome reception, registration&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marienstraße 18|Marienstraße 18]] - Café&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Data Structures|Data Structures]]&amp;lt;br /&amp;gt; João Pais&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Xth Sense, Biophysical Music|Xth Sense, Biophysical Music]]&amp;lt;br /&amp;gt; Marco Donnarumma&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Pd for beginners|Pd for beginners]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/RjDj|RjDj]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Xth Sense, Biophysical Music|Xth Sense, Biophysical Music]]&amp;lt;br /&amp;gt; Marco Donnarumma&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Build your own USB-MIDI-Interface|Build your own USB-MIDI-Interface for Pd]]&amp;lt;br /&amp;gt; Felix Krüger, Felix Pfeifer &amp;amp; Georg Werner&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner break&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Bileam Kümper]]: &#039;&#039;Clockwork, 24 *60 canons for each minute of the day&#039;&#039; (12 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 22:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Words of welcome, Keynote by Prof. Winfried Ritsch&amp;lt;br /&amp;gt;[[PDCON:Concerts/Chikashi Miyama|Chikashi Miyama: Black Vox]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Endphase: João Pais, Alberto C. Bernal, Enrique Tomás|Endphase-João Pais, Alberto C. Bernal, Enrique Tomás: Endphase 18-2 “Mixed Cities”]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Thomas Grill|Thomas Grill: Points of View]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Tim Vets|Tim Vets: Extended Guitar Duo]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Platz der Demokratie, Fürstenhaus [[PDCON:Venues/Fürstensaal|Fürstensaal]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tuesday 09. Aug. 2011 ===&lt;br /&gt;
Topic: [[Spatialisation]], [[General]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Self-replication: how to do more using less|Self-replication: how to do more using less]]&amp;lt;br /&amp;gt;Krzysztof Czaja  &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Pd framework for the Xth Sense: enabling computers to sense human kinetic behaviour|A Pd framework for the Xth Sense: enabling computers to sense human kinetic behaviour]]&amp;lt;br /&amp;gt;Marco Donnarumma &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/AUDIENCE for Pd, a scene-oriented library for spatial audio|AUDIENCE for Pd, a scene-oriented library for spatial audio]]&amp;lt;br /&amp;gt;Regis Faria&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Dynamic Time Warping for Pure Data|Dynamic Time Warping for Pure Data]]&amp;lt;br /&amp;gt;Pedro Lopez and Joaquim Jorge &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Electro-Acoustic Tools (EAT): High-Level Abstractions for Audio Manipulation and Spatialisation|Electro-Acoustic Tools (EAT): High-Level Abstractions for Audio Manipulation and Spatialisation]]&amp;lt;br /&amp;gt;Richard Thomas &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Using Pure Data in Spore and Darkspore - successes and failures|Using Pure Data in Spore and Darkspore - successes and failures]]&amp;lt;br \&amp;gt;Kent Jolly &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Custom Spatialisation PD Patch for a  Large Non-conventional Area|Custom Spatialisation PD Patch for a  Large Non-conventional Area]]&amp;lt;br /&amp;gt;José Rafael Subía Valdez &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Music in expression - A DSP based compositional methodology|Music in expression - A DSP based compositional methodology]]&amp;lt;br \&amp;gt;Chun Lee &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|lunch break&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Data Structures|Data Structures]]&amp;lt;br /&amp;gt; João Pais&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Build your own USB-MIDI-Interface|Build your own USB-MIDI-Interface for Pd]]&amp;lt;br /&amp;gt; Felix Krüger, Felix Pfeifer &amp;amp; Georg Werner&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|rowspan=&amp;quot;3&amp;quot;|excursion to&amp;lt;br /&amp;gt;Fraunhofer IDMT Ilmenau&amp;lt;br /&amp;gt;approx. 15 seats available: [[/Excursion Ilmenau|more info &amp;amp; sign up]]&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;2&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/RjDj|RjDj]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Laptop Orchestra|Laptop Orchestra]]&amp;lt;br /&amp;gt; Quim Llimona, John O&#039;connell, William Goutfreind&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner break&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Rich Thomas]]: &#039;&#039;Race, War, and a Failed Treaty&#039;&#039; (11:49 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 20:00&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Opening of the Exhibition&amp;lt;br /&amp;gt;[[PDCON:Concerts/Tad Bisaha, Sitan Adele K|Tad Bisaha, Sitan Adele K: Rock-Art2noise]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Nietzsche Gedächnishalle|Nietzsche Gedächnishalle]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|rowspan=&amp;quot;2&amp;quot;|[http://www.uni-weimar.de/summerschool/en/welcome/accompanying-programme/parties Bauhaus Summer School welcome party]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Geschwister Scholl Str. 8, Campus&amp;lt;br /&amp;gt;Hint: free food and drinks&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:30 - 22:00&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Koray Tahiroğlu|Koray Tahiroğlu: Live Audio Cues]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Richard Graham|Richard Graham: Axon]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Hsin-jen Wang|Hsin-jen Wang: Moving Resonance]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Eduardo Flores Abad|Eduardo Flores Abad: Poder y Resistencia]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Marco Donnarumma|Marco Donnarumma: Music for Flesh II &amp;lt; PdCon 2011 &amp;gt;]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Wednesday 10. Aug. 2011 ===&lt;br /&gt;
Topic: [[General]], [[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A collaboration workflow from sound-based composition to performance of electroacoustic music using Pd as a framework|A collaboration workflow from sound-based composition to performance of electroacoustic music using Pd as a framework]]&amp;lt;br /&amp;gt;Kyriakos Tsoukalas &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/GUI Plugins in Pd 0.43|GUI Plugins in Pd 0.43]]&amp;lt;br /&amp;gt;Hans-Christoph Steiner &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Voice as joystick and oscillator|Voice as joystick and oscillator]]&amp;lt;br /&amp;gt;Miller Puckette &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Plug your cam - extending Gem the modular way|Plug your cam - extending Gem the modular way]]&amp;lt;br /&amp;gt;IOhannes zmölnig &amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;Audimax&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|lunch break&amp;lt;br /&amp;gt;[[PDCON:Concerts/Katja Vetter|Katja Vetter: Instant Decomposer]]&amp;lt;br/&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park|Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Projection Mapping|Projection Mapping]]&amp;lt;br /&amp;gt; Ricardo Palmieri&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Audience|Audience]]&amp;lt;br /&amp;gt; Regis Faria&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/SeaM Werkstattstudio|Cudraystraße 13a, SeaM Werkstattstudio]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/DIY electronic music using Visual Tracker|DIY electronic music using Visual Tracker]]&amp;lt;br /&amp;gt; Bérenger Recoules&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/Universal Polyphonic Player|Universal Polyphonic Player]]&amp;lt;br /&amp;gt; Thomas Grill&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/ATMEL AVR|ATMEL AVR]]&amp;lt;br /&amp;gt; Chikashi Miyama&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/pmpd|pmpd for Beginners]]&amp;lt;br /&amp;gt; Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Thomas Grill]]: &#039;&#039;luscinia megarhynchos&#039;&#039; (12:20 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:00 - 22:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|DJ+Bar&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Radio Lotte Sendesaal|Goetheplatz 12, Radio Lotte]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - 24:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|Radio Broadcast&amp;lt;br /&amp;gt;[[PDCON:Concerts/Oscar Martin (Noish)|Oscar Martin (Noish): Eetz]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Quim Llimona, John O&#039;connell, William Goutfreind, Alex Barrachina|Barcelona Laptop Orchestra - Quim Llimona, John O&#039;connell, William Goutfreind, Alex Barrachina: La Roda]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Radio Lotte Sendesaal|Goetheplatz 12, Radio Lotte]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Thursday 11. Aug. 2011 ===&lt;br /&gt;
Topic: [[Embeded]],[[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Embedding Pure Data with libpd: Design and Workflow|Embedding Pure Data with libpd]]&amp;lt;br /&amp;gt;Peter Brinkmann, Peter Kirn, Richard Lawler, Chris McCormick, Martin Roth, Hans-Christoph Steiner&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Dissonance Model Toolbox in Pure Data|Dissonance model toolbox in Pure Data]]&amp;lt;br /&amp;gt;Alexandre Porres&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/An Exploration on Mobile Interfaces with Adaptive Mapping Strategies in Pure Data|An Exploration on Mobile Interfaces with Adaptive Mapping Strategies in Pure Data]]&amp;lt;br /&amp;gt;Koray Tahiroğlu&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Framework for Real-time Instrumental Sound Segmentation and Labeling|A Framework for Real-time Instrumental Sound Segmentation and Labeling]]&amp;lt;br /&amp;gt;Adriano Monteiro&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/rj - abstractions for getting things done|rj - abstractions for getting things done]]&amp;lt;br /&amp;gt;Frank Barknecht &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Reverb Design|Reverb Design]]&amp;lt;br /&amp;gt;Urban Schlemmer&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/VisualTracker - modular pd environment for sequencing events on timeline|VisualTracker – Modular Pd Environment for sequencing events on the timeline]]&amp;lt;br /&amp;gt;Aleš Černý&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Using Pd to create a visualization instrument for percussion|Using Pd to create a visualization instrument for percussion]]&amp;lt;br /&amp;gt;John Harrison&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|lunch break&amp;lt;br /&amp;gt;[[PDCON:Concerts/Alexander Senko|Alexander Senko: Acoustic Images]]&amp;lt;br/&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park|Mensa am Park]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for Android]]&amp;lt;br /&amp;gt;Peter Brinkmann&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/DIY_electronic_music_using_Visual_Tracker|DIY electronic music using Visual Tracker]]&amp;lt;br /&amp;gt; Bérenger Recoules&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/GEM|GEM Introduction]]&amp;lt;br /&amp;gt;IOhannes Zmölnig&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/pmpd|pmpd Advanced]]&amp;lt;br /&amp;gt;Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/ATMEL AVR|ATMEL AVR]]&amp;lt;br /&amp;gt;Chikashi Miyama&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Spectral Analysis|Spectral Analysis]]&amp;lt;br /&amp;gt;Alexandre Porres&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b| - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 19:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Dinner for all participants at the [[PDCON:Venues/Schießhaus|Schießhaus]]&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 21:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Moritz Schell, Frederic Seybicke|Moritz Schell, Frederic Seybicke: Listen How It Looks Like]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Cyrille Henry, Nicolas Montgermont|Cyrille Henry, Nicolas Montgermont: Egregore]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Dan Wilcox|Dan Wilcox: Robot Cowboy]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Onyx Ashanti|Onyx Ashanti: Beatjazz]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Schießhaus|Schießhaus]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
			&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Friday 12. Aug. 2011 ===&lt;br /&gt;
Topic: [[Audiovisual]], [[Tools]]&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|09:30 - 10:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Image Processing Algorithm Optimization with CUDA for Pure Data|Image Processing Algorithm Optimization with CUDA for Pure Data]]&amp;lt;br \&amp;gt;Rudi Giot, Jacques Tichon and Abilio Rodrigues&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/A Live Performance System in Pure Data: Pitch Contour as Figurative Gesture|A Live Performance System in Pure Data: Pitch Contour as Figurative Gesture]]&amp;lt;br \&amp;gt;Richard Graham&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:00 - 10:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/GPU audio signals processing in Pd, and PDCUDA, an implementation with the CUDA runtime API|GPU audio signals processing in Pd, and PDCUDA, an implementation with the CUDA runtime API]]&amp;lt;br \&amp;gt;Charles Henry&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Pure Data implementation of an ESS-based impulse response acoustic measurement tool|Pure Data implementation of an ESS-based impulse response acoustic measurement tool]]&amp;lt;br \&amp;gt;Serafino Di Rosario and Katja Vetter&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|10:30 - 11:00 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|coffee break&lt;br /&gt;
|-&lt;br /&gt;
|11:00 - 11:30&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Extended View Toolkit|Extended View Toolkit]]&amp;lt;br \&amp;gt;Peter Venus&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Click Tracker: Performance/composition tool for metrically complex scores|Click Tracker: Performance/composition tool for metrically complex scores]]&amp;lt;br /&amp;gt;João Pais and Pedro Lopes&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|11:30 - 12:00&lt;br /&gt;
|style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/Gemnotes: A Realtime music notation system for pure data|Gemnotes: A Realtime music notation system for pure data]]&amp;lt;br /&amp;gt;Edward Kelly &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Marienstraße_13|Auditorium A]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#c7ffd2&amp;quot;|[[PDCON:Conference/DILIB: Control Data Parsing for Digital Musical Instrument Design|DILIB: Control Data Parsing for Digital Musical Instrument Design]]&amp;lt;br \&amp;gt;William Brent &amp;lt;br /&amp;gt;&amp;lt;small&amp;gt; [[Marienstraße 13|Auditorium B]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|12:00 - 13:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|lunch break&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[Mensa am Park]]&amp;lt;/small&amp;gt;	&lt;br /&gt;
|-&lt;br /&gt;
|13:00 - 15:00&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for iOs]]&amp;lt;br /&amp;gt; Peter Brinkmann and Martin Roth&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/GEM|GEM Advanced]]&amp;lt;br /&amp;gt; IOhannes zmölnig	&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Pd for beginners|Pd for beginners]]&amp;lt;br /&amp;gt; Frank Barknecht&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|15:00 - 15:30 &lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|break&lt;br /&gt;
|-&lt;br /&gt;
|15:30 - 17:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/libpd|libpd for open frameworks]]&amp;lt;br /&amp;gt; Dan Wilcox	&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 102]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Workshops/GLSL|GLSL]]&amp;lt;br /&amp;gt; Cyrille Henry&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 201]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|style=&amp;quot;background:#ff68b3&amp;quot;|[[PDCON:Workshops/Spectral Analysis|Spectral Analysis]]&amp;lt;br /&amp;gt; Alexandre Porres&amp;lt;br /&amp;gt; &amp;lt;small&amp;gt;[[Marienstraße 7b|Marienstraße 7b - room 204]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|17:30 - 18:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|dinner&lt;br /&gt;
|-&lt;br /&gt;
|18:30 - 18:45&lt;br /&gt;
|colspan = &amp;quot;3&amp;quot; style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Porcelain carillon|Chelsea Leventhal]]: &#039;&#039;Spieluhrgruss für Weimar&#039;&#039; (ca. 12:00 min)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/Marktplatz|Marketplace]], tower of the weimar city hall&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|19:00 - 20:00&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Round Table commercial application of Pd&amp;lt;br /&amp;gt;Peter Brinkmann, Google (USA) Author of libpd&amp;lt;br /&amp;gt;Kent Jolly, Electronic Arts (USA) Author of Spore&amp;lt;br /&amp;gt;Martin Roth, CTO Reality Jockey Ltd. (London)&amp;lt;br /&amp;gt;N.N., Fraunhofer IDMT (Ilmenau)&amp;lt;br /&amp;gt;Martin Enderlein, Netlabel Headphonica (Weimar/Halle)&amp;lt;br /&amp;gt;Sebastian Dittmann, CEO Audanika (Erfurt)&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;Location t.b.a&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|20:00 - 20:20&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Presentation Robert Wechsler&lt;br /&gt;
|-&lt;br /&gt;
|20:30 - 21:30&lt;br /&gt;
|colspan=&amp;quot;3&amp;quot;|Round Table future Developments&amp;lt;br /&amp;gt;&lt;br /&gt;
|}				&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Saturday 13. Aug. 2011===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|10:00 - 14:00&lt;br /&gt;
|Transfer Weimar~Berlin [[/Coach transfer|Sign up here]]&lt;br /&gt;
|-&lt;br /&gt;
|17:00 - 20:00&amp;lt;br /&amp;gt;or&amp;lt;br /&amp;gt;18:00 - 20:30&lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|Pd meeting “Show you patch” #1]]&lt;br /&gt;
Just like a normal Pd meeting, let people meet and start communicating. Show &#039;&#039;&#039;YOUR&#039;&#039;&#039; patches to others, make questions, talk, have a drink, ... &lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/N.K.|N.K.]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - ... &lt;br /&gt;
|style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Concerts/Ed Kelly|Ed Kelly: Synchroma Was a Broken String]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Alexandre Porres|Alexandre Porres: Something Stuck in My Throat]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Paloma Oliveira, Jaime Lobato|Paloma Oliveira, Jaime Lobato: La grand Pelea]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Jinyao Lin|Jinyao Lin: Tracks]]&amp;lt;br /&amp;gt;[[PDCON:Concerts/Anela Takac|Anela Takac: Video Organ]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
			&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Sunday 14. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|14:00 - 17:00 &lt;br /&gt;
|style=&amp;quot;background:#ffb5d0&amp;quot;|[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|Pd meeting “Show you patch” #2]]&lt;br /&gt;
Just like a normal Pd meeting, let people meet and start communicating. Show &#039;&#039;&#039;YOUR&#039;&#039;&#039; patches to others, make questions, talk, have a drink, ... &lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Pd meetings “Show you patch” @N.K.|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/N.K.|N.K.]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|18:00 - 20:00&lt;br /&gt;
|[[PDCON:Berlin-events#Sketch pages collective improvisation|Sketch pages collective improvisation]]&lt;br /&gt;
A collective live-coding improvisation on foreign terrain - with &#039;&#039;&#039;YOUR&#039;&#039;&#039; participation.&lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Blanc sketch pages collective improvisation|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|22:00 - open end&lt;br /&gt;
|style=&amp;quot;background:#c1c6ff&amp;quot;|[[PDCON:Berlin-events#Late night open improvisation marathon|Late night open improvisation marathon]]&lt;br /&gt;
Bring anything &#039;&#039;&#039;YOU&#039;&#039;&#039; want and can do - audio, video, sensors, ... -, and join in the group. Take an empty slot, and improvise for a while; leave for a drink and give your place to someone else; and so on and so on, until it&#039;s morning again.&lt;br /&gt;
&lt;br /&gt;
[[PDCON:Berlin-events#Late night open improvisation marathon|INFO AND REGISTRATION]]&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
		&lt;br /&gt;
&amp;lt;br clear=all/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Monday 15. Aug. 2011===&lt;br /&gt;
{|align=&amp;quot;left&amp;quot; {{Prettytable}}&lt;br /&gt;
|12:00 - ...&lt;br /&gt;
|Brunch&lt;br /&gt;
For who might still be awake from the previous night, or whoever might want to join in after having had some sleep.&amp;lt;br /&amp;gt;&amp;lt;small&amp;gt;[[PDCON:Venues/LEAP|LEAP]]&amp;lt;/small&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
{{Template:PdCon11}}&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=16665</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=16665"/>
		<updated>2010-10-21T20:22:56Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.jpg&lt;br /&gt;
File:Still-av_03a.jpg&lt;br /&gt;
File:Still-av_06.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Audio===&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;schattenklang-audiodoku.mp3&amp;quot;&amp;gt;schattenklang-audiodoku.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Video===&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Anja_Erdmann&amp;diff=16664</id>
		<title>Anja Erdmann</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Anja_Erdmann&amp;diff=16664"/>
		<updated>2010-10-21T20:20:59Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Template:User|Anjae}}&lt;br /&gt;
&lt;br /&gt;
* [[Hört, Hört - Seht, Seht!#Anja Erdmann: Klang-Bild Raum]]&lt;br /&gt;
* [[GMU:Audio+Video/projekte/Schatten→Klang]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Student]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=RADIO:Sound_is_Art&amp;diff=12445</id>
		<title>RADIO:Sound is Art</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=RADIO:Sound_is_Art&amp;diff=12445"/>
		<updated>2010-07-15T12:01:41Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Presse */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Allgemeines==&lt;br /&gt;
*[[RADIO:Orga|Organisation]]&lt;br /&gt;
*[[RADIO:Arles|Museum Réattu]]&lt;br /&gt;
*[[RADIO:Chambre|chambre d&#039;ecoute]]&lt;br /&gt;
*[[RADIO:Museumsnacht|Konzept für Museumsnacht]]&lt;br /&gt;
*[[RADIO:Klangkunst|Klangkunst - Götz Naleppa]]&lt;br /&gt;
*[[RADIO:Klangarchiv|Klangarchiv - Website - Interface]]&lt;br /&gt;
&lt;br /&gt;
==Projektvorstellung für die Nuit des Musées in Arles==&lt;br /&gt;
*[[RADIO:Innenhof|Sound im Innenhof]]&lt;br /&gt;
*[[RADIO:search|search]]&lt;br /&gt;
*[[RADIO:Brunnen|Brunnen]]&lt;br /&gt;
*[[RADIO:luftikus|&#039;&#039;luftikus&#039;&#039; - installation with fans]]&lt;br /&gt;
*[[RADIO:TourReatu|TourReatu]]&lt;br /&gt;
*[[RADIO:Windorgel|Windorgel]]&lt;br /&gt;
&lt;br /&gt;
==Dokumente==&lt;br /&gt;
&lt;br /&gt;
*[[Image:Auswahl_Archiv_Naleppa.pdf]]&lt;br /&gt;
*[[Image:Auswahl Archiv_Naleppa-TEXTE.zip]]&lt;br /&gt;
*[http://webuser.uni-weimar.de/~wwmo9166/Interview_Goetz_Naleppa.mp4 Interview Götz Naleppa 165 MB]&lt;br /&gt;
&lt;br /&gt;
==Presse==&lt;br /&gt;
&lt;br /&gt;
*[[Media:TA_23-12_experimentelles-radio.jpg]]&lt;br /&gt;
*http://www.uni-weimar.de/cms/index.php?id=455&amp;amp;mitteilungid=84827&lt;br /&gt;
*http://www.uni-weimar.de/cms/medien/experimentelles-radio/presseecho.html?type=1&lt;br /&gt;
*http://www.uni-weimar.de/cms/uploads/media/der_bogen_2_2010.pdf (Seite 33)&lt;br /&gt;
&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:SS10]]&lt;br /&gt;
[[Category:Projektmodul]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:SS10]]&lt;br /&gt;
[[Category:Projektmodul]]&lt;br /&gt;
&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:SS10]]&lt;br /&gt;
[[Category:Projektmodul]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:SS10]]&lt;br /&gt;
[[Category:Projektmodul]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=RADIO:Sound_is_Art&amp;diff=12444</id>
		<title>RADIO:Sound is Art</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=RADIO:Sound_is_Art&amp;diff=12444"/>
		<updated>2010-07-15T11:58:10Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Presse */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Allgemeines==&lt;br /&gt;
*[[RADIO:Orga|Organisation]]&lt;br /&gt;
*[[RADIO:Arles|Museum Réattu]]&lt;br /&gt;
*[[RADIO:Chambre|chambre d&#039;ecoute]]&lt;br /&gt;
*[[RADIO:Museumsnacht|Konzept für Museumsnacht]]&lt;br /&gt;
*[[RADIO:Klangkunst|Klangkunst - Götz Naleppa]]&lt;br /&gt;
*[[RADIO:Klangarchiv|Klangarchiv - Website - Interface]]&lt;br /&gt;
&lt;br /&gt;
==Projektvorstellung für die Nuit des Musées in Arles==&lt;br /&gt;
*[[RADIO:Innenhof|Sound im Innenhof]]&lt;br /&gt;
*[[RADIO:search|search]]&lt;br /&gt;
*[[RADIO:Brunnen|Brunnen]]&lt;br /&gt;
*[[RADIO:luftikus|&#039;&#039;luftikus&#039;&#039; - installation with fans]]&lt;br /&gt;
*[[RADIO:TourReatu|TourReatu]]&lt;br /&gt;
*[[RADIO:Windorgel|Windorgel]]&lt;br /&gt;
&lt;br /&gt;
==Dokumente==&lt;br /&gt;
&lt;br /&gt;
*[[Image:Auswahl_Archiv_Naleppa.pdf]]&lt;br /&gt;
*[[Image:Auswahl Archiv_Naleppa-TEXTE.zip]]&lt;br /&gt;
*[http://webuser.uni-weimar.de/~wwmo9166/Interview_Goetz_Naleppa.mp4 Interview Götz Naleppa 165 MB]&lt;br /&gt;
&lt;br /&gt;
==Presse==&lt;br /&gt;
&lt;br /&gt;
*[[Media:TA_23-12_experimentelles-radio.jpg]]&lt;br /&gt;
*http://www.uni-weimar.de/cms/index.php?id=455&amp;amp;mitteilungid=84827&lt;br /&gt;
*http://www.uni-weimar.de/cms/uploads/media/der_bogen_2_2010.pdf (Seite 33)&lt;br /&gt;
&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:SS10]]&lt;br /&gt;
[[Category:Projektmodul]]&lt;br /&gt;
&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:SS10]]&lt;br /&gt;
[[Category:Projektmodul]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11085</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11085"/>
		<updated>2010-06-17T08:54:16Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Umsetzung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.jpg&lt;br /&gt;
File:Still-av_03a.jpg&lt;br /&gt;
File:Still-av_06.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Audio===&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;schattenklang-audiodoku.mp3&amp;quot;&amp;gt;schattenklang-audiodoku.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Video===&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_06.jpg&amp;diff=11084</id>
		<title>File:Still-av 06.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_06.jpg&amp;diff=11084"/>
		<updated>2010-06-17T08:52:19Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_05.jpg&amp;diff=11083</id>
		<title>File:Still-av 05.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_05.jpg&amp;diff=11083"/>
		<updated>2010-06-17T08:51:48Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11081</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11081"/>
		<updated>2010-06-17T08:35:11Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Audio */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.jpg&lt;br /&gt;
File:Still-av_03a.jpg&lt;br /&gt;
File:Still-av_04a.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Audio===&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;schattenklang-audiodoku.mp3&amp;quot;&amp;gt;schattenklang-audiodoku.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Video===&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Schattenklang-audiodoku.mp3&amp;diff=11080</id>
		<title>File:Schattenklang-audiodoku.mp3</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Schattenklang-audiodoku.mp3&amp;diff=11080"/>
		<updated>2010-06-17T08:33:19Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Schattenklang-audiodoku.mp3&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
anja erdmann&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11078</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11078"/>
		<updated>2010-06-17T08:32:18Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Audio */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.jpg&lt;br /&gt;
File:Still-av_03a.jpg&lt;br /&gt;
File:Still-av_04a.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Audio===&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;aschattenklang-audiodoku.mp3&amp;quot;&amp;gt;aschattenklang-audiodoku.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Video===&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Schattenklang-audiodoku.mp3&amp;diff=11077</id>
		<title>File:Schattenklang-audiodoku.mp3</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Schattenklang-audiodoku.mp3&amp;diff=11077"/>
		<updated>2010-06-17T08:29:26Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Copyright status: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
anja erdmann&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Schattenklang-audiodoku.mp3&amp;diff=11076</id>
		<title>File:Schattenklang-audiodoku.mp3</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Schattenklang-audiodoku.mp3&amp;diff=11076"/>
		<updated>2010-06-17T08:28:53Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11071</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11071"/>
		<updated>2010-06-17T08:14:50Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Umsetzung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.jpg&lt;br /&gt;
File:Still-av_03a.jpg&lt;br /&gt;
File:Still-av_04a.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Audio===&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;audiodoku-1.wav&amp;quot;&amp;gt;audiodoku-1.wav&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/audiodoku-1.wav audio]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_04a.jpg&amp;diff=11070</id>
		<title>File:Still-av 04a.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_04a.jpg&amp;diff=11070"/>
		<updated>2010-06-17T08:01:48Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 04a.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_04a.jpg&amp;diff=11069</id>
		<title>File:Still-av 04a.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_04a.jpg&amp;diff=11069"/>
		<updated>2010-06-17T07:58:30Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11068</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11068"/>
		<updated>2010-06-17T07:57:54Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Umsetzung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.jpg&lt;br /&gt;
File:Still-av_03a.jpg&lt;br /&gt;
File:Still-av_04a.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/audiodoku-1.wav audio]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11067</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11067"/>
		<updated>2010-06-17T07:45:58Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Umsetzung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.jpg&lt;br /&gt;
File:Still-av_03a.jpg&lt;br /&gt;
File:Still-av_04.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/audiodoku-1.wav audio]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_03a.jpg&amp;diff=11066</id>
		<title>File:Still-av 03a.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_03a.jpg&amp;diff=11066"/>
		<updated>2010-06-17T07:45:20Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_03.jpg&amp;diff=11065</id>
		<title>File:Still-av 03.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_03.jpg&amp;diff=11065"/>
		<updated>2010-06-17T07:43:48Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 03.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_03.jpg&amp;diff=11064</id>
		<title>File:Still-av 03.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_03.jpg&amp;diff=11064"/>
		<updated>2010-06-17T07:41:45Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 03.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte&amp;diff=11063</id>
		<title>GMU:Audio+Video/projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte&amp;diff=11063"/>
		<updated>2010-06-17T07:37:55Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Anja Erdmann: Schatten→Klang */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: [[/Schatten→Klang|Schatten→Klang]]==&lt;br /&gt;
[[Image:Still-av_01.jpg|thumb|right|250px|Schatten]]&lt;br /&gt;
Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
&lt;br /&gt;
[[/Schatten→Klang|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== [[Cédric Richard]]: [[/MusicPainter|MusicPainter]] ==&lt;br /&gt;
[[Image:MusicPainter_Player.jpg|thumb|right|250px|the patch]]&lt;br /&gt;
A player patch, using multitracked musics to create a numeric animated painting.&lt;br /&gt;
&lt;br /&gt;
[[/MusicPainter|Project documentation]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Dominique Wollniok]]: [[/VerkehrsMalerei|VerkehrsMalerei]]==&lt;br /&gt;
[[Image:Gem1.jpg|thumb|right|250px|Verkehrsmalerei]]&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
[[/VerkehrsMalerei|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Link to the Past==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles (einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit (eine 30ies Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person( im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie (&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: [[/PDGame|PDGame]]==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
[[/PDGame|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]: [[/Partikelmaker|Partikelmaker]]==&lt;br /&gt;
[[Image:Av4.JPG|thumb|right|250px|Partikelmaker]]&lt;br /&gt;
Ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
&lt;br /&gt;
[[/Partikelmaker|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]: Title of the work==&lt;br /&gt;
[[Image:WFS-BAUHAUS-UNIVERSITY.jpg|thumb|right|250px|Wavefield-Synthesis]]&lt;br /&gt;
This semester, I was interested by working on the sound for a 3D TV project with a wave field synthesis system. But after many test, I realized that it would be to difficult for me to learn how work the WFS system and the 3D system in the same time in only six months.&lt;br /&gt;
So I decided to make a radio drama with the WFS system. &lt;br /&gt;
&lt;br /&gt;
This radio drama length is about 7 minutes. The story take place in a space shuttle. I used pure data to do the spatialization of my sound. On my patch I had three  slider for the three axis X,Y and Z wich I can change the position of a sound. I made an automation to change the position of the character during the story. &lt;br /&gt;
&lt;br /&gt;
This is a version of my radio drama without mix. To listen my work you need a WFS system :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;quot;&amp;gt;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:WFS-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
File:WFS-COMPUTER-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:WSebastian|Sebastian Wolf]]: [[/Applaus|Applaus]]==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video macht leider Probleme!&lt;br /&gt;
Dafür hier aber der (nicht ganz so aussagekräftige) Ton dazu.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Applaus-audio.mp3&amp;quot;&amp;gt;Applaus-audio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Und die patches zum anschauen: [[File:Applaus.zip]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11062</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11062"/>
		<updated>2010-06-17T07:35:39Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Umsetzung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.jpg&lt;br /&gt;
File:Still-av_03.jpg&lt;br /&gt;
File:Still-av_04.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/audiodoku-1.wav audio]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_03.jpg&amp;diff=11061</id>
		<title>File:Still-av 03.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_03.jpg&amp;diff=11061"/>
		<updated>2010-06-17T07:34:39Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 03.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_02.jpg&amp;diff=11060</id>
		<title>File:Still-av 02.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_02.jpg&amp;diff=11060"/>
		<updated>2010-06-17T07:34:11Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 02.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11059</id>
		<title>GMU:Audio+Video/projekte/Schatten→Klang</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/Schatten%E2%86%92Klang&amp;diff=11059"/>
		<updated>2010-06-17T07:33:39Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Umsetzung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;===Idee===&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
Der Patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen live in eine Klangumgebung zu transformieren und zu verräumlichen.&lt;br /&gt;
&lt;br /&gt;
===Klanggenerierung===&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen.&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem line~ Objekt entstehen die kurzen impulsartigen Geräusche. Die Farbwerte bestimmen die Frequenzbereiche des „Granularsynthesizers“.&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&lt;br /&gt;
&lt;br /&gt;
===Umsetzung===&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&lt;br /&gt;
„Zwielichtiges Schattenwesen“&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.jpg&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;br /&gt;
* [http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/audiodoku-1.wav audio]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_01.jpg&amp;diff=11058</id>
		<title>File:Still-av 01.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_01.jpg&amp;diff=11058"/>
		<updated>2010-06-17T07:32:44Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 01.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Breaking_the_Timeline/projects&amp;diff=9039</id>
		<title>GMU:Breaking the Timeline/projects</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Breaking_the_Timeline/projects&amp;diff=9039"/>
		<updated>2010-05-19T22:00:46Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Anja Erdmann: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Projects from the course [[GMU:Breaking the Timeline|Breaking the Timeline]], a [[:Category:Fachmodul|Fachmodul]] by [[Max Neupert]], [[GMU:Start|Gestaltung Medialer Umgebungen]] [[:Category:SS10|Summer Semester 2010]]:&lt;br /&gt;
&lt;br /&gt;
== [[Kyd Campbell]]: ==&lt;br /&gt;
[[Image:Looking1screen.jpg|right|thumb|300px|Still]]&lt;br /&gt;
&lt;br /&gt;
===concept===&lt;br /&gt;
I&#039;m interested in exploring time-related breaks between the senses of sight and hearing. I believe there is a sensory gap when one moves in perception between the spaces of micro and macro. In this instance, time and sound are stretched, as the body adjusts to receiving intense macro detail. A journey/passage from one time/space environment to another is an overwhelming experience, a momentary loss of one&#039;s self into an aesthetic space, which may be considered cathartic.&lt;br /&gt;
&lt;br /&gt;
In my work I wish to turn this phenomena into a public experience. It is my goal to produce the conditions, in a performance/screening setting for the audience to feel lost in the aesthetic space between micro and macro. I will use HD video images in micro and macro visions and unique techniques for recording motion. In the final work I will move rapidly between different image positions and search to bring and then hold the audience into a hyper-sensory experience.&lt;br /&gt;
&lt;br /&gt;
I will take a minimal approach to sound, reminiscent of breath and focusing on silence to imply motion and change, remaining abstract.&lt;br /&gt;
&lt;br /&gt;
The imagery will be taken from nature, outdoors and animals in very high resolution.&lt;br /&gt;
&lt;br /&gt;
===process===&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Collaborators please!&#039;&#039;&#039;~~ any feedback is more than welcome!&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
I must think about the image processing; sound and also the screening format (single channel or multiple monitors; screening/performance setup or installation; large or small)&lt;br /&gt;
&lt;br /&gt;
I&#039;m undecided how I want to proceed technically. As described above, I have the idea to create a certain atmosphere for viewers, to move then into a perception gap. I have some stock footage or HD video, chopped into very small clips and I would like to begin by inserting this into a large amount of different softwares (or hardwares) to see what effects can be achieved.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* if anyone is intested, I would really love to make a workshop session where different epople from the course take this footage and stick it into the different processing or editing tools they are familiar with, to see differents perceptions of the moving images I have.&amp;lt;br&amp;gt;&lt;br /&gt;
*&#039;&#039; is this something we could do together in class for an hour or so? Is anyone interested? Should we set-up an additional session for it?&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
* possible tools to check out: different PD patches, different editing softwares and filters, trying to watch it on different projectors, multiple monitors, self-made patches, specialized slow and fast motion HD plugins... I&#039;m really open at this stage to try the footage out in any setting.&lt;br /&gt;
&lt;br /&gt;
== [[Andreas Beyer]]: Prosody==&lt;br /&gt;
&lt;br /&gt;
the keyword for this projekt is &amp;quot;prosody&amp;quot;, that means the science about rhythm, stress and intonation of speech. I&#039;ll try to manipulate any given speech with a specific overlay to generate a new meaning or a strange combination of content and meaning e.g. reading the telephonbook like a holy speech and so on. The &amp;quot;overlayed&amp;quot; &amp;quot;structure&amp;quot; is given by the performer and the imput will be live. I want to realize this with a pd patch that i have to write or build till the semester. The background is a theorie that any kind of speech independent from the cultural background could be identified by anybody because of the intonation, the speech, the pitch (political, religious, news, sport, and so on) - this instrument could be used as a &amp;quot;translater&amp;quot; of the cultural melody of the voice or just to play with different meaning. It is the other way around how an anchorman works, he is trying to speak any typ of news in any combination more or less neutral - this is more difficult than it sounds.&lt;br /&gt;
&lt;br /&gt;
== [[Anja Erdmann]]: ==&lt;br /&gt;
&lt;br /&gt;
- in this class i will get to work on &amp;quot;Schatten-&amp;gt;Klang&amp;quot;&lt;br /&gt;
* [[GMU:Audio+Video projekte#Anja Erdmann: Schatten-&amp;gt;Klang]]&lt;br /&gt;
&lt;br /&gt;
== [[Dominique Wollniok]]: ==&lt;br /&gt;
&lt;br /&gt;
Related: [[GMU:Sensing video]]&lt;br /&gt;
&lt;br /&gt;
== [[Hyun Ju Song]]: a dancing panty hose &#039;Dancerizer&#039; ==&lt;br /&gt;
&lt;br /&gt;
A panty hose dances to the music.&lt;br /&gt;
&lt;br /&gt;
For instance, like visualizer. In the visualizer, digital images follow the music. And in the dancerizer, the motions follow the music.&lt;br /&gt;
&lt;br /&gt;
principle :&lt;br /&gt;
A panty hose has two strings on either side of its upper part. These Strings are connected to the motors. When user selects and starts the music, then software analyzes the music and send the bit&#039;s signal to the motors. A panty hose dances some patterns of motion to the music.&lt;br /&gt;
&lt;br /&gt;
== [[Jeffers Egan]]: ==&lt;br /&gt;
&lt;br /&gt;
===Theory===&lt;br /&gt;
Viewing Live AV as a platform for experimentation, my live sets explore the inscription of visual culture in time. By utilizing custom algorithms and animation software and without the use of prerecorded video or still footage, these works result in a hyperreal fluidity of visual mutations, ranging from tightly synchronized passages, to moments of free improvisation. Developing the concepts of digital as organism and software as ecosystem, my sets create a focused, personal aesthetic, finding commonalities in tone, texture and movement between audio and visual elements.&lt;br /&gt;
&lt;br /&gt;
===Practice===&lt;br /&gt;
I have been invited to perform Live Visuals with [http://www.myspace.com/vidderna vidderna],  at ROJO/NOVA, a multimedia event this July in São Paulo, Brazil. We will play a 1 hour show together at an event alongside other AV acts.&lt;br /&gt;
&lt;br /&gt;
Technically I am building a visual instrument in [http://www.derivative.ca Touch Designer], . For the performance with vidderna, I plan to add a HD multi-movie stream compositing system(with alpha), a 3D timeline, and build/consolidate some [[GLSL]] shaders into 2D filters I can use in the compositing system.&lt;br /&gt;
&lt;br /&gt;
I will also create new artwork specifically for this performance.&lt;br /&gt;
&lt;br /&gt;
== [[Matthias Breuer]]: Deconstructing the truth==&lt;br /&gt;
Besides doing some research and experimenting I am trying to do one smaller project.&lt;br /&gt;
&lt;br /&gt;
The project focuses on the truth and reality of the images we see. Taking any kind of video source as input, the stream&#039;s audio channel is continously played back. The corresponding frame is calculated from similarity to all previous frames. The most similar frame will be displayed. Each new frame is then placed in a database for comparison with forthcoming frames. This creates a steadily growing and learning mass which&amp;amp;mdash;after some time&amp;amp;mdash;can replace &#039;&#039;reality&#039;&#039; with frames from the past. At that point no clear distinction between reality and fiction can be made anymore.&lt;br /&gt;
&lt;br /&gt;
Similarity between frames depend on an amount of chosen factors. Most commmon are histogram, structure etc. but always depend on the features one sees as important in an image. It&#039;s not important to match the look of a frame as close as possible but to match a frame in a given set of interests.&lt;br /&gt;
&lt;br /&gt;
== [[Maureen Anderson]]: ==&lt;br /&gt;
&lt;br /&gt;
== [[Natercia Chang]]: ==&lt;br /&gt;
[[File:projection draft.jpg|thumb|Projection draft]]&lt;br /&gt;
Theme:  rwd 1989 / fwd 1989&lt;br /&gt;
===Background===&lt;br /&gt;
1989 is a memoriable year for German and Chinese&lt;br /&gt;
&lt;br /&gt;
4 June, 1989 - Tiannmen Square Massacre in China.  People in Macau and Hong Kong are still fighting for justice for those who killed, &lt;br /&gt;
every year after 1989, candle lights memorial ceremonies are hold.  While in China, no one is allowed to talk about it.  &lt;br /&gt;
&lt;br /&gt;
9 November, 1989 - Fall of the Berlin Wall.  The Wall was not entirely demolished on that date, so as the system is still remained in&lt;br /&gt;
some parts of Eastern Germany and no one would talk about it.&lt;br /&gt;
===Concept===&lt;br /&gt;
rwd 1989 highlights the regression of democracy and human rights in China, beginning in May that the Chinese students in&lt;br /&gt;
Beijing started a protest to urge reforms in government and yet turned out to be a massacre.  And till now, only Macau and Hong Kong &lt;br /&gt;
can still have the freedom to fight for justice.  After the handovers, however, it becomes obvious that the SARs government are trying&lt;br /&gt;
to avoid bringing up this issue.&lt;br /&gt;
&lt;br /&gt;
fwd 1989 highlights the progression after the reunion brings social and economic crises to Eastern Germany.  The society and the people&lt;br /&gt;
needed time to adapt to the capitalist West.  Such sudden changes made people did not harmonize with the old system that the people got&lt;br /&gt;
used to.&lt;br /&gt;
===Execution===&lt;br /&gt;
4 June massacre images shown in linear direction and 9 November of the fall of Berlin Wall shown backwards, and images stop to the &lt;br /&gt;
point they meet.&lt;br /&gt;
Images are projected on the windows of a building&lt;br /&gt;
===Reference links===&lt;br /&gt;
* 4 June Massacre: http://www.youtube.com/watch?v=mXBSlmqy2O4&amp;amp;feature=related&lt;br /&gt;
* Memorial ceremonies in Macau over the years: http://www.youtube.com/watch?v=u-LUFU3KXck&lt;br /&gt;
&lt;br /&gt;
== [[Sebastian Wolf]]: VideoFlute ==&lt;br /&gt;
===Thoughts===&lt;br /&gt;
&lt;br /&gt;
[[Image:VideoRecorder.jpg|right|thumb|300px|&amp;quot;VideoRecorder&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
Those are two rather rough concepts waiting for more detail work.&lt;br /&gt;
&lt;br /&gt;
* a video-controlling musical instrument, a digital flute&lt;br /&gt;
* ldrs controlling pitch/color channels or triggering specific scenes (there&#039;s an infinite number of possibilities actually)&lt;br /&gt;
* a microphone manipulating loudness/brightness/speed of the video or so&lt;br /&gt;
&lt;br /&gt;
I think I will stick with the instrument-idea, starting with some Arduino-/electronics-/sensor- experiments and some research on how a real flute actually works, how the sound is produced and what the possibilities to control those sounds are. The mapping in pd will probably be the most tricky part, so I will just work on that simultaneously.&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Anja_Erdmann&amp;diff=7580</id>
		<title>Anja Erdmann</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Anja_Erdmann&amp;diff=7580"/>
		<updated>2010-04-29T21:52:56Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* [[Hört, Hört - Seht, Seht!#Anja Erdmann: Klang-Bild Raum]]&lt;br /&gt;
* [[GMU:Audio+Video projekte#Anja Erdmann: Schatten-&amp;gt;Klang]]&lt;br /&gt;
- in this class i will get to work on &amp;quot;Schatten-&amp;gt;Klang&amp;quot;&lt;br /&gt;
&lt;br /&gt;
[[Category:Student]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Breaking_the_Timeline&amp;diff=7579</id>
		<title>GMU:Breaking the Timeline</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Breaking_the_Timeline&amp;diff=7579"/>
		<updated>2010-04-29T21:48:36Z</updated>

		<summary type="html">&lt;p&gt;Anjae: /* Syllabus */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[:Category:Fachmodul|Fachmodul]]&amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;Lecturer:&#039;&#039; [[Max Neupert]]&amp;lt;br/&amp;gt;&lt;br /&gt;
&#039;&#039;Assessment:&#039;&#039; 6 [[ECTS]], 4 [[SWS]]&amp;lt;br/&amp;gt;&lt;br /&gt;
&#039;&#039;Date:&#039;&#039; &#039;&#039;&#039;Thursday, 9:15 - 12:30 Uhr&#039;&#039;&#039; (new date, we [http://www.doodle.com/c7agp24ivfw6ermm voted])&amp;lt;br/&amp;gt;&lt;br /&gt;
&#039;&#039;Place:&#039;&#039; [[Marienstraße 7b]], Room 204&amp;lt;br/&amp;gt;&lt;br /&gt;
&#039;&#039;First meeting:&#039;&#039; Wednesday 2010-04-14&lt;br /&gt;
&lt;br /&gt;
==Course description==&lt;br /&gt;
[[Image:Breaking_the_Timeline_poster.png|thumb|Breaking the Timeline Poster|left|300px]]&lt;br /&gt;
&#039;&#039;&#039;class will be held in english&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&#039;&#039;Breaking the Timeline&#039;&#039; investigates the recent developments in performative audiovisual artworks and experiments. The third dimension of the moving image is  time. Manipulation of the timeline means taking control over the creative potential of this dimension. Editing film or video transforms footage into a movie, thus film and video aren&#039;t necessarily linear, but stay static in their determined timeline. Video made analog real-time effects popular but todays graphics processors in computers make it possible to fully explore the real-time potential of digital image and sound.&lt;br /&gt;
&lt;br /&gt;
In the course we will gain the theoretical and historical background knowledge and develop the necessary technical skills to create instruments, performances and installations.&lt;br /&gt;
&lt;br /&gt;
Audiovisual works require skills in both the audio and the video domain. Since this can be a lot for one person cooperations between visual and sound artists or musicians are recommended. A good complement is the class [http://seam.hfm-weimar.de/wiki/doku.php?id=lehre:popp:dialog_auge_ohr Dialog für Auge und Ohr] by Constantin Popp.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Deutsche Kurzbeschreibung&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
Spätestens seit dem ersten Scratchen ist es mit der zeitlichen Linearität beim Abspielen von Medien vorbei. Seit dem hat sich jedoch viel getan: Techniken des Looping und Sampling sind auch auf die visuellen Medien übergegangen. Mit Video wurden analoge Echtzeiteffekte populär, aber erst die Rechenkapazitäten von Computern machen es möglich das Potential der digitalen Echtzeitmedien in Bild und Ton zu bearbeiten.&lt;br /&gt;
&lt;br /&gt;
Im Kurs werden wir das theoretische und geschichtliche Hintergrundwissen erarbeiten und die notwendigen technischen Fähigkeiten erlernen um Instrumente, Performances und Installationen zu entwickeln.&lt;br /&gt;
&lt;br /&gt;
Audiovisuelle Arbeiten verlangen einen sicheren Umgang mit beiden Medien. Da dies für eine Person schwierig sein kann empfehle ich Kooperationen von bildenden Künstlern mit Klangkünstlern oder Musikern. Eine gute Ergänzung zu diesem Kurs stellt der Kurs [http://seam.hfm-weimar.de/wiki/doku.php?id=lehre:popp:dialog_auge_ohr Dialog für Auge und Ohr] von Constantin Popp dar.&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Admission requirements==&lt;br /&gt;
It is required to attend the first meeting and then submit your initial project description/idea by e-mail. I&#039;ll choose the best 15 concepts.&lt;br /&gt;
&lt;br /&gt;
==Admission procedure==&lt;br /&gt;
Send [[Max Neupert|me]] by e-mail &#039;&#039;&#039;after&#039;&#039;&#039; the first meeting the following information:&lt;br /&gt;
* Full name&lt;br /&gt;
* Subject (Fachrichtung) and semester (Fachsemester)&lt;br /&gt;
* Register number (Matrikel #)&lt;br /&gt;
* Version of the examination  regulations (Prüfungsordnung)&lt;br /&gt;
* Valid e-mail address &#039;&#039;&#039;...@uni-weimar.de&#039;&#039;&#039; (only addresses of the university will be accepted)&lt;br /&gt;
* Your project description in english. &#039;&#039;&#039;Deadline: Tuesday 24:00 sharp.&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Leistungsnachweis==&lt;br /&gt;
Aktive Teilnahme, Präsentation, künstlerische Prüfung, Dokumentation, Eintrag im Wiki.&lt;br /&gt;
&lt;br /&gt;
==Eligible participants==&lt;br /&gt;
Enrolled graduates of the faculties of media, Gestaltung and participants of the media-architecture program.&lt;br /&gt;
&lt;br /&gt;
==Syllabus==&lt;br /&gt;
* 14.04.10 first meeting, kick off lecture&lt;br /&gt;
* 21.04.10 18:00 alternative lecture for everyone who missed it &lt;br /&gt;
* 22.04.10 projects presentation, discussion&lt;br /&gt;
* 29.04.10 [[GMU:Breaking the Timeline/tools|tools tools tools]]: which items are on the workbench to crunch Audio+Video, Presentation: Kyd Campbell&lt;br /&gt;
* 06.05.10 Input: Reading. Presentation: Matthias Breuer, Jeffers Egan, Hyun Ju song, Dominique Wollniok, Sebastian, Anja&lt;br /&gt;
* 13.05.10&lt;br /&gt;
* 20.05.10&lt;br /&gt;
* 27.05.10&lt;br /&gt;
* 03.06.10&lt;br /&gt;
* 10.06.10&lt;br /&gt;
* 17.06.10&lt;br /&gt;
* 24.06.10&lt;br /&gt;
* 31.06.10&lt;br /&gt;
* 08.07.10&lt;br /&gt;
&lt;br /&gt;
==Literatur==&lt;br /&gt;
* Puckette, Miller: &#039;&#039;The Theory and Technique of Electronic Music&#039;&#039; ISBN 981-270077-3 [http://crca.ucsd.edu/~msp/techniques.htm Online Version]&lt;br /&gt;
* Kreidler, Johannes: &#039;&#039;Loadbang&#039;&#039; ISBN 978-3-936000-57-3 [http://www.pd-tutorial.com Online Version]&lt;br /&gt;
* Farnell, Andy: &#039;&#039;Designing Sound&#039;&#039; ISBN 978-0-9560886-0-4 [http://www.obiwannabe.co.uk/html/sound-design/sound-design-all.html obiwannabe.co.uk]&lt;br /&gt;
* Zimmer, Fränk: &#039;&#039;Bang: Pure Data&#039;&#039; ISBN 3-936000-37-9&lt;br /&gt;
* Rost, Randi J.: &#039;&#039;OpenGL shading language&#039;&#039; ISBN 0-321-33489-2&lt;br /&gt;
* [http://www.uni-weimar.de/cms/universitaet/zentrale-einrichtungen/universitaetsbibliothek/recherche/semesterapparate/semesterapparate-medien/neu-medien-semesterapparate/ms-2010-16.html Semesterapparat in der Limona]&lt;br /&gt;
&lt;br /&gt;
==Links==&lt;br /&gt;
* [[GMU:Breaking the Timeline/projects|Breaking the Timeline projects]]&lt;br /&gt;
* [[Audiovision Linkliste]]&lt;br /&gt;
* [[Looping]]&lt;br /&gt;
* [[Audiovideo|Pure Data Patches download]]&lt;br /&gt;
* Related classes [[:Category:SS10|this semester]]:&lt;br /&gt;
** [[EXPTV:Organising multi-media events: Mani.Fest III| Mani.Fest III]] [[Ben Sassen]], [[Kyd Campbell]]&lt;br /&gt;
** [http://seam.hfm-weimar.de/wiki/doku.php?id=lehre:popp:dialog_auge_ohr Dialog von Auge und Ohr] [[Constantin Popp]]&lt;br /&gt;
* Related classes [[:Category:WS09|last semester]]:&lt;br /&gt;
** Werkmodul [[GMU:Audio+Video]], see also the [[GMU:Audio+Video projekte|projects]] made by students of this class&lt;br /&gt;
** Projektmodul [[GMU:Bild zu Ton, Ton zu Bild]]&lt;br /&gt;
&lt;br /&gt;
[[Category:SS10]]&lt;br /&gt;
[[Category:Fachmodul]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Pure Data]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=7578</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=7578"/>
		<updated>2010-04-29T21:47:52Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;quot;Zwielichtiges Schattenwesen&amp;quot;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&amp;lt;br&amp;gt;&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/audiodoku-1.wav audio]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]] : MusicPainter==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Projekt :&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
My goal is to create a player patch, using multitracked musics to create a numeric animated painting.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Work :&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
1/&#039;&#039;the pitch&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
I started with a serie of patches isolating each note from 3 octaves. Each note was linked to one form, and amplitude made it bigger or increased its opacity. I tried diffrent sources of sound to test them, like tunes of music or my own voice. But due to the harmonics, I had difficulties to isolate this way the pitch, even with filters. For exemple, with my low pitched voice, it gave more result on quit high pitched voices, whereas  higher voice could have more influence on elements linked to lower notes.&lt;br /&gt;
&lt;br /&gt;
I tried again to use this method to create later an abstraction for bass instrument. But the result were quit bad too, it was difficult to get the feeling of following the music.&lt;br /&gt;
&lt;br /&gt;
I also tried to use the pitch information to change the vertical position of one element. But again, due to the harmonics and the simply fact that different notes can be played by the an instrument in the same time, it didn&#039;t follow the melody very well.&lt;br /&gt;
&lt;br /&gt;
That&#039;s why I decided to give less importance to pitch in my work, and tried to work more on other audio informations : &#039;&#039;amplitude&#039;&#039; and &#039;&#039;attack&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
I also understood that &#039;&#039;&#039;movement (in space or by size changement) was more importante to follow the music&#039;&#039;&#039;, especially when it&#039;s linked to the rythm. So I prefered making the pitch acting more on color changes than on movement. But I had an other problem.  Working mostly on particles, my diffrent absractions (one for each instrument) using particles switched their color information. Guitar&#039;s colors were sent to drums&#039; forms, drums&#039; colors sent to strings, etc... I tried to switch myself the color part of each abstraction following this way. But it was still unstable. For exemple if I use 5 abstractions for five audio sources on 6, it&#039;s switched again.&lt;br /&gt;
&lt;br /&gt;
So I decided to use this problem to solve an other problem, the fact that colors were more or less the same for each tunes. I used the [part_targetcolor] object to get nuances in color changes. So the colors doesn&#039;t act on the good forms, but finally, as the most important is movement for me, it&#039;s not so important. The main aim is to create a global animation following music. In a musical composition, the instruments play together and create one main feeling. It&#039;s the same I do. &#039;&#039;&#039;When an instrument play higher, even if its color evolve on another form than the correct one, the watcher will notice a visual changement linked to an audio changement.&#039;&#039;&#039; Even if he can link himself wich form corresponds to each instrument, it&#039;s not the most important. The main element is the global one.&lt;br /&gt;
To use pitch information I use the &#039;&#039;&#039;[sigmund~] object&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
2/&#039;&#039;Amplitude and Attack&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
I used amplitude to incresed or decrease the size of an element. To get it, I used the &#039;&#039;&#039;[sigmung~] object&#039;&#039;&#039; or the&#039;&#039;&#039; [env~] one&#039;&#039;&#039;.&lt;br /&gt;
I used attack information to increase the speedness of particles. For exemple with the piano&#039;s and guitare&#039;s abstractions, each attack increases suddently the speedness and makes the older particles disappear. To use it, I used the&#039;&#039;&#039; [fiddle~] object&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
3/&#039;&#039;Instrument&#039;s Abstractions&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
//&#039;&#039;&#039;[Singer]&#039;&#039;&#039;&lt;br /&gt;
&#039;&#039;&#039;[pix_kaleidoscope&#039;&#039;&#039;] object acting on a picture to choose. This picture is a spiral with horizontal lines, avaible in different colors. This is the only one abstraction working without particles.&lt;br /&gt;
Number of segments and angle degrees : Pitch.&lt;br /&gt;
Scale (size) : Amplitude.&lt;br /&gt;
&lt;br /&gt;
//&#039;&#039;&#039;[Piano]&#039;&#039;&#039;&lt;br /&gt;
Working with particles (vertical rectangle). The rectangle turns around the center of the window. At each attack, the old ones diappear.&lt;br /&gt;
Radius : 1,75&lt;br /&gt;
Size : Amplitude.&lt;br /&gt;
Speedness : Attack information. From 0,01 to 2.&lt;br /&gt;
Each attack makes the particles rotate on itself of 5 degrees.&lt;br /&gt;
&lt;br /&gt;
//&#039;&#039;&#039;[Guitare]&#039;&#039;&#039;&lt;br /&gt;
This abstraction work the same way than the piano&#039;s one, but with a radius of 2,5.&lt;br /&gt;
&lt;br /&gt;
//&#039;&#039;&#039;[Strings]&#039;&#039;&#039;&lt;br /&gt;
This one can also be used for voices (choir). The particles (triangles) turn also around the middle, but the raius can change.&lt;br /&gt;
Radius : Pitch.&lt;br /&gt;
Size : Unic, but evenly decreasing when strings don&#039;t play anymore.&lt;br /&gt;
Numbers : Amplitude.&lt;br /&gt;
Each attack makes the particles rotate on itself of 10 degrees.&lt;br /&gt;
&lt;br /&gt;
//&#039;&#039;&#039;[Bass]&#039;&#039;&#039;&lt;br /&gt;
This abstraction works primary the same way than the strings&#039; one. The differences are :&lt;br /&gt;
- the orbit is oblique;&lt;br /&gt;
- the speedness is lower;&lt;br /&gt;
- the particles are circles;&lt;br /&gt;
- the size depends of the pitch;&lt;br /&gt;
- the particles don&#039;t turn on themselves.&lt;br /&gt;
&lt;br /&gt;
//&#039;&#039;&#039;[Drums]&#039;&#039;&#039;&lt;br /&gt;
This abstraction works with particles, but those ones don&#039;t turn around the center.&lt;br /&gt;
Y position : Pitch (randomly between 2 and 4 or -2 and -4, it can change after each attack).&lt;br /&gt;
X position : Randomly between -3,5 and 3,5.&lt;br /&gt;
Size : Amplitude.&lt;br /&gt;
Speedness : 0,01.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Player :&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;You can download the patch here : [[File:MusicPainter.zip]].&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
[[File:MusicPainter_Player.jpg]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Result :&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
[[Image:musicpainter_exemples.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10915919|400|265&amp;lt;/videoflash&amp;gt; &amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10914603|400|265&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Dominique Wollniok]]: _VerkehrsMalerei==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
Im Video unten wurde jedoch ein Audiofile zur Gestaltung der Audioebene verwendet.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;XMKiX48Mm0g|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Link to the Past==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. &lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird das von einer Kamera aufgenommene Bild durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. &lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt). Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. &lt;br /&gt;
&lt;br /&gt;
Die Modifikationsebene wird dann auch für den auditiven Output verwendet. Aus den Farbwerten werden die Grauwerte rausgefiltert und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. &lt;br /&gt;
&lt;br /&gt;
[[File:LJ_AV.zip]]&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10808794|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
This semester, I was interested by working on the sound for a 3D TV project with a wave field synthesis system. But after many test, I realized that it would be to difficult for me to learn &lt;br /&gt;
how work the WFS system and the 3D system in the same time in only six months.&lt;br /&gt;
So I decided to make a radio drama with the WFS system. &lt;br /&gt;
&lt;br /&gt;
This radio drama length is about 7 minutes. The story take place in a space schuttle. I used pure data to do the spatialization of my sound. On my patch I had three  slider for the three axis X,Y and Z wich I can change the position of a sound. I made an automation to change the position of the character during the story. &lt;br /&gt;
&lt;br /&gt;
This is a version of my radio drama without mix. To listen my work you need a WFS system :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;quot;&amp;gt;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:WFS-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
File:WFS-COMPUTER-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:WSebastian|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video macht leider Probleme!&lt;br /&gt;
Dafür hier aber der (nicht ganz so aussagekräftige) Ton dazu.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Applaus-audio.mp3&amp;quot;&amp;gt;Applaus-audio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Und die patches zum anschauen: [[File:Applaus.zip]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=6179</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=6179"/>
		<updated>2010-04-09T23:13:38Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;quot;Zwielichtiges Schattenwesen&amp;quot;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&amp;lt;br&amp;gt;&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/audiodoku-1.wav audio]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: _VerkehrsMalerei==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
Im Video unten wurde jedoch ein Audiofile zur Gestaltung der Audioebene verwendet.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;XMKiX48Mm0g|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. &lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird das von einer Kamera aufgenommene Bild durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. &lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt). Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. &lt;br /&gt;
&lt;br /&gt;
Die Modifikationsebene wird dann auch für den auditiven Output verwendet. Aus den Farbwerten werden die Grauwerte rausgefiltert und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. &lt;br /&gt;
&lt;br /&gt;
[[File:LJ_AV.zip]]&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10808794|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
This semester, I was interested by working on the sound for a 3D TV project with a wave field synthesis system. But after many test, I realized that it would be to difficult for me to learn &lt;br /&gt;
how work the WFS system and the 3D system in the same time in only six months.&lt;br /&gt;
So I decided to make a radio drama with the WFS system. &lt;br /&gt;
&lt;br /&gt;
This radio drama length is about 7 minutes. The story take place in a space schuttle. I used pure data to do the spatialization of my sound. On my patch I had three  slider for the three axis X,Y and Z wich I can change the position of a sound. I made an automation to change the position of the character during the story. &lt;br /&gt;
&lt;br /&gt;
This is a version of my radio drama without mix. To listen my work you need a WFS system :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;quot;&amp;gt;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:WFS-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
File:WFS-COMPUTER-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video macht leider Probleme!&lt;br /&gt;
Dafür hier aber der (nicht ganz so aussagekräftige) Ton dazu.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Applaus-audio.mp3&amp;quot;&amp;gt;Applaus-audio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Und die patches zum anschauen.&lt;br /&gt;
&lt;br /&gt;
[[File:Applaus.zip]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentati]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=6176</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=6176"/>
		<updated>2010-04-09T22:58:41Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&amp;lt;br&amp;gt;&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/audiodoku-1.wav audio]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: _VerkehrsMalerei==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
Im Video unten wurde jedoch ein Audiofile zur Gestaltung der Audioebene verwendet.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;XMKiX48Mm0g|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. &lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird das von einer Kamera aufgenommene Bild durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. &lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt). Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. &lt;br /&gt;
&lt;br /&gt;
Die Modifikationsebene wird dann auch für den auditiven Output verwendet. Aus den Farbwerten werden die Grauwerte rausgefiltert und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. &lt;br /&gt;
&lt;br /&gt;
[[File:LJ_AV.zip]]&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10808794|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
This semester, I was interested by working on the sound for a 3D TV project with a wave field synthesis system. But after many test, I realized that it would be to difficult for me to learn &lt;br /&gt;
how work the WFS system and the 3D system in the same time in only six months.&lt;br /&gt;
So I decided to make a radio drama with the WFS system. &lt;br /&gt;
&lt;br /&gt;
This radio drama length is about 7 minutes. The story take place in a space schuttle. I used pure data to do the spatialization of my sound. On my patch I had three  slider for the three axis X,Y and Z wich I can change the position of a sound. I made an automation to change the position of the character during the story. &lt;br /&gt;
&lt;br /&gt;
This is a version of my radio drama without mix. To listen my work you need a WFS system :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;quot;&amp;gt;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:WFS-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
File:WFS-COMPUTER-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video macht leider Probleme!&lt;br /&gt;
Dafür hier aber der (nicht ganz so aussagekräftige) Ton dazu.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Applaus-audio.mp3&amp;quot;&amp;gt;Applaus-audio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Und die patches zum anschauen.&lt;br /&gt;
&lt;br /&gt;
[[File:Applaus.zip]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=6175</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=6175"/>
		<updated>2010-04-09T22:53:21Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/videodoku-1.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: _VerkehrsMalerei==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
Im Video unten wurde jedoch ein Audiofile zur Gestaltung der Audioebene verwendet.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;XMKiX48Mm0g|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. &lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird das von einer Kamera aufgenommene Bild durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. &lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt). Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. &lt;br /&gt;
&lt;br /&gt;
Die Modifikationsebene wird dann auch für den auditiven Output verwendet. Aus den Farbwerten werden die Grauwerte rausgefiltert und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. &lt;br /&gt;
&lt;br /&gt;
[[File:LJ_AV.zip]]&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10808794|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
This semester, I was interested by working on the sound for a 3D TV project with a wave field synthesis system. But after many test, I realized that it would be to difficult for me to learn &lt;br /&gt;
how work the WFS system and the 3D system in the same time in only six months.&lt;br /&gt;
So I decided to make a radio drama with the WFS system. &lt;br /&gt;
&lt;br /&gt;
This radio drama length is about 7 minutes. The story take place in a space schuttle. I used pure data to do the spatialization of my sound. On my patch I had three  slider for the three axis X,Y and Z wich I can change the position of a sound. I made an automation to change the position of the character during the story. &lt;br /&gt;
&lt;br /&gt;
This is a version of my radio drama without mix. To listen my work you need a WFS system :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;quot;&amp;gt;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:WFS-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
File:WFS-COMPUTER-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video macht leider Probleme!&lt;br /&gt;
Dafür hier aber der (nicht ganz so aussagekräftige) Ton dazu.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Applaus-audio.mp3&amp;quot;&amp;gt;Applaus-audio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Und die patches zum anschauen.&lt;br /&gt;
&lt;br /&gt;
[[File:Applaus.zip]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=RADIO:Luftikus&amp;diff=5794</id>
		<title>RADIO:Luftikus</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=RADIO:Luftikus&amp;diff=5794"/>
		<updated>2010-04-05T20:48:30Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Anja I Maxie &lt;br /&gt;
&lt;br /&gt;
==LUFTIKUS - installations with fans==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===&#039;&#039;IDEA&#039;&#039;===&lt;br /&gt;
&lt;br /&gt;
Aus den Faktoren Wind und Licht, zwei bezeichnenden Elementen der Region in und um Arles, &amp;lt;br&amp;gt;&lt;br /&gt;
sollen in Verbindung mit Klang Objektinstallationen entstehen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;The combination of wind and light, two characteristic elements of the region in and around Arles,&#039;&#039; &amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;shall be combined with sound. The interplay of all three parameters will form two mixed media&#039;&#039; &amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;room installations.&#039;&#039;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==(1)  „mit Papier und Lüfter“/ &amp;quot;with paper and fans&amp;quot;==&lt;br /&gt;
&lt;br /&gt;
Ein oder mehrere Papierobjekte werden durch PC-Lüfter leicht in Bewegung versetzt und mit &amp;lt;br&amp;gt;&lt;br /&gt;
Hilfe von Lichtquellen an die Wand projiziert. Der Klang der einzelnen Elemente wird im &amp;lt;br&amp;gt;&lt;br /&gt;
Zusammenhang mit dem entstehenden Schattenbild eine akustische Raumatmosphäre schaffen.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Several pc-fans will move multiple paper objects hanging from the ceiling. Through a projection&#039;&#039; &amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;of light on the objects the shadows will be animated on the wall. The sound of each single&#039;&#039; &amp;lt;br&amp;gt;&lt;br /&gt;
&#039;&#039;element, in conjunction with the originated shadows, will create an acoustic atmosphere.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
====Room structure====&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:InstallwithFans-Paper_02.jpg|400px]] &lt;br /&gt;
[[File:InstallwithFans-Paper_01.jpg|400px]] &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Photos -&amp;gt; Experiments====&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery widths=130px heights=130px perrow=5&amp;gt;&lt;br /&gt;
File:Still_12.jpeg&lt;br /&gt;
File:Still_5.jpeg&lt;br /&gt;
File:Still_7.jpeg&lt;br /&gt;
File:Still_21.jpeg&lt;br /&gt;
File:Still_13.jpeg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Movies -&amp;gt; Experiments====&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/paper-moving_01.mov 01]&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/paper-moving_02.mov 02]&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/paper-moving_03.mov 03]&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/paper-moving_04.mov 04]&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/paper-moving_05.mov 05]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Technique, Material====&lt;br /&gt;
&lt;br /&gt;
4-6 Lautsprecher/ loudspeakers (activ or passiv) + cables  -&amp;gt;(France)&amp;lt;br&amp;gt;&lt;br /&gt;
(f.e.  like Genelec or JBL C5)&amp;lt;br&amp;gt;  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
3 Amplifiers  -&amp;gt;(France)&amp;lt;br&amp;gt;&lt;br /&gt;
Multicore-cabel or seperate,  (JACK to -&amp;gt; CINCH or JACK to -&amp;gt;JACK ? ) -&amp;gt;(France)&amp;lt;br&amp;gt;&lt;br /&gt;
Firewire -Audio-Interface  -&amp;gt;(France)&amp;lt;br&amp;gt;&lt;br /&gt;
(as many as 4 x Analog OUT, Micro Analog IN, 2x Firewire to connect webcam + macbook)&amp;lt;br&amp;gt;&lt;br /&gt;
(f.e.  like Metric Helo Mobile I/O 2882) &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
3-5 Fans -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt;&lt;br /&gt;
Macbook -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt;&lt;br /&gt;
Arduino-Board + accessory -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Lightsources  -&amp;gt;(Anja/Maxie) &amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Unibrain fire-i (Webcam)  -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt;&lt;br /&gt;
Firewire cable, 10 m!! ( or 2x 5m + adapter)  -&amp;gt;(Weimar or (France)&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Cabel + other accessory for fans, Nylon-strings, Paper  -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt; &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Mehrfachsteckdosen  -&amp;gt;(France)&amp;lt;br&amp;gt;&lt;br /&gt;
Steckdosenverlängerungen (5m-  )  -&amp;gt;(France)&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==(2)  &amp;quot;mit tanzenden Lüftern&amp;quot; / &amp;quot;with moving fans&amp;quot;==&lt;br /&gt;
&lt;br /&gt;
Die PC-Lüfter selbst werden hier zum akustischen und visuellen Objekt. Dabei werden Sound &amp;lt;br&amp;gt;&lt;br /&gt;
und Bewegung der im Raum hängenden Lüfter durch eine sich ständig verändernde Spannung &amp;lt;br&amp;gt; gesteuert.Der präzise Einsatz von Lichtquellen lässt die Lüfter in Form von Schattenbildern &amp;lt;br&amp;gt;&lt;br /&gt;
tanzen.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Here, the PC-fans themselves become acoustic and visuell objects. Therefore the sound and the&#039;&#039; &amp;lt;br&amp;gt; &#039;&#039;movement of the hanging fans will be controlled by a permanently changing voltage. The precise&#039;&#039; &amp;lt;br&amp;gt; &#039;&#039;insertion of light allowes the fans to dance in terms of shadow images.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
====Room structure====&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:InstallwithFans_02.jpg|400px]]&lt;br /&gt;
[[File:InstallwithFans_01.jpg|400px]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Photos -&amp;gt; Experiments====&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery widths=130px heights=130px perrow=5&amp;gt;&lt;br /&gt;
File:IMG_8764_kl.jpg&lt;br /&gt;
File:Still_14.jpeg&lt;br /&gt;
File:IMG_8801_kl.jpg&lt;br /&gt;
File:Still_17.jpeg&lt;br /&gt;
File:Still_2.jpeg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
====Movies -&amp;gt; Experiments====&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/fan-moving_01.mov 01]&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/fan-moving_02.mov 02]&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/fan-moving_03.mov 03]&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/fan-moving_04.mov 04]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Fan noises====&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-01.mp3&amp;quot;&amp;gt;Fan-Noise-01.mp3&amp;lt;/flashmp3&amp;gt;MINT-Titan &lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/_.mov movie]&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-02.mp3&amp;quot;&amp;gt;Fan-Noise-02.mp3&amp;lt;/flashmp3&amp;gt;Coolermaster&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-03.mp3&amp;quot;&amp;gt;Fan-Noise-03.mp3&amp;lt;/flashmp3&amp;gt;MD-N401082&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-04.mp3&amp;quot;&amp;gt;Fan-Noise-04.mp3&amp;lt;/flashmp3&amp;gt;AVC HSF4010&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-05.mp3&amp;quot;&amp;gt;Fan-Noise-05.mp3&amp;lt;/flashmp3&amp;gt;PAPST-Multifan 8312L&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-06.mp3&amp;quot;&amp;gt;Fan-Noise-06.mp3&amp;lt;/flashmp3&amp;gt;Nidec BETAV-TA450DC&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-07.mp3&amp;quot;&amp;gt;Fan-Noise-07.mp3&amp;lt;/flashmp3&amp;gt;NMB-4715KL-04W-B39&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-08.mp3&amp;quot;&amp;gt;Fan-Noise-08.mp3&amp;lt;/flashmp3&amp;gt;JNC-blau&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-09.mp3&amp;quot;&amp;gt;Fan-Noise-09.mp3&amp;lt;/flashmp3&amp;gt;MGA8012HS-A&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-10.mp3&amp;quot;&amp;gt;Fan-Noise-10.mp3&amp;lt;/flashmp3&amp;gt;Brushless-WFB1212M&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Fan-Noise-all.mp3&amp;quot;&amp;gt;Fan-Noise-all.mp3&amp;lt;/flashmp3&amp;gt;all together&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Technique, Material====&lt;br /&gt;
&lt;br /&gt;
5-10 Fans -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt;&lt;br /&gt;
Macbook -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt;&lt;br /&gt;
Arduino-Board + accessory -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Lightsources  -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt; &lt;br /&gt;
(2x Projecteur Halogen) ? -&amp;gt;(France)&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Cabel + other accessory for fans, Nylon-strings  -&amp;gt;(Anja/Maxie)&amp;lt;br&amp;gt; &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Mehrfachsteckdosen  -&amp;gt;(France)&amp;lt;br&amp;gt;&lt;br /&gt;
Steckdosenverlängerungen (5m-  )  -&amp;gt;(France)&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
White Podest: 2m x 3m x 0,3m&amp;lt;br&amp;gt;&lt;br /&gt;
(with an open backside, to put technical things inside)&amp;lt;br&amp;gt;&lt;br /&gt;
- its the more asthetic way, that poeple dont touch this installation?&amp;lt;br&amp;gt;&lt;br /&gt;
- like a &amp;quot;no go/ don´t touch area&amp;quot;&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Place==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:room plan_overview.jpg|800px]]&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:room plan_detail.jpg|400px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==INSPIRATIONS==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Edith Kollath: Nothing will ever be the same, 2008. &lt;br /&gt;
*Edith Kollath: disport, 2009.&lt;br /&gt;
http://www.collectivagallery.com/artists-works/edith-kollath/nothing-will-ever-be-the-same-video.html&amp;lt;br&amp;gt;&lt;br /&gt;
http://www.collectivagallery.com/artists-works/edith-kollath/disport846.html&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Ballet de Plastique&lt;br /&gt;
*Feather Fountain&lt;br /&gt;
http://www.danielwurtzel.com/gallery_air.php&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Maschine zum Bewegen zweier Papierbahnen&lt;br /&gt;
http://www.youtube.com/watch?v=M7rq88SlTAk&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*vibration motors on architects papers, 2005&lt;br /&gt;
http://www.untitled-sound-objects.ch/videos/002_paper_mov.html&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==WORKFLOW==&lt;br /&gt;
&lt;br /&gt;
====First ideas====&lt;br /&gt;
[[Media:installations-ideen-1.1.pdf|00-Denkansätze]]&amp;lt;br&amp;gt;&lt;br /&gt;
[[Media:IDEE_SCHATTEN-Installation.jpg|01-Raumskizze-Schattenidee]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
====Photos====&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery widths=130px heights=130px perrow=4&amp;gt;&lt;br /&gt;
File:Schatten_01_kl.jpg&lt;br /&gt;
File:Objekt-+-Schatten_01_kl.jpg&lt;br /&gt;
File:exp_stoff-01.jpg&lt;br /&gt;
File:exp_stoff-02.gif&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&amp;lt;gallery widths=130px heights=130px perrow=4&amp;gt;&lt;br /&gt;
File:IMG_8764_kl.jpg&lt;br /&gt;
File:Still_12.jpeg&lt;br /&gt;
File:IMG_8810_kl.jpg&lt;br /&gt;
File:Still_4.jpeg&lt;br /&gt;
File:Still_5.jpeg&lt;br /&gt;
File:Still_7.jpeg&lt;br /&gt;
File:Still_21.jpeg&lt;br /&gt;
File:Still_13.jpeg&lt;br /&gt;
File:Still_14.jpeg&lt;br /&gt;
File:IMG_8801_kl.jpg&lt;br /&gt;
File:Still_17.jpeg&lt;br /&gt;
File:Still_2.jpeg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
====Movies====&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/PM-SOUNDART/schatten_exp-18jan.mov Schatten]&amp;lt;br&amp;gt;&lt;br /&gt;
[http://webuser.uni-weimar.de/~fxyy7094/soundart/bewegung_exp-15.jan.mov Bewegung]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5707</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5707"/>
		<updated>2010-04-05T10:05:56Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery  perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5706</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5706"/>
		<updated>2010-04-05T09:58:55Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5705</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5705"/>
		<updated>2010-04-05T09:57:35Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:Still-av_01.jpg|border]]&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&amp;lt;gallery perrow=4&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5704</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5704"/>
		<updated>2010-04-05T09:56:10Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery perrow=4&amp;gt;&lt;br /&gt;
[[File:Still-av_01.jpg|border]]&lt;br /&gt;
File:Still-av_01.png|border&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5703</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5703"/>
		<updated>2010-04-05T09:55:28Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery perrow=4&amp;gt;&lt;br /&gt;
[[File:Still-av_01.jpg|border]]&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5702</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5702"/>
		<updated>2010-04-05T09:51:14Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5701</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5701"/>
		<updated>2010-04-05T09:47:11Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery border=1px perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5700</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5700"/>
		<updated>2010-04-05T09:45:25Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery widths=120px heights=120px border=1px perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5696</id>
		<title>GMU:Audio+Video projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo_projekte&amp;diff=5696"/>
		<updated>2010-04-05T00:11:40Z</updated>

		<summary type="html">&lt;p&gt;Anjae: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Liste der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstehenden Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: Schatten-&amp;gt;Klang==&lt;br /&gt;
&lt;br /&gt;
====Idee====&lt;br /&gt;
Die Idee für diese Arbeit entstand aus der Videoaufnahme einer Schattenprojektion &amp;lt;br&amp;gt;&lt;br /&gt;
durch Sonnenlicht in meinen eigenen vier Wänden. Aus Licht und Schatten, bzw. ihren &amp;lt;br&amp;gt;&lt;br /&gt;
Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&amp;lt;br&amp;gt;&lt;br /&gt;
Das patch soll später ausgebaut werden um selbst erzeugte Schattenbilder/-bewegungen&amp;lt;br&amp;gt;&lt;br /&gt;
live in eine Klangumgebung zu transformieren und zu verräumlichen.&amp;lt;br&amp;gt;&lt;br /&gt;
(z.Bsp für: [http://web.uni-weimar.de/medien/wiki/RADIO:Luftikus Installation with paper and fans])&lt;br /&gt;
&lt;br /&gt;
====Klanggenerierung====&lt;br /&gt;
Die verwendeten Bildinformationen werden an einer horizontalen Linie ausgelesen. &amp;lt;br&amp;gt;&lt;br /&gt;
Der Grauwert steuert einen Oscillator. Durch das Setzen einer kleinen Rampe mit dem&amp;lt;br&amp;gt;&lt;br /&gt;
line~ Objekt entstehen die kurzen impulsartigen Geräusche.&amp;lt;br&amp;gt;&lt;br /&gt;
Die Farbwerte bestimmen die Frequenzbereiche des &amp;quot;Granularsynthesizers&amp;quot;.&amp;lt;br&amp;gt;&lt;br /&gt;
Daraus resultiert das windartige Geräusch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Umsetzung====&lt;br /&gt;
Das Bild wird in Grauwerte umgewandelt und invertiert.&amp;lt;br&amp;gt;&lt;br /&gt;
Ein  &amp;quot;Zwielichtiges Schattenwesen&amp;quot;?&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery widths=120px heights=120px perrow=4&amp;gt;&lt;br /&gt;
File:Still-av_01.png&lt;br /&gt;
File:Still-av_02.png&lt;br /&gt;
File:Still-av_03.png&lt;br /&gt;
File:Still-av_04.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://webuser.uni-weimar.de/~erdmann6/FM%20Audio-Video/schattenklang_PureData.mov movie]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
==[[Dominique Wollniok]]: Verkehrsströme==&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. &lt;br /&gt;
Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;KQRitdTOspE|410|260&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Original-Video wurde in der Dämmerung aufgenommen.&lt;br /&gt;
In Pure Data wird es durch Objekte in schwarz-weiß gebracht. Die Helligkeit wird heraus gefiltert und gespeichert. So entstehen weiße Linien, die das Licht der Autos im Bild darstellen.&lt;br /&gt;
Das originale Video liefert die Veränderung im Audiobereich. RGB-Werte beeinflussen die Höhen der Töne aus dem Oszillator&lt;br /&gt;
Ein weiteres Objekt verändert stetig die zusammengeführten Töne.&lt;br /&gt;
&lt;br /&gt;
Mit dem Patch kann man aber auch Bilder zeichnen. &lt;br /&gt;
Für eine Live-Installation integriert man eine Kamera oder Webcam in das Patch und dunkelt einen Raum ab. Mit Handlichtern, Laser-Pointern oder sonstigen Lichtquellen kann man nun an eine Wand zeichnen oder, wenn der Raum es erlaubt, einfach in die Luft. &lt;br /&gt;
Die Zeichen-Linien werden gespeichert:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:Gem1.jpg&lt;br /&gt;
File:004.jpg&lt;br /&gt;
File:005.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Gegenstände werden angeleuchtet und dann bewegt: eine Kleberolle&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:002.jpg&lt;br /&gt;
File:006.jpg&lt;br /&gt;
File:007.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Verkehrsstromaudio.mp3&amp;quot;&amp;gt;Verkehrsstromaudio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Doppelte Zeitreise==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30&#039;s Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie(&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: PDGame==&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet. Dies geschieht mit einer gewissen gewollten Trägheit (mit der Hilfe eines sog. line-objekt), damit die Bewegungen des Balls nicht zu hektisch werden und einen &amp;quot;schwebenden&amp;quot; Charakter bekommen.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle bei der Beeinflussung visueller Eigenschaften durch Klänge spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Hauptauslöser hierbei ist die ansteigende Spielgeschwindigkeit. Je weiter die Partie fortgeschritten ist, desto schneller die Spielgeschwindigkeit, detso mehr Elemnte sind in der Musik zu hören.&lt;br /&gt;
&lt;br /&gt;
Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit dazu weiterverwendet werden andere Spielinhalte zu beeinflussen. So verändert sich z.B. die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen. Oder der vom Benutzer gesteuerte Ball blinkt im Rhythmus des Schalgzeugs.&lt;br /&gt;
&lt;br /&gt;
Auf ähnliche Weise funktionieren weitere Ereignisse im Programm: Signaltöne, beim Abfangen grüner Punkte oder bei einer Kollision mit einem gelben Punkt sowie sowie das Aufleuchten des Hintergrund abgebildeten Mondes bei dem Erhalt eines Bonuspunktes.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]==&lt;br /&gt;
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen. Je länger und je mehr sich der Nutzer vor der Kamera bewegt, desto stetiger ist der Ausstoß von Partikeln. Die ursprüngliche Bewegung wird auf der einen Seite original dargestellt, auf der anderen Seite beeinflusst sie das Partikelsystem. Zudem wird der Ausstoß der Partikel aufgezeichnet und der Nutzr kann sich anschauen, wie viel er sich in der letzten Minute etwa bewegt hat. &lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden. Wenn man mehr hübsche, farbige Partikel sehen möchte, muss man sich halt bewegen. Das Patch ist so eine ganz einfache und simple Methode der Unterhaltung.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt; PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.&lt;br /&gt;
&lt;br /&gt;
Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird von der angeschlossenen Kamera ein komplettes Bild aufgenommen. Dieses wird dann durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.&lt;br /&gt;
&lt;br /&gt;
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand und bilden durch Mischung sich ändernde Farben der Partikelspheren. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist. Das wird durch das Ablesen des alpha-channels ermöglicht. Durch das Einbauen einer neuen threshold, die vom alpha-channel abhängig ist, kann eine true or false message an das Partikelsystem gesand werden und dort die Bildung der Partikel (am part_source Objekt) regulieren. Damit der Austoß und das Verschwinden der Partikel nicht zu schnell von statten geht und man auch was zum anschauen hat, wird die Geschwindigkeit der Partikel herabgesetzt (part_damp Objekt).&lt;br /&gt;
&lt;br /&gt;
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Dort kann man sich praktisch auf abstrakte Weise ansehen, wie oft und wie lange man sich in der letzten Minute etwa vor der Kamera bewegt hat. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt), da die Informationen der Partikel an sich nämlich nicht wieder in Pixel umgewandelt werden können. Dieses Bild wird dann im pix_rtx Objekt weiterverwendet. Das Endergebnis dieser Ebene ist eine Darstellung, in der die x-Achse mit der Zeit-Achse vertauscht ist. Man hat also eine sich immer wieder erneuernde Darstellung seiner eigenen Bewegung (in Partikeln) in der letzten Minute.&lt;br /&gt;
&lt;br /&gt;
Um zu dem visuellen Input nicht nur ein visuellen Output zu haben, werden Farbwerte aus der Modifikationsebene für einen auditiven Output verwendet. Die Farbwerte werden auf einer dünnen Linie in der zeitlichen Darstellung abgelesen und man erhält nur Klänge, wenn in der Modifikation Partikel vorhanden sind. Man muss sich also bewegt haben. Aus diesen Farbwerten werden die Grauwerte rausgefiltert (pix_data Objekt) und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben. Die Tonhöhe des Outputs ist mit einem Regler veränderbar.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File: Av1.JPG&lt;br /&gt;
File: Av2.JPG&lt;br /&gt;
File: Av3.JPG&lt;br /&gt;
File: Av4.JPG&lt;br /&gt;
File: Av5.JPG&lt;br /&gt;
File: Av6.JPG&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
Hier noch ein Audio-File:&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Av_wsprojekt.mp3&amp;quot;&amp;gt; Av_wsprojekt.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Und ein Video in suuuper Qualität  und ohne Ton, wenn man das unbedingt sehen will:&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;10554162|400|300&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]==&lt;br /&gt;
&lt;br /&gt;
I would like to make a radio drama with a Wave Field Synthesis system.&lt;br /&gt;
This kind of system works with a PD patch with wich you can place a sound where you want in the space (XYZ).&lt;br /&gt;
I need to create an automation in the PD patch  for place all the sounds of the radio drama at the right time in a specific place.&lt;br /&gt;
The listener could be inside the story with this system.&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:Zwolle|Sebastian Wolf]]: Applaus==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video folgt!&lt;br /&gt;
&lt;br /&gt;
==[[Tobias Zeller]]==&lt;br /&gt;
Ich werde meine Kamera an ein patch anklemmen und mal ein paar Schwenks machen. Bin gespannt wie sich das anhört :-)&lt;br /&gt;
&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Projektliste]]&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_01.png&amp;diff=5695</id>
		<title>File:Still-av 01.png</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_01.png&amp;diff=5695"/>
		<updated>2010-04-05T00:10:08Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 01.png&amp;quot;:&amp;amp;#32;Reverted to version as of 18:45, 31 March 2010&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_01.png&amp;diff=5694</id>
		<title>File:Still-av 01.png</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_01.png&amp;diff=5694"/>
		<updated>2010-04-05T00:09:44Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 01.png&amp;quot;:&amp;amp;#32;Reverted to version as of 00:01, 5 April 2010&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_02.png&amp;diff=5693</id>
		<title>File:Still-av 02.png</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Still-av_02.png&amp;diff=5693"/>
		<updated>2010-04-05T00:09:25Z</updated>

		<summary type="html">&lt;p&gt;Anjae: uploaded a new version of &amp;quot;File:Still-av 02.png&amp;quot;:&amp;amp;#32;Reverted to version as of 18:45, 31 March 2010&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Anjae</name></author>
	</entry>
</feed>