<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Johann+Niegl</id>
	<title>Medien Wiki - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Johann+Niegl"/>
	<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/Special:Contributions/Johann_Niegl"/>
	<updated>2026-05-17T02:18:19Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.39.6</generator>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Patching_Circle&amp;diff=33612</id>
		<title>GMU:Patching Circle</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Patching_Circle&amp;diff=33612"/>
		<updated>2011-10-31T18:37:24Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Thursday 16:00 [[Marienstraße 7b]] Room 204&lt;br /&gt;
&lt;br /&gt;
Everybody welcome who works with data-flow languages namely [[Pure Data]], Max, vvvv and [[Visuelle Programmierung für Gestalter|others]]. A forum for questions and answers, little project presentations, discussions and the passing of experience and wisdom from one student to the other.&lt;br /&gt;
&lt;br /&gt;
Subscribe to the [[GMU:Mailinglist]] to receive updates.&lt;br /&gt;
&lt;br /&gt;
Next meeting is on Monday the 13th, 19:00h in Room 204, [[Marienstraße 5]]&lt;br /&gt;
&lt;br /&gt;
==Meeting Archive==&lt;br /&gt;
&lt;br /&gt;
===2.11.2011===&lt;br /&gt;
First meeting with Johann!&lt;br /&gt;
&lt;br /&gt;
===15.12.2010===&lt;br /&gt;
&lt;br /&gt;
===8.11.2010===&lt;br /&gt;
First meeting with Jörg!&lt;br /&gt;
&lt;br /&gt;
===21.6.2010===&lt;br /&gt;
* we had a closer look at Anja&#039;s work [[GMU:Audio+Video/projekte/Schatten→Klang|Schatten→Klang]]&lt;br /&gt;
* using abstractions to unclutter Patches and speed up the GUI&lt;br /&gt;
* Constantin added graphs to the Patch [[Media:Skalierungen.pd]] UPDATED!&lt;br /&gt;
* [http://puredata.info/Members/mfla/banguntil bang until inside joke] explained. Pd crashes when creating an endless loop&lt;br /&gt;
&lt;br /&gt;
===14.6.2010===&lt;br /&gt;
* we were looking at Martins work (getting RGB values from different pixels in Gem/Pd in order to write a patch that turns pixeldata into sound) Examples: [[Media:Bewegungsmelder.zip]]&lt;br /&gt;
* we discussed some tips how to save CPU load (object speedlim; getting pixeldata from more than one pixel with only one pix_data object)&lt;br /&gt;
* mobile camera, [http://mccormick.cx/dev/webpd webpd], [[GMU:Rjdj-sprint|RjDj]]&lt;br /&gt;
* the question came up how to scale things. here is the demo patch: [[Media:Skalierungen.pd]]&lt;br /&gt;
* Anja was showing her work [[GMU:Audio+Video/projekte/Schatten→Klang|Schatten→Klang]]&lt;br /&gt;
&lt;br /&gt;
===7.6.2010===&lt;br /&gt;
The first meeting - about six people where there, more said they would like to come but will join next week. We discussed a bunch of things, among it:&lt;br /&gt;
* meso [[vvvv]] - yes it only runs on windows because it needs directX&lt;br /&gt;
* [http://pure-data.svn.sourceforge.net/viewvc/pure-data/trunk/abstractions/footils/sssad.tar.gz?view=tar State saving mechanism in Pd]&lt;br /&gt;
* [[Pure Data - Getting started]] how to get started in Pd&lt;br /&gt;
* [[PDCON:Start|Pure Data convention 2011]] Weimar has a fair chance&lt;br /&gt;
* others&lt;br /&gt;
&lt;br /&gt;
[[Category:Pure Data]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11665</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11665"/>
		<updated>2010-06-28T20:05:18Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;otgbVIyIRG8|600|400&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|right|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11664</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11664"/>
		<updated>2010-06-28T20:04:48Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;otgbVIyIRG8|600|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|right|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11663</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11663"/>
		<updated>2010-06-28T20:04:26Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;otgbVIyIRG8|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|right|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11662</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11662"/>
		<updated>2010-06-28T18:55:03Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|right|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11661</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11661"/>
		<updated>2010-06-28T18:54:48Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|right|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11660</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11660"/>
		<updated>2010-06-28T18:54:20Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|right|250px]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11659</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11659"/>
		<updated>2010-06-28T18:53:24Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|250px|Patch]]&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11658</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11658"/>
		<updated>2010-06-28T18:53:02Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11657</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11657"/>
		<updated>2010-06-28T18:52:44Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash [[Image:PDgame1.jpg|thumb|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11656</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11656"/>
		<updated>2010-06-28T18:52:17Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11655</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11655"/>
		<updated>2010-06-28T18:51:55Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11654</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11654"/>
		<updated>2010-06-28T18:51:37Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|250px|Patch]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Screenshot]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11653</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11653"/>
		<updated>2010-06-28T18:50:55Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1.jpg|thumb|right|250px|Partikelmaker]]&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Partikelmaker]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte&amp;diff=11652</id>
		<title>GMU:Audio+Video/projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte&amp;diff=11652"/>
		<updated>2010-06-28T18:50:23Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Johann Niegl: PDGame */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: [[/Schatten→Klang|Schatten→Klang]]==&lt;br /&gt;
[[Image:Still-av_01.jpg|thumb|right|250px|Schatten]]&lt;br /&gt;
Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
&lt;br /&gt;
[[/Schatten→Klang|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== [[Cédric Richard]]: [[/MusicPainter|MusicPainter]] ==&lt;br /&gt;
[[Image:MusicPainter_Player.jpg|thumb|right|250px|the patch]]&lt;br /&gt;
A player patch, using multitracked musics to create a numeric animated painting.&lt;br /&gt;
&lt;br /&gt;
[[/MusicPainter|Project documentation]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Dominique Wollniok]]: [[/VerkehrsMalerei|VerkehrsMalerei]]==&lt;br /&gt;
[[Image:Gem1.jpg|thumb|right|250px|Verkehrsmalerei]]&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
[[/VerkehrsMalerei|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Link to the Past==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles (einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit (eine 30ies Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person( im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie (&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: [[/PDGame|PDGame]]==&lt;br /&gt;
[[Image:PDgame2.jpg|thumb|right|250px|Partikelmaker]]&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
[[/PDGame|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]: [[/Partikelmaker|Partikelmaker]]==&lt;br /&gt;
[[Image:Av4.JPG|thumb|right|250px|Partikelmaker]]&lt;br /&gt;
Ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
&lt;br /&gt;
[[/Partikelmaker|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]: Title of the work==&lt;br /&gt;
[[Image:WFS-BAUHAUS-UNIVERSITY.jpg|thumb|right|250px|Wavefield-Synthesis]]&lt;br /&gt;
This semester, I was interested by working on the sound for a 3D TV project with a wave field synthesis system. But after many test, I realized that it would be to difficult for me to learn how work the WFS system and the 3D system in the same time in only six months.&lt;br /&gt;
So I decided to make a radio drama with the WFS system. &lt;br /&gt;
&lt;br /&gt;
This radio drama length is about 7 minutes. The story take place in a space shuttle. I used pure data to do the spatialization of my sound. On my patch I had three  slider for the three axis X,Y and Z wich I can change the position of a sound. I made an automation to change the position of the character during the story. &lt;br /&gt;
&lt;br /&gt;
This is a version of my radio drama without mix. To listen my work you need a WFS system :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;quot;&amp;gt;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:WFS-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
File:WFS-COMPUTER-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:WSebastian|Sebastian Wolf]]: [[/Applaus|Applaus]]==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video macht leider Probleme!&lt;br /&gt;
Dafür hier aber der (nicht ganz so aussagekräftige) Ton dazu.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Applaus-audio.mp3&amp;quot;&amp;gt;Applaus-audio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Und die patches zum anschauen: [[File:Applaus.zip]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte&amp;diff=11651</id>
		<title>GMU:Audio+Video/projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte&amp;diff=11651"/>
		<updated>2010-06-28T18:49:51Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Johann Niegl: PDGame */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:&lt;br /&gt;
&lt;br /&gt;
==[[Anja Erdmann]]: [[/Schatten→Klang|Schatten→Klang]]==&lt;br /&gt;
[[Image:Still-av_01.jpg|thumb|right|250px|Schatten]]&lt;br /&gt;
Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.&lt;br /&gt;
&lt;br /&gt;
[[/Schatten→Klang|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== [[Cédric Richard]]: [[/MusicPainter|MusicPainter]] ==&lt;br /&gt;
[[Image:MusicPainter_Player.jpg|thumb|right|250px|the patch]]&lt;br /&gt;
A player patch, using multitracked musics to create a numeric animated painting.&lt;br /&gt;
&lt;br /&gt;
[[/MusicPainter|Project documentation]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Dominique Wollniok]]: [[/VerkehrsMalerei|VerkehrsMalerei]]==&lt;br /&gt;
[[Image:Gem1.jpg|thumb|right|250px|Verkehrsmalerei]]&lt;br /&gt;
Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen. &lt;br /&gt;
&lt;br /&gt;
[[/VerkehrsMalerei|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Florian Erdmenger]]: Link to the Past==&lt;br /&gt;
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles (einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit (eine 30ies Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person( im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie (&amp;quot;Pastkey&amp;quot;) nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...&lt;br /&gt;
&lt;br /&gt;
Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&amp;amp;#91;1800-01-01%20TO%201950-01-01&amp;amp;#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)&lt;br /&gt;
&lt;br /&gt;
==[[Johann Niegl]]: [[/PDGame|PDGame]]==&lt;br /&gt;
[[Image:PDgame2]]&lt;br /&gt;
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
[[/PDGame|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Laura Jozefini]]: [[/Partikelmaker|Partikelmaker]]==&lt;br /&gt;
[[Image:Av4.JPG|thumb|right|250px|Partikelmaker]]&lt;br /&gt;
Ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.&lt;br /&gt;
&lt;br /&gt;
[[/Partikelmaker|Projektdokumentation]]&lt;br /&gt;
&amp;lt;br clear=&amp;quot;all&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[Mathieu Rathelot]]: Title of the work==&lt;br /&gt;
[[Image:WFS-BAUHAUS-UNIVERSITY.jpg|thumb|right|250px|Wavefield-Synthesis]]&lt;br /&gt;
This semester, I was interested by working on the sound for a 3D TV project with a wave field synthesis system. But after many test, I realized that it would be to difficult for me to learn how work the WFS system and the 3D system in the same time in only six months.&lt;br /&gt;
So I decided to make a radio drama with the WFS system. &lt;br /&gt;
&lt;br /&gt;
This radio drama length is about 7 minutes. The story take place in a space shuttle. I used pure data to do the spatialization of my sound. On my patch I had three  slider for the three axis X,Y and Z wich I can change the position of a sound. I made an automation to change the position of the character during the story. &lt;br /&gt;
&lt;br /&gt;
This is a version of my radio drama without mix. To listen my work you need a WFS system :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;quot;&amp;gt;WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
File:WFS-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
File:WFS-COMPUTER-BAUHAUS-UNIVERSITY.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==[[User:Matthias.breuer|Matthias Breuer]]==&lt;br /&gt;
===Raummode===&lt;br /&gt;
Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.&lt;br /&gt;
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &amp;amp;mdash; Hifi-Lexikon]&lt;br /&gt;
===Bang-Server===&lt;br /&gt;
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.&lt;br /&gt;
&lt;br /&gt;
==[[Meredith Barnes]]: Stop yelling at me==&lt;br /&gt;
a work-in-progress interactive animation video. &lt;br /&gt;
&lt;br /&gt;
My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.&lt;br /&gt;
# Concept&amp;lt;br /&amp;gt;The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.&amp;lt;br /&amp;gt; The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.&lt;br /&gt;
#Influences&amp;lt;br /&amp;gt;Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney. &lt;br /&gt;
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&amp;amp;iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.&lt;br /&gt;
In particular:&lt;br /&gt;
* Alex Davies Dislocation 2005&lt;br /&gt;
* John Tonkin Time and Motion Study 2006&lt;br /&gt;
&lt;br /&gt;
==[[User:WSebastian|Sebastian Wolf]]: [[/Applaus|Applaus]]==&lt;br /&gt;
&lt;br /&gt;
Ziel soll ein patch sein, der aus &#039;&#039;&#039;einem&#039;&#039;&#039; in-die-Hände-Klatschen &#039;&#039;&#039;etliche&#039;&#039;&#039; macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.&lt;br /&gt;
&#039;&#039;damit man sich selbst applaudieren kann ;)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.&lt;br /&gt;
&lt;br /&gt;
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.&lt;br /&gt;
Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?&lt;br /&gt;
&lt;br /&gt;
Video macht leider Probleme!&lt;br /&gt;
Dafür hier aber der (nicht ganz so aussagekräftige) Ton dazu.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flashmp3 id=&amp;quot;Applaus-audio.mp3&amp;quot;&amp;gt;Applaus-audio.mp3&amp;lt;/flashmp3&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Und die patches zum anschauen: [[File:Applaus.zip]]&lt;br /&gt;
&lt;br /&gt;
[[Category:Dokumentation]]&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Projektliste]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:PDgame2.jpg&amp;diff=11650</id>
		<title>File:PDgame2.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:PDgame2.jpg&amp;diff=11650"/>
		<updated>2010-06-28T18:48:49Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Summary ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11649</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11649"/>
		<updated>2010-06-28T18:48:30Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1]]&lt;br /&gt;
[[Image:PDgame2]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:PDgame1.jpg&amp;diff=11648</id>
		<title>File:PDgame1.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:PDgame1.jpg&amp;diff=11648"/>
		<updated>2010-06-28T18:47:55Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: uploaded a new version of &amp;quot;File:PDgame1.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Summary ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:PDgame1.jpg&amp;diff=11647</id>
		<title>File:PDgame1.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:PDgame1.jpg&amp;diff=11647"/>
		<updated>2010-06-28T18:47:13Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Summary ==&lt;br /&gt;
&lt;br /&gt;
== Copyright status: ==&lt;br /&gt;
&lt;br /&gt;
== Source: ==&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11625</id>
		<title>GMU:Audio+Video/projekte/PDGame</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Audio%2BVideo/projekte/PDGame&amp;diff=11625"/>
		<updated>2010-06-28T16:05:22Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.&lt;br /&gt;
&lt;br /&gt;
# Prinzip&amp;lt;br /&amp;gt;Der Benutzer hat die Möglichkeit die Position eines schwebenden roten Balls mittels Töne (z.B. Pfeifen) zu kontrollieren. Je höher das Pfeifen desto höher schwebt der rote Ball. Von Zeit zu Zeit, mit ansteigender Geschwindigkeit und Frequenz, fliegen bunte Punkte durch das Bild. Es gilt grüne Punkte mit dem roten Ball aufzufangen und gelben Punkten auszuweichen. Die Anzahl der abgefangenen grünen Punkte wird gezählt und die dauer des Spiels wird gemessen. Beide Werte werden am Ende einer Partie (sobald der rote Ball mit einem gelben Punkt kollidiert ist) als Punktestand angezeigt.&lt;br /&gt;
# Konzept&amp;lt;br /&amp;gt;Das PDGame stellt eine neue Form der Interaktion im spielerischen Kontext vor. Der Benutzer hat die Möglichkeit das Geschehen ohne jegliche motorische Handlung zu kontrollieren. Es werden Sinne und Fertigkeiten angesprochen, die traditionell in Spielen eher unterfordert werden. So z.B. die Fähigkeit Tonhöhen gezielt durch Pfeifen zu erzeugen. Nicht eine gute Auge-Hand-Koordination, wie sie in den meisten Spielen trainiert wird, sondern eine Auge-Mund-Koordination wird benötigt um das Spiel zu meistern. Das PDGame stellt somit eine erfrischende Abwechslung zu traditionellen Programmen dar.&lt;br /&gt;
# Umsetzung&amp;lt;br /&amp;gt;Pure Data bietet die Möglichkeit auf schnelle und effektive Weise unterschiedlichen Input (visuel, auditiv) im Computer zu verarbeiten und in ein Programm mit einzubeziehen. Das geschieht beim PDGame auf unterschiedlichen Ebenen.&lt;br /&gt;
&lt;br /&gt;
Die zentrale Funktion, bei der äußere Einflüsse eine Rolle spielen, ist die Kontrolle der Flughöhe des roten Balls mittels Pfeifen. Die Tonhöhe des Pfeifens wird durch ein Mikrophon aufgenommen und von dem Programm in den Y-Wert der Koordinaten des Balls umgerechnet.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Rolle spielt die Musik. Diese besteht aus vier Elementen - Schalgzeug, Synthesizerflächen, Keyboards und Gesang. Die vier Elemente können im Programm unabhängig voneinander angesteuert werden. Das bedeutet, dass je nach Spielsituation mehr oder weniger der Elemente zu hören sind. Jedoch wird nicht nur die Musik vom Spielgeschehen beeinflusst, sondern andersherum beeinflusst auch die Musik selber das Erscheinungsbild von PDGame. Die oben genannten vier Elemente der Musik werden in den Parametern Tonhöhe und Lautstärke analysiert. Diese Daten können dann in Echtzeit weiterverwendet werden z.B. um die Helligkeit des Hintergrunds in Abhängigkeit der Tonhöhe der Synthesizerflächen zu verändern.&lt;br /&gt;
&lt;br /&gt;
Video von PDGame:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;pfsOi5mMmqI|300|335&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:PDgame1]]&lt;br /&gt;
&lt;br /&gt;
(Leider sind hier audio + video nicht ganz synchron. Das liegt an dem Aufzeichnungsprogramm.)&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2121</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2121"/>
		<updated>2010-01-07T20:15:59Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird durch äußere Einflüsse zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0001.jpg|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0002.jpg|400px]]&lt;br /&gt;
[[Image:Quake0003.jpg|400px]]&lt;br /&gt;
&lt;br /&gt;
Quake ist keine Globalisierungskritik.&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2120</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2120"/>
		<updated>2010-01-07T20:14:02Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0001.jpg|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0002.jpg|400px]]&lt;br /&gt;
[[Image:Quake0003.jpg|400px]]&lt;br /&gt;
&lt;br /&gt;
Quake ist keine Globalisierungskritik.&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2119</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2119"/>
		<updated>2010-01-07T20:11:11Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0001.jpg|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0002.jpg|400px]]&lt;br /&gt;
[[Image:Quake0003.jpg|400px]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2118</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2118"/>
		<updated>2010-01-07T20:10:34Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0001.jpg|500px]]&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0002.jpg|400px]][[Image:Quake0003.jpg|400px]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Quake0003.jpg&amp;diff=2117</id>
		<title>File:Quake0003.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Quake0003.jpg&amp;diff=2117"/>
		<updated>2010-01-07T20:07:23Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Quake0002.jpg&amp;diff=2116</id>
		<title>File:Quake0002.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Quake0002.jpg&amp;diff=2116"/>
		<updated>2010-01-07T20:07:01Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2115</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2115"/>
		<updated>2010-01-07T20:06:34Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0001.jpg|600px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0002.jpg|600px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0003.jpg|600px]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2114</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2114"/>
		<updated>2010-01-07T20:05:54Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0001.jpg|600px]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Quake0001.jpg&amp;diff=2113</id>
		<title>File:Quake0001.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=File:Quake0001.jpg&amp;diff=2113"/>
		<updated>2010-01-07T20:04:44Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2112</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2112"/>
		<updated>2010-01-07T20:04:16Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[Image:Quake0001|600px]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2111</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2111"/>
		<updated>2010-01-07T20:02:44Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2110</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2110"/>
		<updated>2010-01-07T20:01:26Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[File:Quake0001]]&lt;br /&gt;
&lt;br /&gt;
[[File:Quake0002]]&lt;br /&gt;
&lt;br /&gt;
[[File:Quake0003]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2109</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte/Quake</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte/Quake&amp;diff=2109"/>
		<updated>2010-01-07T20:00:35Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: Created page with &amp;#039;Quake ist eine Installation.  Quake reagiert auf seine Umwelt.  Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.  Das Dröhnen wird über einen Verstä…&amp;#039;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Quake ist eine Installation.&lt;br /&gt;
&lt;br /&gt;
Quake reagiert auf seine Umwelt.&lt;br /&gt;
&lt;br /&gt;
Quake übersetzt hochfrequente Umgebungseräusche in Subfreqentes Dröhnen.&lt;br /&gt;
&lt;br /&gt;
Das Dröhnen wird über einen Verstärker wiedergegeben.&lt;br /&gt;
Vor dem Verstärker ist ein Spiegel befestigt, der durch die Schallwellen in Schwingung versetzt wird.&lt;br /&gt;
&lt;br /&gt;
Ein Bild, das über diesen Spiegel projeziert wird, wird zum Leben erweckt.&lt;br /&gt;
&lt;br /&gt;
[[File:http://i144.photobucket.com/albums/r190/jbgn/Foto0002.jpg]]&lt;br /&gt;
&lt;br /&gt;
[[File:http://i144.photobucket.com/albums/r190/jbgn/Foto0004.jpg]]&lt;br /&gt;
&lt;br /&gt;
[[File:http://i144.photobucket.com/albums/r190/jbgn/Foto0021.jpg]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte&amp;diff=2108</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte&amp;diff=2108"/>
		<updated>2010-01-07T19:34:57Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Johann Niegl: Animierte Bildfragmente */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Im Kurs [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]] entstehende Projekte der Studierenden:&lt;br /&gt;
&lt;br /&gt;
==[[Matthias Breuer]]: Bild-Ton Wandler==&lt;br /&gt;
[[GMU:Bild-Ton-Wandler|Bild-Ton-Wandler]]&lt;br /&gt;
&lt;br /&gt;
[[GMU:LVDj 2|LVDj 2]]&lt;br /&gt;
&lt;br /&gt;
==[[Georg Frömelt]]: Die 7 Todsünden==&lt;br /&gt;
&lt;br /&gt;
[[Die 7 Todsünden]]&lt;br /&gt;
&lt;br /&gt;
==[[Danny Hanse]]: Zugfahrt==&lt;br /&gt;
&lt;br /&gt;
[http://en.wikipedia.org/wiki/Step_Across_the_Border Step Across the Border]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;dailymotion&amp;quot;&amp;gt;x26gg0&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
[http://de.wikipedia.org/wiki/Michel_Gondry Michel Gondry]: Star Guitar [http://de.wikipedia.org/wiki/Chemical_Brothers (Chemical Brothers)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;2335306&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
von [http://www.chaosmoon.info chaosmoon]&lt;br /&gt;
&lt;br /&gt;
==[[Christian Hellmann]]==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In einer schwarzen Box eine schwarze Welle. die Welle wird erzeugt durch die Rotation zweier Motoren, die mit einer schwarzen Schnur, einem Strick oder ähnlichem verbunden sind. Ein Beamer projiziert eine weiße Linie auf die Welle. Scannt sie quasi. Durch das Scannen der Welle schwimmt sie wie hier:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flash&amp;gt;file=swimfast.swf|width=210|height=210|bgcolor=#000000|scale=exactfit|quality=best&amp;lt;/flash&amp;gt;&lt;br /&gt;
&amp;lt;flash&amp;gt;file=swimslow.swf|width=210|height=210|bgcolor=#000000|scale=exactfit|quality=best&amp;lt;/flash&amp;gt;&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Durch stroboskopartiges Aufblitzen erkennt man jeweils nur eine Hälfte der Welle.&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;flash&amp;gt;file=upper_1.swf|width=210|height=210|bgcolor=#000000|scale=exactfit|quality=best&amp;lt;/flash&amp;gt;&lt;br /&gt;
&amp;lt;flash&amp;gt;file=upper_2.swf|width=210|height=210|bgcolor=#000000|scale=exactfit|quality=best&amp;lt;/flash&amp;gt;&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ich will versuchen Intervall und Projektion zu synchronisieren. Was nicht zwanghaft beibehalten werden muss.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Aufbauskizze:&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[File:motor&amp;amp;beamer.png]]&lt;br /&gt;
[[File:motor&amp;amp;beamer&amp;amp;lap&amp;amp;case&amp;amp;arduino.png]]&lt;br /&gt;
&lt;br /&gt;
==[[Sabina Kim]]: Stop motion==&lt;br /&gt;
&lt;br /&gt;
[[GMU:Sabinas_Work|Sabinas Work]]&lt;br /&gt;
&lt;br /&gt;
==[[Konstantin Knust]]==&lt;br /&gt;
==[[Simon Müller]]==&lt;br /&gt;
==[[Johann Niegl]]: Animierte Bildfragmente==&lt;br /&gt;
[[GMU:Animierte Bildfragmente|Animierte Bildfragmente]]&lt;br /&gt;
&lt;br /&gt;
[[Quake|Quake]]&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
&lt;br /&gt;
==[[Sebastian Weißbach]]==&lt;br /&gt;
&lt;br /&gt;
==[[Maria Schween]]: Was ist eine Frau?==&lt;br /&gt;
===Rom-Italien===&lt;br /&gt;
&lt;br /&gt;
Es gibt hier vielzählige Umstände, die einem sozusagen ins Auge springen und anregend für das künstlerische Schaffen sind. &lt;br /&gt;
&lt;br /&gt;
*Rom hat wenig Platz für junge Kultur, daher möchte ich ein Konzert realisieren am geeignetsten scheint mir ein Autotunnel, da es dort viel ungenutzten Platz gibt und den im Überfluss, somit wäre dann auch die Lebensqualität während des täglichen Staus gesichert.&lt;br /&gt;
&lt;br /&gt;
*Berlusconi hat es auf das Titelblatt des italienischen Rolling Stone geschafft. Ich möchte einen Song eines echten Rockstars mit den Worten Berlusconis synchronisieren, um dem Titelbild auch die notwendige Musik zu liefern. Ich finde es auch sehr interessant, wie die Erscheinung des äußerst ironisch verfassten Artikels im Rest der Welt und von Berlusconis Zeitung gesehen wird.&lt;br /&gt;
*[http://www.rollingstonemagazine.it/notizie/silvio-berlusconi-rockstar-dell-anno-boom-sul-web rollingstonemagazine.it]  vgl.: [http://www.welt.de/vermischtes/article5317289/Magazin-kuert-Berlusconi-zu-Rockstar-des-Jahres.html www.welt.de]&lt;br /&gt;
&lt;br /&gt;
*Ich möchte mir Rom nicht nur visuell sondern auch akustisch erschließen, das heißt Lieder über und aus Rom analysieren und bearbeiten, wie zum Beispiel folgende.&lt;br /&gt;
*[http://www.romaspqr.it/roma/Canzoni_de_roma.htm Canzoni de Roma]&lt;br /&gt;
&lt;br /&gt;
===Die Rolle der Frau===&lt;br /&gt;
*[http://www.kleinezeitung.at/nachrichten/leute/576749/index.do Magersuchtproblem in Italien] &lt;br /&gt;
*[http://www.youtube.com/watch?v=gM8QEWU8eUk&amp;amp;feature=player_embedded Filmausschnitt eines typisch italienischen Paares]&lt;br /&gt;
*[http://www.mediaartnet.org/werke/die-geburtenmadonna Valie Export]&lt;br /&gt;
*[http://www.youtube.com/watch?v=2fmo1Sjn7dg&amp;amp;feature=PlayList&amp;amp;p=39682D14CDFA5A4B&amp;amp;index=4 hier noch ein Beispiel von Cunningham]&lt;br /&gt;
*[http://www.youtube.com/watch?v=_teGtgK2C1Q&amp;amp;feature=related Schnellkurs für Politikerinnen bei Berlusconi]&lt;br /&gt;
===Studien===&lt;br /&gt;
DONNA1&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;tUCcXzBlyts&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
APFEL&lt;br /&gt;
[[Image:DSC00095.JPG|800px]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte&amp;diff=2107</id>
		<title>GMU:Bild zu Ton, Ton zu Bild/Projekte</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild/Projekte&amp;diff=2107"/>
		<updated>2010-01-07T19:34:42Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Johann Niegl: Animierte Bildfragmente */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Im Kurs [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]] entstehende Projekte der Studierenden:&lt;br /&gt;
&lt;br /&gt;
==[[Matthias Breuer]]: Bild-Ton Wandler==&lt;br /&gt;
[[GMU:Bild-Ton-Wandler|Bild-Ton-Wandler]]&lt;br /&gt;
&lt;br /&gt;
[[GMU:LVDj 2|LVDj 2]]&lt;br /&gt;
&lt;br /&gt;
==[[Georg Frömelt]]: Die 7 Todsünden==&lt;br /&gt;
&lt;br /&gt;
[[Die 7 Todsünden]]&lt;br /&gt;
&lt;br /&gt;
==[[Danny Hanse]]: Zugfahrt==&lt;br /&gt;
&lt;br /&gt;
[http://en.wikipedia.org/wiki/Step_Across_the_Border Step Across the Border]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;dailymotion&amp;quot;&amp;gt;x26gg0&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
[http://de.wikipedia.org/wiki/Michel_Gondry Michel Gondry]: Star Guitar [http://de.wikipedia.org/wiki/Chemical_Brothers (Chemical Brothers)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;vimeo&amp;quot;&amp;gt;2335306&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
von [http://www.chaosmoon.info chaosmoon]&lt;br /&gt;
&lt;br /&gt;
==[[Christian Hellmann]]==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In einer schwarzen Box eine schwarze Welle. die Welle wird erzeugt durch die Rotation zweier Motoren, die mit einer schwarzen Schnur, einem Strick oder ähnlichem verbunden sind. Ein Beamer projiziert eine weiße Linie auf die Welle. Scannt sie quasi. Durch das Scannen der Welle schwimmt sie wie hier:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;flash&amp;gt;file=swimfast.swf|width=210|height=210|bgcolor=#000000|scale=exactfit|quality=best&amp;lt;/flash&amp;gt;&lt;br /&gt;
&amp;lt;flash&amp;gt;file=swimslow.swf|width=210|height=210|bgcolor=#000000|scale=exactfit|quality=best&amp;lt;/flash&amp;gt;&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Durch stroboskopartiges Aufblitzen erkennt man jeweils nur eine Hälfte der Welle.&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;flash&amp;gt;file=upper_1.swf|width=210|height=210|bgcolor=#000000|scale=exactfit|quality=best&amp;lt;/flash&amp;gt;&lt;br /&gt;
&amp;lt;flash&amp;gt;file=upper_2.swf|width=210|height=210|bgcolor=#000000|scale=exactfit|quality=best&amp;lt;/flash&amp;gt;&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ich will versuchen Intervall und Projektion zu synchronisieren. Was nicht zwanghaft beibehalten werden muss.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Aufbauskizze:&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[File:motor&amp;amp;beamer.png]]&lt;br /&gt;
[[File:motor&amp;amp;beamer&amp;amp;lap&amp;amp;case&amp;amp;arduino.png]]&lt;br /&gt;
&lt;br /&gt;
==[[Sabina Kim]]: Stop motion==&lt;br /&gt;
&lt;br /&gt;
[[GMU:Sabinas_Work|Sabinas Work]]&lt;br /&gt;
&lt;br /&gt;
==[[Konstantin Knust]]==&lt;br /&gt;
==[[Simon Müller]]==&lt;br /&gt;
==[[Johann Niegl]]: Animierte Bildfragmente==&lt;br /&gt;
[[GMU:Animierte Bildfragmente|Animierte Bildfragmente]]&lt;br /&gt;
[[Quake|Quake]]&lt;br /&gt;
&lt;br /&gt;
==[[Cédric Richard]]==&lt;br /&gt;
&lt;br /&gt;
==[[Sebastian Weißbach]]==&lt;br /&gt;
&lt;br /&gt;
==[[Maria Schween]]: Was ist eine Frau?==&lt;br /&gt;
===Rom-Italien===&lt;br /&gt;
&lt;br /&gt;
Es gibt hier vielzählige Umstände, die einem sozusagen ins Auge springen und anregend für das künstlerische Schaffen sind. &lt;br /&gt;
&lt;br /&gt;
*Rom hat wenig Platz für junge Kultur, daher möchte ich ein Konzert realisieren am geeignetsten scheint mir ein Autotunnel, da es dort viel ungenutzten Platz gibt und den im Überfluss, somit wäre dann auch die Lebensqualität während des täglichen Staus gesichert.&lt;br /&gt;
&lt;br /&gt;
*Berlusconi hat es auf das Titelblatt des italienischen Rolling Stone geschafft. Ich möchte einen Song eines echten Rockstars mit den Worten Berlusconis synchronisieren, um dem Titelbild auch die notwendige Musik zu liefern. Ich finde es auch sehr interessant, wie die Erscheinung des äußerst ironisch verfassten Artikels im Rest der Welt und von Berlusconis Zeitung gesehen wird.&lt;br /&gt;
*[http://www.rollingstonemagazine.it/notizie/silvio-berlusconi-rockstar-dell-anno-boom-sul-web rollingstonemagazine.it]  vgl.: [http://www.welt.de/vermischtes/article5317289/Magazin-kuert-Berlusconi-zu-Rockstar-des-Jahres.html www.welt.de]&lt;br /&gt;
&lt;br /&gt;
*Ich möchte mir Rom nicht nur visuell sondern auch akustisch erschließen, das heißt Lieder über und aus Rom analysieren und bearbeiten, wie zum Beispiel folgende.&lt;br /&gt;
*[http://www.romaspqr.it/roma/Canzoni_de_roma.htm Canzoni de Roma]&lt;br /&gt;
&lt;br /&gt;
===Die Rolle der Frau===&lt;br /&gt;
*[http://www.kleinezeitung.at/nachrichten/leute/576749/index.do Magersuchtproblem in Italien] &lt;br /&gt;
*[http://www.youtube.com/watch?v=gM8QEWU8eUk&amp;amp;feature=player_embedded Filmausschnitt eines typisch italienischen Paares]&lt;br /&gt;
*[http://www.mediaartnet.org/werke/die-geburtenmadonna Valie Export]&lt;br /&gt;
*[http://www.youtube.com/watch?v=2fmo1Sjn7dg&amp;amp;feature=PlayList&amp;amp;p=39682D14CDFA5A4B&amp;amp;index=4 hier noch ein Beispiel von Cunningham]&lt;br /&gt;
*[http://www.youtube.com/watch?v=_teGtgK2C1Q&amp;amp;feature=related Schnellkurs für Politikerinnen bei Berlusconi]&lt;br /&gt;
===Studien===&lt;br /&gt;
DONNA1&lt;br /&gt;
&amp;lt;videoflash type=&amp;quot;youtube&amp;quot;&amp;gt;tUCcXzBlyts&amp;lt;/videoflash&amp;gt;&lt;br /&gt;
APFEL&lt;br /&gt;
[[Image:DSC00095.JPG|800px]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1929</id>
		<title>Golan Levin</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1929"/>
		<updated>2010-01-04T21:21:58Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Biographie */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ein Vortrag von Johann Niegl im Projekt [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]]&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
&lt;br /&gt;
Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 machte er seinen Master am MIT Media Lab. Nach seinem Studium unterrichtete er an verschiedenen Schulen in New York bis er 2004 eine Stelle an der Carnegie Mellon University (CMU)( Pittsburgh, Pennsylvania) annahm. Zur Zeit unterrichtet er als Associate Professor of Electronic Time Based Art an der CMU School of Art.&lt;br /&gt;
&lt;br /&gt;
Seit 2002 arbeitet er u.a. zusammen mit Zachary Lieberman, mit dessen Unterstützung auch die Messa di Voce entstand.&lt;br /&gt;
&lt;br /&gt;
==Arbeiten==&lt;br /&gt;
&lt;br /&gt;
In seinen Arbeiten beschäftigt sich Golan Levin mit Artefakten und Events die neue Arten der reaktiven Expression ermöglichen. Er gestaltet Systeme zur Erschaffung und Manipulation von Bild und Ton z.B. in einer Performance oder interaktiv durch den Betrachter. Es wird versucht die Sprache der Interaktion mit den nonverbalen Kommunikationsprotokollen in cybernetischen Systemen zu verknüpfen, wobei sich oft auch (scheinbar zufällig) Überschneidungen zur abstrakten Interaktion herrausstellen.&lt;br /&gt;
&lt;br /&gt;
Oft entstehen in Zusammenarbeit mit anderen Künstlern (Zachary Lieberman, Jaap Blonk) Performances und virtuelle Umgebungen, in denen auf unsere Beziehung zur Welt der Maschinen aufmerksam gemacht wird. Mit dem cybernetischen System als interaktiver Spiegel unserer Handlungen wird auch die Art und Weise wie Menschen untereinander interagieren thematisiert.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Audiovisual Environment Suite (2000)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Messa di Voce (2003)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Interstitial Fragment Processor (2007)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Links==&lt;br /&gt;
&lt;br /&gt;
* [http://www.flong.com/ flong.com Hompage von Golan Levin]&lt;br /&gt;
* [http://acg.media.mit.edu/people/golan/aves/ Audiovisual Environment Suite]&lt;br /&gt;
* [http://www.flong.com/projects/messa/ Messa di Voce (Performance)]&lt;br /&gt;
* [http://www.flong.com/projects/messa_inst/ Messa di Voce (Installation)]&lt;br /&gt;
* [http://www.flong.com/projects/ifp/ Interstitial Fragment Processor]&lt;br /&gt;
* [http://en.wikipedia.org/wiki/Golan_Levin Golan Levin auf Wikipedia]&lt;br /&gt;
* [http://www.arte.tv/de/kunst-musik/kultur-digital/noued/973992.html Jaap Blonk &amp;amp; Golan Levin auf der Ars Electronica 2005]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1928</id>
		<title>Golan Levin</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1928"/>
		<updated>2010-01-04T21:21:39Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Biographie */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ein Vortrag von Johann Niegl im Projekt [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]]&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
&lt;br /&gt;
Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 machte er seinen Master am MIT Media Lab. Nach seinem Studium unterrichtete er an verschiedenen Schulen in New York bis er 2004 eine Stelle an der Carnegie Mellon University (CMU), Pittsburgh, Pennsylvania annahm. Zur Zeit unterrichtet er als Associate Professor of Electronic Time Based Art an der CMU School of Art.&lt;br /&gt;
&lt;br /&gt;
Seit 2002 arbeitet er u.a. zusammen mit Zachary Lieberman, mit dessen Unterstützung auch die Messa di Voce entstand.&lt;br /&gt;
&lt;br /&gt;
==Arbeiten==&lt;br /&gt;
&lt;br /&gt;
In seinen Arbeiten beschäftigt sich Golan Levin mit Artefakten und Events die neue Arten der reaktiven Expression ermöglichen. Er gestaltet Systeme zur Erschaffung und Manipulation von Bild und Ton z.B. in einer Performance oder interaktiv durch den Betrachter. Es wird versucht die Sprache der Interaktion mit den nonverbalen Kommunikationsprotokollen in cybernetischen Systemen zu verknüpfen, wobei sich oft auch (scheinbar zufällig) Überschneidungen zur abstrakten Interaktion herrausstellen.&lt;br /&gt;
&lt;br /&gt;
Oft entstehen in Zusammenarbeit mit anderen Künstlern (Zachary Lieberman, Jaap Blonk) Performances und virtuelle Umgebungen, in denen auf unsere Beziehung zur Welt der Maschinen aufmerksam gemacht wird. Mit dem cybernetischen System als interaktiver Spiegel unserer Handlungen wird auch die Art und Weise wie Menschen untereinander interagieren thematisiert.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Audiovisual Environment Suite (2000)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Messa di Voce (2003)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Interstitial Fragment Processor (2007)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Links==&lt;br /&gt;
&lt;br /&gt;
* [http://www.flong.com/ flong.com Hompage von Golan Levin]&lt;br /&gt;
* [http://acg.media.mit.edu/people/golan/aves/ Audiovisual Environment Suite]&lt;br /&gt;
* [http://www.flong.com/projects/messa/ Messa di Voce (Performance)]&lt;br /&gt;
* [http://www.flong.com/projects/messa_inst/ Messa di Voce (Installation)]&lt;br /&gt;
* [http://www.flong.com/projects/ifp/ Interstitial Fragment Processor]&lt;br /&gt;
* [http://en.wikipedia.org/wiki/Golan_Levin Golan Levin auf Wikipedia]&lt;br /&gt;
* [http://www.arte.tv/de/kunst-musik/kultur-digital/noued/973992.html Jaap Blonk &amp;amp; Golan Levin auf der Ars Electronica 2005]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1927</id>
		<title>Golan Levin</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1927"/>
		<updated>2010-01-04T21:20:06Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Links */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ein Vortrag von Johann Niegl im Projekt [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]]&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
&lt;br /&gt;
Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 machte er seinen Master am MIT Media Lab. Nach seinem Studium unterrichtete er an verschiedenen Schulen in New York bis er 2004 eine Stelle an der Carnegie Mellon University (CMU) annahm. Zur Zeit unterrichtet er als Associate Professor of Electronic Time Based Art an der CMU School of Art.&lt;br /&gt;
&lt;br /&gt;
Seit 2002 arbeitet er u.a. zusammen mit Zachary Lieberman, mit dessen Unterstützung auch die Messa di Voce entstand.&lt;br /&gt;
&lt;br /&gt;
==Arbeiten==&lt;br /&gt;
&lt;br /&gt;
In seinen Arbeiten beschäftigt sich Golan Levin mit Artefakten und Events die neue Arten der reaktiven Expression ermöglichen. Er gestaltet Systeme zur Erschaffung und Manipulation von Bild und Ton z.B. in einer Performance oder interaktiv durch den Betrachter. Es wird versucht die Sprache der Interaktion mit den nonverbalen Kommunikationsprotokollen in cybernetischen Systemen zu verknüpfen, wobei sich oft auch (scheinbar zufällig) Überschneidungen zur abstrakten Interaktion herrausstellen.&lt;br /&gt;
&lt;br /&gt;
Oft entstehen in Zusammenarbeit mit anderen Künstlern (Zachary Lieberman, Jaap Blonk) Performances und virtuelle Umgebungen, in denen auf unsere Beziehung zur Welt der Maschinen aufmerksam gemacht wird. Mit dem cybernetischen System als interaktiver Spiegel unserer Handlungen wird auch die Art und Weise wie Menschen untereinander interagieren thematisiert.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Audiovisual Environment Suite (2000)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Messa di Voce (2003)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Interstitial Fragment Processor (2007)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Links==&lt;br /&gt;
&lt;br /&gt;
* [http://www.flong.com/ flong.com Hompage von Golan Levin]&lt;br /&gt;
* [http://acg.media.mit.edu/people/golan/aves/ Audiovisual Environment Suite]&lt;br /&gt;
* [http://www.flong.com/projects/messa/ Messa di Voce (Performance)]&lt;br /&gt;
* [http://www.flong.com/projects/messa_inst/ Messa di Voce (Installation)]&lt;br /&gt;
* [http://www.flong.com/projects/ifp/ Interstitial Fragment Processor]&lt;br /&gt;
* [http://en.wikipedia.org/wiki/Golan_Levin Golan Levin auf Wikipedia]&lt;br /&gt;
* [http://www.arte.tv/de/kunst-musik/kultur-digital/noued/973992.html Jaap Blonk &amp;amp; Golan Levin auf der Ars Electronica 2005]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1926</id>
		<title>Golan Levin</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1926"/>
		<updated>2010-01-04T21:18:18Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Links */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ein Vortrag von Johann Niegl im Projekt [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]]&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
&lt;br /&gt;
Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 machte er seinen Master am MIT Media Lab. Nach seinem Studium unterrichtete er an verschiedenen Schulen in New York bis er 2004 eine Stelle an der Carnegie Mellon University (CMU) annahm. Zur Zeit unterrichtet er als Associate Professor of Electronic Time Based Art an der CMU School of Art.&lt;br /&gt;
&lt;br /&gt;
Seit 2002 arbeitet er u.a. zusammen mit Zachary Lieberman, mit dessen Unterstützung auch die Messa di Voce entstand.&lt;br /&gt;
&lt;br /&gt;
==Arbeiten==&lt;br /&gt;
&lt;br /&gt;
In seinen Arbeiten beschäftigt sich Golan Levin mit Artefakten und Events die neue Arten der reaktiven Expression ermöglichen. Er gestaltet Systeme zur Erschaffung und Manipulation von Bild und Ton z.B. in einer Performance oder interaktiv durch den Betrachter. Es wird versucht die Sprache der Interaktion mit den nonverbalen Kommunikationsprotokollen in cybernetischen Systemen zu verknüpfen, wobei sich oft auch (scheinbar zufällig) Überschneidungen zur abstrakten Interaktion herrausstellen.&lt;br /&gt;
&lt;br /&gt;
Oft entstehen in Zusammenarbeit mit anderen Künstlern (Zachary Lieberman, Jaap Blonk) Performances und virtuelle Umgebungen, in denen auf unsere Beziehung zur Welt der Maschinen aufmerksam gemacht wird. Mit dem cybernetischen System als interaktiver Spiegel unserer Handlungen wird auch die Art und Weise wie Menschen untereinander interagieren thematisiert.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Audiovisual Environment Suite (2000)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Messa di Voce (2003)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Interstitial Fragment Processor (2007)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Links==&lt;br /&gt;
&lt;br /&gt;
* [http://www.flong.com/ flong.com Hompage von Golan Levin]&lt;br /&gt;
* [http://acg.media.mit.edu/people/golan/aves/ Audiovisual Environment Suite]&lt;br /&gt;
* [http://en.wikipedia.org/wiki/Golan_Levin Golan Levin auf Wikipedia]&lt;br /&gt;
* [http://www.arte.tv/de/kunst-musik/kultur-digital/noued/973992.html Jaap Blonk &amp;amp; Golan Levin auf der Ars Electronica 2005]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1923</id>
		<title>Golan Levin</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1923"/>
		<updated>2010-01-04T21:12:11Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Golan Levin */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ein Vortrag von Johann Niegl im Projekt [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]]&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
&lt;br /&gt;
Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 machte er seinen Master am MIT Media Lab. Nach seinem Studium unterrichtete er an verschiedenen Schulen in New York bis er 2004 eine Stelle an der Carnegie Mellon University (CMU) annahm. Zur Zeit unterrichtet er als Associate Professor of Electronic Time Based Art an der CMU School of Art.&lt;br /&gt;
&lt;br /&gt;
Seit 2002 arbeitet er u.a. zusammen mit Zachary Lieberman, mit dessen Unterstützung auch die Messa di Voce entstand.&lt;br /&gt;
&lt;br /&gt;
==Arbeiten==&lt;br /&gt;
&lt;br /&gt;
In seinen Arbeiten beschäftigt sich Golan Levin mit Artefakten und Events die neue Arten der reaktiven Expression ermöglichen. Er gestaltet Systeme zur Erschaffung und Manipulation von Bild und Ton z.B. in einer Performance oder interaktiv durch den Betrachter. Es wird versucht die Sprache der Interaktion mit den nonverbalen Kommunikationsprotokollen in cybernetischen Systemen zu verknüpfen, wobei sich oft auch (scheinbar zufällig) Überschneidungen zur abstrakten Interaktion herrausstellen.&lt;br /&gt;
&lt;br /&gt;
Oft entstehen in Zusammenarbeit mit anderen Künstlern (Zachary Lieberman, Jaap Blonk) Performances und virtuelle Umgebungen, in denen auf unsere Beziehung zur Welt der Maschinen aufmerksam gemacht wird. Mit dem cybernetischen System als interaktiver Spiegel unserer Handlungen wird auch die Art und Weise wie Menschen untereinander interagieren thematisiert.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Audiovisual Environment Suite (2000)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Messa di Voce (2003)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Interstitial Fragment Processor (2007)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Links==&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1922</id>
		<title>Golan Levin</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1922"/>
		<updated>2010-01-04T21:11:01Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Golan Levin */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ein Vortrag von Johann Niegl im Projekt [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]]&lt;br /&gt;
&lt;br /&gt;
==Golan Levin==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Biographie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 machte er seinen Master am MIT Media Lab. Nach seinem Studium unterrichtete er an verschiedenen Schulen in New York bis er 2004 eine Stelle an der Carnegie Mellon University (CMU) annahm. Zur Zeit unterrichtet er als Associate Professor of Electronic Time Based Art an der CMU School of Art.&lt;br /&gt;
&lt;br /&gt;
Seit 2002 arbeitet er u.a. zusammen mit Zachary Lieberman, mit dessen Unterstützung auch die Messa di Voce entstand.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Arbeiten&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
In seinen Arbeiten beschäftigt sich Golan Levin mit Artefakten und Events die neue Arten der reaktiven Expression ermöglichen. Er gestaltet Systeme zur Erschaffung und Manipulation von Bild und Ton z.B. in einer Performance oder interaktiv durch den Betrachter. Es wird versucht die Sprache der Interaktion mit den nonverbalen Kommunikationsprotokollen in cybernetischen Systemen zu verknüpfen, wobei sich oft auch (scheinbar zufällig) Überschneidungen zur abstrakten Interaktion herrausstellen.&lt;br /&gt;
&lt;br /&gt;
Oft entstehen in Zusammenarbeit mit anderen Künstlern (Zachary Lieberman, Jaap Blonk) Performances und virtuelle Umgebungen, in denen auf unsere Beziehung zur Welt der Maschinen aufmerksam gemacht wird. Mit dem cybernetischen System als interaktiver Spiegel unserer Handlungen wird auch die Art und Weise wie Menschen untereinander interagieren thematisiert.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Audiovisual Environment Suite (2000)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Messa di Voce (2003)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Interstitial Fragment Processor (2007)&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1921</id>
		<title>Golan Levin</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1921"/>
		<updated>2010-01-04T21:07:46Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ein Vortrag von Johann Niegl im Projekt [[GMU:Bild_zu_Ton,_Ton_zu_Bild|Bild zu Ton, Ton zu Bild]]&lt;br /&gt;
&lt;br /&gt;
==Golan Levin==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Biographie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 machte er seinen Master am MIT Media Lab. Nach seinem Studium unterrichtete er an verschiedenen Schulen in New York bis er 2004 eine Stelle an der Carnegie Mellon University (CMU) annahm. Zur Zeit unterrichtet er als Associate Professor of Electronic Time Based Art an der CMU School of Art.&lt;br /&gt;
&lt;br /&gt;
Seit 2002 arbeitet er u.a. zusammen mit Zachary Lieberman, mit dessen Unterstützung auch die Messa di Voce entstand.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Arbeiten&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
In seinen Arbeiten beschäftigt sich Golan Levin mit Artefakten und Events die neue Arten der reaktiven Expression ermöglichen. Er gestaltet Systeme zur Erschaffung und Manipulation von Bild und Ton z.B. in einer Performance oder interaktiv durch den Betrachter. Es wird versucht die Sprache der Interaktion mit den nonverbalen Kommunikationsprotokollen in cybernetischen Systemen zu verknüpfen, wobei sich oft auch (scheinbar zufällig) Überschneidungen zur abstrakten Interaktion herrausstellen.&lt;br /&gt;
&lt;br /&gt;
Oft entstehen in Zusammenarbeit mit anderen Künstlern (Zachary Lieberman, Jaap Blonk) Performances und virtuelle Umgebungen, in denen auf unsere Beziehung zur Welt der Maschinen aufmerksam gemacht wird. Mit dem cybernetischen System als interaktiver Spiegel unserer Handlungen wird auch die Art und Weise wie Menschen untereinander interagieren thematisiert.&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1920</id>
		<title>Golan Levin</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=Golan_Levin&amp;diff=1920"/>
		<updated>2010-01-04T20:37:55Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: Created page with &amp;#039;==Golan Levin==  &amp;#039;&amp;#039;&amp;#039;Biographie&amp;#039;&amp;#039;&amp;#039;  Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 mach…&amp;#039;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Golan Levin==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Biographie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Golan Levin wurde 1972 in den USA geboren. 1994 studierte er Kunst und Design am Massachusetts Institute of Technology (MIT). Im Jahr 2000 machte er seinen Master am MIT Media Lab. Nach seinem Studium unterrichtete er an verschiedenen Schulen in New York bis er 2004 eine Stelle an der Carnegie Mellon University (CMU) annahm. Zur Zeit unterrichtet er als Associate Professor of Electronic Time Based Art an der CMU School of Art.&lt;br /&gt;
&lt;br /&gt;
Seit 2002 arbeitet er u.a. zusammen mit Zachary Lieberman, mit dessen Unterstützung auch die Messa di Voce entstand.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Arbeiten&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
In seinen Arbeiten beschäftigt sich Golan Levin mit Artefakten und Events die neue Arten der reaktiven Expression ermöglichen. Er gestaltet Systeme zur Erschaffung und Manipulation von Bild und Ton z.B. in einer Performance oder interaktiv durch den Betrachter. Es wird versucht die Sprache der Interaktion mit den nonverbalen Kommunikationsprotokollen in cybernetischen Systemen zu verknüpfen, wobei sich oft auch (scheinbar zufällig) Überschneidungen zur abstrakten Interaktion herrausstellen.&lt;br /&gt;
&lt;br /&gt;
Oft entstehen in Zusammenarbeit mit anderen Künstlern (Zachary Lieberman, Jaap Blonk) Performances und virtuelle Umgebungen, in denen auf unsere Beziehung zur Welt der Maschinen aufmerksam gemacht wird. Mit dem cybernetischen System als interaktiver Spiegel unserer Handlungen wird auch die Art und Weise wie Menschen untereinander interagieren thematisiert.&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild&amp;diff=1919</id>
		<title>GMU:Bild zu Ton, Ton zu Bild</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild&amp;diff=1919"/>
		<updated>2010-01-04T20:37:43Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Syllabus */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
Sehen und Hören sind zwei Sinne, welche in der Perzeption von Medienkunst in ein multisensuelles Zusammenspiel verwickelt sind. Was passiert zwischen den Sinnen? Was zwischen den Medien?&lt;br /&gt;
Synergien und Interferenzen der Wahrnehmung sind Synästhesien.&lt;br /&gt;
Dieses Neurologische Phänomen ist in der Bildenden Kunst nicht zuletzt durch Wassily Kandinsky bekannt geworden. Ab den 1920er Jahren wurden durch Ludwig Hirschfeld-Mack und László Moholy-Nagy filmische und objekthafte Experimente mit Licht und Schatten durchgeführt, die durch Oskar Fischinger, Norman McLaren und anderen mit Ton fortgesetzt wurden.&lt;br /&gt;
Der Music-Clip kann als eine Vermischung der Medien Musik und Video gesehen werden - hier tritt, wie auch im Fluxus und Happening, Intermedialität auf.&lt;br /&gt;
In den digitalen Medien werden Ton und Bild als zwei unabhängige Datenströme behandelt. Während das Bild auch ohne die Dimension Zeit sichtbar bleibt, existiert Ton nur mit ihr. Beim Bewegtbild, dem Video, werden Bild und Ton synchron wiedergegeben. Die Digitalisierung eröffnete neue Möglichkeiten der Manipulation von Video die in den späten 1990er Jahren bis etwa 2005 zu einer Explosion des VeeJaying, später auch - wegen der Erosion der Begriffe VJ und Multimedia - Live Cinema genannten Trends. &lt;br /&gt;
Dieser Hype ist vorbei - wo stehen wir jetzt?&lt;br /&gt;
Das Modul wendet sich an Studierende, die bereits Module im Bereich Sound (Professur Experimentelles Radio oder Elektroakustische Komposition) belegt haben und nun ihre Audioarbeiten um das Visuelle bzw. die künstlerische Installation erweitern möchten. &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Im Projektmodul&#039;&#039; können Arbeiten verschiedenen Formats realisiert werden, die sich mit der Verbindung von Bild und Ton auf der Ebene derer Genese, ihrer Medialen Bedingtheit oder ihrer Rezeption befassen. &lt;br /&gt;
Daneben wird ein Workshop mit Dr. Jochen Viehoff (Physiker und Kurator des Nixdorf-Museums Paderborn) veranstaltet, in welchem Licht und Ton als physikalische Energien betrachtet werden, aus welchen ein für beide gemeinsam gültiges Raumkonzept abgeleitet kann.&lt;br /&gt;
&lt;br /&gt;
Begleitend zum Projekt wird das Werkmodul Audio + Video empfohlen.&lt;br /&gt;
&lt;br /&gt;
==Kursdetails==&lt;br /&gt;
*&#039;&#039;Lehrpersonen:&#039;&#039; Prof. Ursula Damm, Max Neupert&lt;br /&gt;
*&#039;&#039;Bewertung:&#039;&#039; 24/18 ECTS&lt;br /&gt;
*&#039;&#039;Termin:&#039;&#039; Donnerstag, 10.00 Uhr&lt;br /&gt;
*&#039;&#039;Ort:&#039;&#039; Marienstrasse 7, Raum 204&lt;br /&gt;
*&#039;&#039;Erster Termin:&#039;&#039; 22.10. 2009&lt;br /&gt;
&lt;br /&gt;
==English description==&lt;br /&gt;
The perception of “New Media” artworks often is a multi sensual sensation; more specifically it means that hearing and seeing are the dominant modes of percipience. What happens in between the senses and how do they relate to each other? Synergies and interferences of the senses are synesthetic experiences which became iconic in the fine arts since Wassily Kandinsky&#039;s square, triangle and circle.&lt;br /&gt;
&lt;br /&gt;
==Leistungsnachweis==&lt;br /&gt;
# die Ausarbeitung eines Konzepts, die konkrete Umsetzung in Installationen, Performaces, Videos, digitalen Anwendungen, etc; das Ergebnis ist am Ende des Semesters zu präsentieren (70%).&lt;br /&gt;
# Zu der abzuliefernden praktischen Arbeit sollte die Vorstellung und kurze schriftliche Ausarbeitung eines Werkes oder eines Themengebiets hinzukommen, das sich inhaltlich an die persönlich gewählte Projektarbeit anschliesst. Für die Auswahl wird eine Link- und Literaturliste zur Verfügung stehen (15%).&lt;br /&gt;
# Dokumentation der Arbeit in einer angemessenen Form, Eintrag ins wiki (15%).&lt;br /&gt;
&lt;br /&gt;
==Zielgruppe==&lt;br /&gt;
Undergraduate(Bachelor)-Studierende der Fakultäten Medien und Gestaltung.&lt;br /&gt;
&lt;br /&gt;
==Syllabus==&lt;br /&gt;
* 22.10.09 Die Experimente mit dem neuen Medium Video von 1960 bis 90&lt;br /&gt;
* 29.10.09 Der abstrakte Experimentalfilm von 1930 bis 1960&lt;br /&gt;
* 05.11.09 Chladny, Jenny, Sand, Wasser, Stärke unter dem Einfluss von Schwingungen - Projektbesprechung&lt;br /&gt;
* 12.11.09 Es werden Arbeiten Zeitgenössischer Künstler vorgestellt&lt;br /&gt;
* 26.11.09 Sabina Kim stellt vor: Gabriel Shalom&lt;br /&gt;
* 02.12.09 [[GMU:Codes_and_clowns|Exkursion zur Shannon-Ausstellung nach Paderborn]]&lt;br /&gt;
* 03.12.09 Konstantin Knust stellt vor: Gus van Sant&lt;br /&gt;
* 8.-10.12.09 Dienstag-Donnerstag [[Exkursion_nach_Linz_und_Graz|Exkursion nach Linz/Graz]]&lt;br /&gt;
* 17.12.09 [[Synästhesie|Synästhesie]] (Matthias Breuer)&lt;br /&gt;
* 07.01.10 [[Golan Levin|Golan Levin]] (Johann Niegl)&lt;br /&gt;
* 14.01.10 Danny (Thema noch offen)&lt;br /&gt;
* 14.01.10 - 16.01.10 Workshop mit Jochen Viehoff&lt;br /&gt;
* 21.01.10 Georg (Thema noch offen)&lt;br /&gt;
* 28.01.10 Cédric (Thema noch offen)&lt;br /&gt;
* 04.02.10 Christian Hellmann (Thema noch offen)&lt;br /&gt;
&lt;br /&gt;
==Literatur==&lt;br /&gt;
[http://www.uni-weimar.de/cms/universitaet/zentrale-einrichtungen/universitaetsbibliothek/recherche/semesterapparate/semesterapparate-medien/neu-medien-semesterapparate/mw-0910-8.html Semesterapparat]&lt;br /&gt;
&lt;br /&gt;
==Links==&lt;br /&gt;
* [[Audiovision_Linkliste|Linkliste Audiovision]]&lt;br /&gt;
* [[GMU:Bild_zu_Ton_Projekte|Projekte der Teilnehmer]]&lt;br /&gt;
* [http://www.hnf.de Heinz Nixdorf Museum Paderborn]&lt;br /&gt;
* [http://www.lentos.at/de/45_1769.asp Ausstellung see this sound im Lentos in Linz]&lt;br /&gt;
* [http://www.museum-joanneum.at/de/kunsthaus Kunsthaus Graz]&lt;br /&gt;
* [http://iem.at Institut für Elektronische Musik und Akustik Graz]&lt;br /&gt;
&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Ursula Damm]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
	<entry>
		<id>https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild&amp;diff=1894</id>
		<title>GMU:Bild zu Ton, Ton zu Bild</title>
		<link rel="alternate" type="text/html" href="https://www.uni-weimar.de/kunst-und-gestaltung/wiki/index.php?title=GMU:Bild_zu_Ton,_Ton_zu_Bild&amp;diff=1894"/>
		<updated>2010-01-04T18:35:26Z</updated>

		<summary type="html">&lt;p&gt;Johann Niegl: /* Syllabus */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Beschreibung ==&lt;br /&gt;
Sehen und Hören sind zwei Sinne, welche in der Perzeption von Medienkunst in ein multisensuelles Zusammenspiel verwickelt sind. Was passiert zwischen den Sinnen? Was zwischen den Medien?&lt;br /&gt;
Synergien und Interferenzen der Wahrnehmung sind Synästhesien.&lt;br /&gt;
Dieses Neurologische Phänomen ist in der Bildenden Kunst nicht zuletzt durch Wassily Kandinsky bekannt geworden. Ab den 1920er Jahren wurden durch Ludwig Hirschfeld-Mack und László Moholy-Nagy filmische und objekthafte Experimente mit Licht und Schatten durchgeführt, die durch Oskar Fischinger, Norman McLaren und anderen mit Ton fortgesetzt wurden.&lt;br /&gt;
Der Music-Clip kann als eine Vermischung der Medien Musik und Video gesehen werden - hier tritt, wie auch im Fluxus und Happening, Intermedialität auf.&lt;br /&gt;
In den digitalen Medien werden Ton und Bild als zwei unabhängige Datenströme behandelt. Während das Bild auch ohne die Dimension Zeit sichtbar bleibt, existiert Ton nur mit ihr. Beim Bewegtbild, dem Video, werden Bild und Ton synchron wiedergegeben. Die Digitalisierung eröffnete neue Möglichkeiten der Manipulation von Video die in den späten 1990er Jahren bis etwa 2005 zu einer Explosion des VeeJaying, später auch - wegen der Erosion der Begriffe VJ und Multimedia - Live Cinema genannten Trends. &lt;br /&gt;
Dieser Hype ist vorbei - wo stehen wir jetzt?&lt;br /&gt;
Das Modul wendet sich an Studierende, die bereits Module im Bereich Sound (Professur Experimentelles Radio oder Elektroakustische Komposition) belegt haben und nun ihre Audioarbeiten um das Visuelle bzw. die künstlerische Installation erweitern möchten. &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Im Projektmodul&#039;&#039; können Arbeiten verschiedenen Formats realisiert werden, die sich mit der Verbindung von Bild und Ton auf der Ebene derer Genese, ihrer Medialen Bedingtheit oder ihrer Rezeption befassen. &lt;br /&gt;
Daneben wird ein Workshop mit Dr. Jochen Viehoff (Physiker und Kurator des Nixdorf-Museums Paderborn) veranstaltet, in welchem Licht und Ton als physikalische Energien betrachtet werden, aus welchen ein für beide gemeinsam gültiges Raumkonzept abgeleitet kann.&lt;br /&gt;
&lt;br /&gt;
Begleitend zum Projekt wird das Werkmodul Audio + Video empfohlen.&lt;br /&gt;
&lt;br /&gt;
==Kursdetails==&lt;br /&gt;
*&#039;&#039;Lehrpersonen:&#039;&#039; Prof. Ursula Damm, Max Neupert&lt;br /&gt;
*&#039;&#039;Bewertung:&#039;&#039; 24/18 ECTS&lt;br /&gt;
*&#039;&#039;Termin:&#039;&#039; Donnerstag, 10.00 Uhr&lt;br /&gt;
*&#039;&#039;Ort:&#039;&#039; Marienstrasse 7, Raum 204&lt;br /&gt;
*&#039;&#039;Erster Termin:&#039;&#039; 22.10. 2009&lt;br /&gt;
&lt;br /&gt;
==English description==&lt;br /&gt;
The perception of “New Media” artworks often is a multi sensual sensation; more specifically it means that hearing and seeing are the dominant modes of percipience. What happens in between the senses and how do they relate to each other? Synergies and interferences of the senses are synesthetic experiences which became iconic in the fine arts since Wassily Kandinsky&#039;s square, triangle and circle.&lt;br /&gt;
&lt;br /&gt;
==Leistungsnachweis==&lt;br /&gt;
# die Ausarbeitung eines Konzepts, die konkrete Umsetzung in Installationen, Performaces, Videos, digitalen Anwendungen, etc; das Ergebnis ist am Ende des Semesters zu präsentieren (70%).&lt;br /&gt;
# Zu der abzuliefernden praktischen Arbeit sollte die Vorstellung und kurze schriftliche Ausarbeitung eines Werkes oder eines Themengebiets hinzukommen, das sich inhaltlich an die persönlich gewählte Projektarbeit anschliesst. Für die Auswahl wird eine Link- und Literaturliste zur Verfügung stehen (15%).&lt;br /&gt;
# Dokumentation der Arbeit in einer angemessenen Form, Eintrag ins wiki (15%).&lt;br /&gt;
&lt;br /&gt;
==Zielgruppe==&lt;br /&gt;
Undergraduate(Bachelor)-Studierende der Fakultäten Medien und Gestaltung.&lt;br /&gt;
&lt;br /&gt;
==Syllabus==&lt;br /&gt;
* 22.10.09 Die Experimente mit dem neuen Medium Video von 1960 bis 90&lt;br /&gt;
* 29.10.09 Der abstrakte Experimentalfilm von 1930 bis 1960&lt;br /&gt;
* 05.11.09 Chladny, Jenny, Sand, Wasser, Stärke unter dem Einfluss von Schwingungen - Projektbesprechung&lt;br /&gt;
* 12.11.09 Es werden Arbeiten Zeitgenössischer Künstler vorgestellt&lt;br /&gt;
* 26.11.09 Sabina Kim stellt vor: Gabriel Shalom&lt;br /&gt;
* 02.12.09 [[GMU:Codes_and_clowns|Exkursion zur Shannon-Ausstellung nach Paderborn]]&lt;br /&gt;
* 03.12.09 Konstantin Knust stellt vor: Gus van Sant&lt;br /&gt;
* 8.-10.12.09 Dienstag-Donnerstag [[Exkursion_nach_Linz_und_Graz|Exkursion nach Linz/Graz]]&lt;br /&gt;
* 17.12.09 [[Synästhesie|Synästhesie]] (Matthias Breuer)&lt;br /&gt;
* 07.01.10 [[Golan Levin, Tim Knowles|Golan Levin, Tim Knowles]] (Johann Niegl)&lt;br /&gt;
* 14.01.10 Danny (Thema noch offen)&lt;br /&gt;
* 14.01.10 - 16.01.10 Workshop mit Jochen Viehoff&lt;br /&gt;
* 21.01.10 Georg (Thema noch offen)&lt;br /&gt;
* 28.01.10 Cédric (Thema noch offen)&lt;br /&gt;
* 04.02.10 Christian Hellmann (Thema noch offen)&lt;br /&gt;
&lt;br /&gt;
==Literatur==&lt;br /&gt;
[http://www.uni-weimar.de/cms/universitaet/zentrale-einrichtungen/universitaetsbibliothek/recherche/semesterapparate/semesterapparate-medien/neu-medien-semesterapparate/mw-0910-8.html Semesterapparat]&lt;br /&gt;
&lt;br /&gt;
==Links==&lt;br /&gt;
* [[Audiovision_Linkliste|Linkliste Audiovision]]&lt;br /&gt;
* [[GMU:Bild_zu_Ton_Projekte|Projekte der Teilnehmer]]&lt;br /&gt;
* [http://www.hnf.de Heinz Nixdorf Museum Paderborn]&lt;br /&gt;
* [http://www.lentos.at/de/45_1769.asp Ausstellung see this sound im Lentos in Linz]&lt;br /&gt;
* [http://www.museum-joanneum.at/de/kunsthaus Kunsthaus Graz]&lt;br /&gt;
* [http://iem.at Institut für Elektronische Musik und Akustik Graz]&lt;br /&gt;
&lt;br /&gt;
[[Category:WS09]]&lt;br /&gt;
[[Category:Ursula Damm]]&lt;br /&gt;
[[Category:Max Neupert]]&lt;/div&gt;</summary>
		<author><name>Johann Niegl</name></author>
	</entry>
</feed>