Beitrag zur Extraschicht 2018

7. Juli 2018

Für die Extraschicht habe ich mich, wegen des hohen Besucheraufkommens, bewusst auf ein einziges interaktives Exponat beschränkt. Ich habe meine HTML5-Version meiner interaktiven Kinect-Blip-Sequenzer-Installation um eine zweiten Kinect Sensor ergänzt und optisch überarbeitet. Außerdem habe ich zur Erhöhung der musikalischen Komplexität zwei elektronische Bandschleifen (Looper) ergänzt. Das komplexe Sounderlebnis ist sehr gut in diesem kleinen Werkstatt-Video, entstanden bei der Ausstellungsvorbereitung, zu beurteilen.

Offene Ateliers Dortmund 2018 2-3. Juni 2018

6. Juli 2018

Da unser Atelier im Depot Dorm8nd westlich der B54 liegt, waren wir vom 2. bis zum 3. Juni 2018 an der Reihe. Die Teilnahme an den offenen Ateliers 2018 hat bei mir etwas unter Zeitdruck stattgefunden. Trotzdem kommte ich den „Bio-Reaktor“, meinen mechanischen DIY-Sequenzer aus der NOMUZIK-Performance in einer Modifikation als Exponat zeigen. Besonders gut angekommen ist der „Gurken-Schieberegler“ im Potentiometer-Einsatz für die Tongeneratoren.

Blog_offene_Ateliers_mech_sequenzer

Blog_offene_Ateliers_IMG_20180602_161623
Ergänzt wurde mein Aufbau durch eine funkelnagelneue HTML5-Version meiner interaktiven Kinect-Blip-Sequenzer-Installation.

Heike und Stefan haben in einer spontanen Jam-Session mit Android-Synthesizer-Apps den Blip-Sequenzer begleitet.

Impressionen meiner NOMUZIK-Performance in der Blam!-Galerie Dortmund

29. Januar 2018

Der Newsletter der Blam! und der Artikel in den Ruhrnachrichten hatten am am 20.1.2018 eine Menge Publikum angelockt und das NOMUZIK-Performance-Konzept mit Nichtmusikern ist tatsächlich aufgegangen. Es wurden vom Publikum noch ein paar sehr coole Gadgets mitgebracht (u.A. ein Handheld-Audio-Game aus den Achtzigern) und es war herrlich laut und schön. Zentrales Werkzeug war ein sogenannter Looper, ein Gitarreneffektgerät, dass die Funktionalität einer Tonbandschleife in moderner, einfach zu bedienender Sampler-Technik realisiert.

Das waren die "Musikinstrumente" für die performance

Das waren die “Musikinstrumente” für die Performance

In diesem Video performt Stefan mit meinem Bio-Reaktor-Sequenzer

Mein Vortrag zur Geschichte der “Minimal Music” und der Bandschleifen mit live-Demonstationen der Instrumente und Audio-Gadgets  ist auch sehr gut angekommen. Da ich aus Zeitgründen keine Musikbeispiele anspielen konnte, habe ich kleine youtube-Playlist der von mir erwähnten und zitierten Künstler zusammengestellt. Die Vortragsfolien sind hier verlinkt:

NOMUZIK_slide

 

Mein Vortrag zu Minimal Musik und Bandschleifen

Mein Vortrag zu Minimal Musik und Bandschleifen

Zu den Exponaten gibt es auch noch jeweils etwas Text:

Bio-Reaktor mechanischer Sequenzer Installation (Video)

Ein rotierender Plattenteller mit codierten Sequenzen auf Alufolie löst über Gleitkontakte Sounds aus. Die Sounds werden über vier analoge DIY-Tongeneratoren (Oszillatoren) erzeugt. Drei der Tongeneratoren werden über angeschlossene Früchte, die als variable Widerstände dienen, abgestimmt. Dazu kann eines der in der Frucht stecken Kabel herausgezogen und in eine neuen Abstand zum anderen Kabel neu eingestochen werden. Die Gleitkontakte erzeugen Störungen, die die ursprünglichen Sinus-Schwingungen auf sehr interessante Weise verzerren. Alle Tongeneratoren können über kleine rote Dipschalter zu- und abgeschaltet werden.

Und noch ein Video mit meinem Bio-Reaktor-Sequenzer

„generated“ – Audio Installation – Musik aus Zahlen

Es handelt sich um computergenerierte selbstähnliche Musik, die über Kopfhörer gehört werden kann. Die Musik, die Sie hier hören, wird in diesem Moment live erzeugt. Es handelt sich nicht um eine Tonkonserve.

Zugrunde liegt ein fraktales Kompositionsverfahren, dass Lars Kindermann entdeckt hat.

Das Prinzip dahinter ist sehr einfach. Eigentlich addiert der Algorithmus nur eine Zahl auf. Dann werden die Zahlen im Binärsystem dargestellt und die Zahl der Einsen ermittelt. Gespielt werden dann die Noten „c“ für die Summe 1,  „d“ für die Summe 2, „e“ für die Summe 3 usw.

Dezimal    binär    Summe der 1sen    Note

1         1            1                c

2        10           1                c

3        11           2                d

4        100         1                c

5        101         2                d

6        110         2                d

7        111         3                e

8        1000      1                 c

.        .        .                .
usw.

Die entstehende Melodie ist wie bei einem Fraktal selbstähnlich, d.h. wenn nur jeder zweite Ton gespielt wird, ergibt sich dieselbe Melodie.

Ich habe das Verfahren hier mit einem Software Synthesizer in Pure-Data realisiert. Während der Ausstellung wurde ein Audio-Live-Stream dieser Installation ausgestrahlt. Der Stream war während der Ausstellung weltweit mit jedem Rechner und jedem Smartphone abrufbar. Moderne Smartphones spielen den Stream direkt im Browser ab, ohne dass spezielle Audio-Software erforderlich ist.

Die Musik bleibt immer (selbst)ähnlich, aber wiederholt sie sich nicht!

So wurden die Audio-Exponate präsentiert.

So wurden die “generated”-Installation präsentiert.

 

Minimal Musik – stretched – 10 Stunden Meditation

Die Originalkomposition von Steve Reich mit dem Titel „Musik for 18 Musicans“ mit der original Dauer von 1:07:47 wird hier auf 18 Stunden ausgedehnt, wobei die Tonhöhen auf die original Tonhöhen angepasst worden sind. Der Sound-Eindruck/Teppich bleibt erhalten, aber die Abspielgeschwindigkeit wird extrem verlangsamt, was dem repetitiven und Meditativen Loop-Charakter der Komposition ganz neue Klangdimensionen verleiht.

 

Blip-Sequenzer mit touch Kinect-Steuerung

Ein großer Touch-Sequenzer projiziert mit einem Beamer, der per Kinect-3D-Sensor bedient werden kann. Der Kinect-3D-Sensor ist für diesen Einsatz auf das Projektionsfeld kalibriert worden.

Der Touch-Sequenzer mit Kinect-Interface

Der Touch-Sequenzer mit Kinect-Interface

In der Blam!revue gibt es auch noch sehr schöne Fotos von der Veranstaltung.

Eine kleine Youtube-Playlist zur NOMUZIK-Performance

19. Januar 2018

Beim Vortrag zu meiner NOMUZIK-Performance am 20.1.2018 in der Blam!-Galerie in Dortmund werde auf verschiedene Musiker/Künstler hinweisen.

Eines meiner Exponate: Bio-Reaktor mechanischer Sampler

Eines meiner Exponate: Bio-Reaktor mechanischer Sampler DIY

Hier gibt es eine kleine Youtube-Playlist dazu:

Pierre Schaeffer Ètude des bruits:

https://www.youtube.com/watch?v=CTf0yE15zzI

Karlheinz Stockhausen Telemusik:

https://www.youtube.com/watch?v=vdIe2CrorMM

Terry Riley: https://www.youtube.com/watch?v=QE2CEh66gTg

Steve Reich Music for 18 Musicians live:

https://www.youtube.com/watch?v=yRQw85LdRbI

Weitere Version:

https://www.youtube.com/watch?v=ZXJWO2FQ16c

Brian Eno Music for Airports:

https://www.youtube.com/watch?v=f0TGXz9uqHA

Brian Eno Neroli:

https://www.youtube.com/watch?v=bfHCt5z1kd8

Laurie Anderson mit Tape-Violine:

https://www.youtube.com/watch?v=IRGjtMZzCYo

und ihre neue Violine:

https://www.youtube.com/watch?v=GkUIVVPNEOs

Darsha Hewitt auf dem 34C3:

https://media.ccc.de/v/34c3-9288-deconstructing_a_socialist_lawnmower

Die Byte.FM Sendung, die ich zitiert habe: https://www.byte.fm/sendungen/was-ist-musik/ (ist auch allgemein ein sehr empfehlenswertes Internetradio!)

Noch mehr gute Audio-Kunst gibt es auch bei the lake radio.

NOMUZIK – Musik von Nichtmusikern – Geräusche von Künstlern – Performance – 20.1.2018 um 19:30 Uhr in der Blam!-Galerie, Lange Straße 92, Dortmund

16. Januar 2018

Am Samstag den 20.1.2018 um 19:30 Uhr bin ich zu Gast in der Blam!-Galerie, Lange Straße 92, in Dortmund und präsentiere dort die interaktive Audio-Performance: „NOMUZIK – Musik von Nichtmusikern – Geräusche von Künstlern“.

Neben einigen Audio/Musik-installationen (*), die ich dort zeigen werde, gibt es auch einen Vortrag mit einigen Audio-Demonstrationen zu sehen. Im Vortrag dreht sich  alles um die Geschichte des Audio-Loops und um analoge und digitale elektronische Klangerzeuger, die in der Performance ausprobiert werden.

In der anschließenden Performance, ganz im Stil der „genialen Dilettanten“,  wird gemeinsam mit dem Publikum und dem Blam!-Akteuren musiziert. Das geschieht in einer interaktiven Performance, bei der sich viele Besucher einfach eines der vielen Instrumente/Gadgets/Spielzeuge benutzen, die ich mitbringen werde. Eigene analoge oder batteriebetriebene Musikspielzeuge mit Lautsprecher, Gadgets oder Instrumente können gerne mitgebracht werden.

Es sind keinerlei musikalische Kenntnisse nötig. Im Gegenteil, professionellen Musikern ist der Eintritt eigentlich verwehrt ;-). Durch den Einsatz von mehreren „Loopern“, elektronischen Bandschleifen, entsteht aus Geräuschen durch Repetition Musik, frei nach der These des Loop- und Musique Concréte Pioniers Pierre Schaeffers:

„Wenn man dasselbe Ding wiederholt, wird es Musik“

(*) Gezeigt werden u.A.

  •  ein „analoger Sequenzer“, der über Kontakte auf einem einen Plattenteller mit Obst-Wiederständen (Biosensoren) abgestimmte Tongeneratoren betätigt.
  • Ein großer Touch-Sequenzer auf einem Beamer, der per Kinect-3D-Sensor bedient werden kann.
  • computergenierte selbstähnliche Musik, die es während der Performance auch als Stream zu hören gibt: http://www.pediaphon.org:8000/live.mp3
  • extrem langsam abgespielte transponierte minimal Music.

Da es sich auch um die Blam!-Abschiedsveranstaltung (sehr schade!) handelt, gibt es dort auch Bowle. Um 19:30 Uhr geht es los!

makingof_small

Das “making of”, habe lange nicht mehr so viel gelötet ;-)

Kunst und Punsch im Depot

11. Dezember 2017

In diesem Jahr nehme ich zum ersten Mal im Depot an der “Kunst und Punsch” teil. Außerdem sin in diesem Jahr in allen Ateliers des Depots Gastkünstler eingeladen worden.

Gastkünstler in unserem (Heike Kollakowski & myself) Atelier Büro 14 im Depot Dortmund ist Jens Maria Weber, der wunderbare Illustrationen und eine großartige Skulptur ausstellt.

kunst_und_Punsch_robotnet

Der Aufbau im Atelier für Augmented Reality. Zwei AR-Brillen mit meiner Android-App und eine modifizierte Videobrille die an eine PC angeschlossen ist. Auf dem großen Monitor ist der first Person View des Videobrillenträgers für weitere Betrachter sichtbar.

resized-22931713476427

Meine robotnet ObservedAR-Android-App im Screenshot mit der neuen Verpixelungsfunktion.

Ich präsentiere dort neben der Augmented Reality Installation ObservedAR, die um eine Verpixelungs-Funktion ergänzt wurde, auch eine kleine Installation, die eigentlich als Beitrag für blams Tierleben gedacht war, aber aus Zeitmangel nun hier gezeigt wird. Rahmenbedingung für die Blam war ein Exponat, dass ein Tier darstellt (lebenden Tiere ausgenommen). Im meinem Fall muss es dann natürlich ein intelligentes robotisches Tier sein.

Die robotische Installation heißt “beA.S.T” und enthält Zitate von Douglas Adams, Nina Hagen, Marc Uwe Kling, René Descartes, George Orwell und aus der “Allgemeinen Erklärung Tierechte”, die mit Text-to-Speech-Techniken eingesprochen werden.

Die Öffnungstermine für Kunst und Punsch im Depot Dortmund:

SO 3.12.2017 DO 07.12.2017 , SO 10.12.2017 , DO 14.12.2017
geöffnet ist jeweils:
DO von 17 bis 20 Uhr
SO von 15 bis 18 Uhr

Offene Nordstadtateliers 2017 – wieder dabei!

9. September 2017

Gemeinsam mit Heike Kollakowski öffne ich unser Atelier im Depot Dortmund für die Offenen Nordstadtateliers am 9. (15-22 Uhr) und 10.9.2017 (11-18 Uhr). Ich zeige dort eine Audio-Installation erstellt mit pure data, die auf einem alten analogen Röhrenoszilloskop spannende Muster darstellt. Weiterhin gibt es erstmals die Augmented Reality-Version von “Observerd” mit Namen “ObservedAR” und die Installation “data cloud” zu sehen.

Kunst am Oszilloskop

Drei Head Mounted Displays sind bereit zum Ausprobieren! v.l.n.r: Dive, modifizierte (Kamerabohrung) flyingtiger VR-Brille, modifizierte Videobrille mit aufgeklebter Webcam.

wpid-resized-12786431573819.jpeg

Links: ObserverdAR- Installation, Rechts: “data cloud”-Installation

Observed-AR“
Die Arbeit mit dem Titel „Observed“ soll den Betrachtern die allgegenwärtige Überwachung und die Aggregation von Metadaten bewusst machen. Die interaktive Videoinstallation verfolgt mittels „face tracking“ die Gesichter der Betrachter in Echtzeit und markiert diese. Es werden Daten über jedem beobachteten Gesicht eingeblendet, die keinesfalls öffentlich zugänglich sein sollten, um das Bewusstsein zu schaffen, dass jeder etwas zu verbergen hat. Die „Observed-AR“ Installation stellt in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers mit Hilfe von Datenbrillen diese Informationen dar. Eine Variante realisiert eine Hardware Lösung mit Videobrille, montierter USB-Camera und VGA2Video-Umsetzer und externem PC als Zuspieler. Gleichzeitig wird der subjektive Blickwinkel des Betrachters auf einem großen Display für eine „Ich sehe was was Du siehst“-Funktionalität dargestellt. Eine alternative Realisation in Software als Android-App ist als bewegliches Pendant ausgestellt.

Oberserverd-Istallation als Augmmented Reality - La vie en rouge - Schuhe: New Yorker - Tshirt: Gulaschprogrammiernacht 2017 - Pudel. Heike kollakowski

Oberserved-Installation in Augmented Reality – La vie en rouge (Schuhe: New Yorker – T-Shirt: Gulaschprogrammiernacht 2017 – Pudel: Heike Kollakowski)

APP_Oserved_Screenshot_20170916-185854

Und so sieht der Blick durch das HMD (Head Mounted Display, hier Smartphone mit selbst entwickelter APP) aus.

data cloud” Videoinstallation
Die Installation startet mit einem leeren Screen und füllt sich interaktiv bei Annäherung von mit Smartphone ausgestatteten Betrachtern. Voraussetzung ist die eingeschaltete WLAN-Funktion auf den Smartphones der Besucher. Viele Smartphone-Nutzer haben diese Funktion ständig eingeschaltet und sind sich nicht bewusst, dass ihre Geräte so eine Datenspur hinterlassen und getrackt und wiedererkannt werden können. Die WLAN-MAC-Adressen von Smartphones in WLAN-Reichweite und die von diesen Geräten gesuchten WLAN-Accesspoint-Namen werden als Datengrundlage verwendet. Die Live-Daten werden mittels “tshark” (Terminal basiertes Wireshark) aus den WLAN-Profilen von Smartphones in WLAN-Reichweite gewonnen, die ständig nach bekannten WLAN-Netzen in ihrer Umgebung suchen. Auf diese Weise sind Smartphones eindeutig identifizierbar (Fingerprinting). Dieses Verfahren wird auch in Geschäften und Ladenlokalen eingesetzt, um Kunden zu identifizieren und wieder zuerkennen. Die Installation soll den Betrachtern das allgegenwärtige Ausstreuen von personenbezogenen Daten bewusst machen und eine Sensibilisierung zu Datenschutz- und netzpolitischen Themen fördern.

Das Backend der beiden Installationen

Das Backend der beiden Installationen

Documenta 14 hack – Kunst auswildern

6. August 2017

Einmal auf der Documenta ausstellen, wer möchte das nicht. Die Documenta ist neben der berechtigtigten inhaltlichen Kritik  leider wenig zeitgenössisch aufgestellt und zeigt nur etablierte Kunst. Ein Teil der ausgestellten Künstler schon nicht mehr am Leben und der Rest ziemlich betagt.

Mit virtuellen Exponaten in Augmented Reality geht das natürlich auch für respektlose Jungspunde und so habe ich mein AR-Projekt WordzInTheCity von 2012 um Komponenten in Kassel ergänzt. Die Android-App von 2011 funktioniert weiterhin bei eingeschaltetem GPS und einer funktionierenden Datenverbindung in das Internet. Informationen dazu und den Download Link findet man auf der Projektseite zu WordzInTheCity.
Diese Screenshots habe anläßlich eines Besuchs der dokumenta 14 in Kassel angefertigt. Die Texte und Marker werden abhänging von der Orientierung und Position des Smartphones in Echtzeit in das Videobild eingeblendet.

Das Parthenon der verbotenen Bücher im robotnet hack.

Friedrichsplatz – documenta 14 – hack

 

Aber auch eine physische Arbeit habe ich auf der Documenta 14 “ausgewildert”. Die Position in der Karlsaue ist in der WordzInTheCity APP dokumentiert. Es handelt sich um ein während der offenen Ateliers in Dortmund entstandenen Roboter-Stempel, der hier wetterfest als Druck in einem Button ausgeführt ist. Die genaue Position in GPS-Koordinaten lautet  (Lon./Lat.): 51.304334,9.493238.

Mein augewilderter DoCuMeNTa-Roboter 51.304334,9.493238

Mein augewilderter DoCuMeNTa-Roboter auf den GPS Koordinaten 51.304334,9.493238

Die Abstände in Metern stimmen noch nicht genau, da ich die Höhe über Normalnull auf Dortmund bezogen hatte. Das werde ich aber noch in der App korrigieren. Update: Alles um 80 Meter angehoben, das Exponat um 12m.

Observed-Installation als Augmented Reality in Hard- und Software

27. Juli 2017

Ich experimentiere derzeit mit einer Augmented Reality Version meiner Observed-Installation. Ziel ist die Installation in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers mit Hilfe einer Datenbrille darzustellen.

Approach 1: Eine einfache Hardware Lösung mit Videobrille, montierter USB-Camera und VGA2Video-Umsetzer und externem PC als Zuspieler:

Aumented Reality mit Video Brille, montierter USB-Camera, VGA-Umsetzer und externem PC als Zuspieler

Augmented Reality mit Videobrille, montierter USB-Camera, VGA-Umsetzer und externem PC als Zuspieler

Diese Lösung habe ich sehr schnell realisiert, es ist aber nur Video-(TV)-Auflösung verfügbar. Der Anwender ist nicht sehr beweglich, da Video und USB-Kabel mitgeführt werden müssen.

Approach 2: Realisierung in Software als Android-App:

meine Android-App Screenshot. Bilid im Hintergrund (c) Heike Kollakowski

Meine Android-App im Screenshot. Bild im Hintergrund (c) Heike Kollakowski

Das Android-Smartphone wird hier von einer Dive-VR-Brille gehalten. Das Google Cardboard funktioniert natürlich auch! Vorteile: Höhere Beweglichkeit und Skalierbarkeit. Obwohl die Rechenleistung aktueller Smartphones stark zugenommen hat, waren doch ein paar Tricks und Optimierungen nötig, um eine akzeptable Framerate zu erzielen. Die App ist derzeit noch nicht im Android-Store erhältlich.

dive

Das Head Mounted Display (HMD) mit Android Smartphone zeigt Observed in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers. Hier realisiert mit DIVE und Nexus4.

Beide Ansätze realisieren nicht wirklich Stereo-Vision, da jeweils nur eine einzige Kamera eingesetzt wird. In der Android- App-Variante kann aber die überlagerte Animation Tiefeninformation enthalten, da die Teilbilder einzeln erzeugt werden. Die Videobrille akzeptiert nur eine einzige Videoquelle, so dass prinzipbedingt kein Stereo-Vision möglich ist. Die App-Variante kann zwei Cameras nutzen, sofern sie im Smartphone verbaut sind (z.B. Oppo) bzw. auch sinnvoll im Augenabstand angeordnet sind. In der Wikipedia findet sich eine Liste von Smartphones, die 3D-Vision unterstützen.

Ich plane die Videobrille mit einem Raspberry pi zero und der Raspi-Camera auszustatten, um sie auch kabellos  nutzen zu können.

Update: Die Observed-Installation äuft mit speziellem Video-Library auch auf dem pi zero. Die erreichbare Framerate (ca. alle 3 Sekunde ein Frame) ist aber nicht akzeptabel.

Der klitzekleine raspbery pi zero rendert was das Zeug hält die Observed Installation in 320×240 Auflösung…

… und nimmt dabei nur 5 Watt Leistung auf. Green-Art ;-)

Beitrag zur Extraschicht 2017 – die Nacht der Industriekultur

27. Juni 2017

Der Kulturort Depot ist wieder bei der Extraschicht 2017 dabei gewesen und die Ateliers der Künstler im Depot waren geöffnet. Und so haben auch Heike Kollakowski und ich am 24.6.2017 eine Extraschicht eingelegt und unser gemeinsames Atelier im Büro 14 des Depots geöffnet.

“data cloud” Videoinstallation

Ich habe dort meine neue Videoinstallation “data cloud” gezeigt, die WLAN-MAC-Adressen von Smartphones in WLAN-Reichweite und die von diesen Geräten gesuchten WLAN-Accesspoint als Datengrundlage verwendet.

Videoinstallation Data Cloud

Interaktive Videoinstallation “data cloud”

Die Installation startet mit einem leeren Screen und füllt sich interaktiv bei Annäherung von mit Smartphone ausgestatteten Betrachtern. Voraussetzung ist die eingeschaltete WLAN-Funktion auf den Smartphones der Besucher. Viele Smartphone-Nutzer haben diese Funktion ständig eingeschaltet und sind sich nicht bewusst, dass ihre Geräte so eine Datenspur hinterlassen und getrackt und wiedererkannt werden können. Die Installation soll den Betrachtern das allgegenwärtige Ausstreuen von personenbezogenen Daten bewusst machen und eine Sensibilisierung zu Datenschutz- und netzpolitischen Themen fördern.

Videoinstallation Data Cloud in der Rückprojektion

data cloud in der Rückprojektion

Und so sah die Rückprojektion von vorne aus.

Und so sah die Rückprojektion von vorne aus.

Erstmals habe ich die Installation mit zwei großen Beamern präsentiert.  Es gab sowohl eine Frontpräsententation mit einem Kurzdistanzprojektor als auch eine Rücktransformation auf Transparentpapier.

 

Das Technik-Backend

Das Technik-Backend

Audio-Pong

Da bei der Extraschicht immer sehr viel Publikum unterwegs ist, habe ich mir dieses Mal etwas Besonderes überlegt. Alternativ zu der großen Videoinstallation konnte ich ein Audio-Pong präsentieren, nachdem die von Heike Kollakowski im Rahmen der Extraschicht angebotenen Handlettering Workshops beendet waren. Das bekannte Pong-Spiel (eine Implementierung in Processing) habe ich um eine Audio-Steuerung ergänzt, die es ermöglicht, dass zwei Spieler per Mikrofon über die Lautstärke der Stimme Ihren Pong-Schläger steuern konnten. Dieses Konzept gab es übrigens schon einmal in den 70′er Jahren im Fernsehen unter dem Namen “Telespiele” moderiert von Thomas Gottschalk. Interessanterweise kannte keiner der Besucher diese Sendung. Ich hatte diese Installation schon einmal im Dezember 2014 bei einer Veranstaltung eingesetzt und später auf der 32C3 eine ähnliche Installation gesehen. Zur Geschichte von Pong gibt es derzeit aktuell noch ein Video in der ZDF-Mediathek zum Download (1,4GB, Die Amiga-Story, alternativ bei youtube).

Audio Pong mit Mikrofon Steuerung

Audio Pong mit Mikrofonsteuerung

Auch alte Computer / Telespiele sind meiner Ansicht nach Zeugnisse der Industriekultur. Den Besuchern und auch mir hat die Aktion sehr großen Spaß bereitet, da teils sehr lustige Laute zu hören waren ;-).