Offene Nordstadtateliers 2017 – wieder dabei!

9. September 2017

Gemeinsam mit Heike Kollakowski öffne ich unser Atelier im Depot Dortmund für die Offenen Nordstadtateliers am 9. (15-22 Uhr) und 10.9.2017 (11-18 Uhr). Ich zeige dort eine Audio-Installation erstellt mit pure data, die auf einem alten analogen Röhrenoszilloskop spannende Muster darstellt. Weiterhin gibt es erstmals die Augmented Reality-Version von “Observerd” mit Namen “ObservedAR” und die Installation “data cloud” zu sehen.

Kunst am Oszilloskop

Drei Head Mounted Displays sind bereit zum Ausprobieren! v.l.n.r: Dive, modifizierte (Kamerabohrung) flyingtiger VR-Brille, modifizierte Videobrille mit aufgeklebter Webcam.

Links: ObserverdAR- Installation, Rechts: “data cloud”-Installation

Observed-AR“
Die Arbeit mit dem Titel „Observed“ soll den Betrachtern die allgegenwärtige Überwachung und die Aggregation von Metadaten bewusst machen. Die interaktive Videoinstallation verfolgt mittels „face tracking“ die Gesichter der Betrachter in Echtzeit und markiert diese. Es werden Daten über jedem beobachteten Gesicht eingeblendet, die keinesfalls öffentlich zugänglich sein sollten, um das Bewusstsein zu schaffen, dass jeder etwas zu verbergen hat. Die „Observed-AR“ Installation stellt in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers mit Hilfe von Datenbrillen diese Informationen dar. Eine Variante realisiert eine Hardware Lösung mit Videobrille, montierter USB-Camera und VGA2Video-Umsetzer und externem PC als Zuspieler. Gleichzeitig wird der subjektive Blickwinkel des Betrachters auf einem großen Display für eine „Ich sehe was was Du siehst“-Funktionalität dargestellt. Eine alternative Realisation in Software als Android-App ist als bewegliches Pendant ausgestellt.

Oberserved-Installation in Augmented Reality – La vie en rouge (Schuhe: New Yorker – T-Shirt: Gulaschprogrammiernacht 2017 – Pudel: Heike Kollakowski)

Und so sieht der Blick durch das HMD (Head Mounted Display, hier Smartpome mit selbst entwickelter APP) aus.

data cloud” Videoinstallation
Die Installation startet mit einem leeren Screen und füllt sich interaktiv bei Annäherung von mit Smartphone ausgestatteten Betrachtern. Voraussetzung ist die eingeschaltete WLAN-Funktion auf den Smartphones der Besucher. Viele Smartphone-Nutzer haben diese Funktion ständig eingeschaltet und sind sich nicht bewusst, dass ihre Geräte so eine Datenspur hinterlassen und getrackt und wiedererkannt werden können. Die WLAN-MAC-Adressen von Smartphones in WLAN-Reichweite und die von diesen Geräten gesuchten WLAN-Accesspoint-Namen werden als Datengrundlage verwendet. Die Live-Daten werden mittels “tshark” (Terminal basiertes Wireshark) aus den WLAN-Profilen von Smartphones in WLAN-Reichweite gewonnen, die ständig nach bekannten WLAN-Netzen in ihrer Umgebung suchen. Auf diese Weise sind Smartphones eindeutig identifizierbar (Fingerprinting). Dieses Verfahren wird auch in Geschäften und Ladenlokalen eingesetzt, um Kunden zu identifizieren und wieder zuerkennen. Die Installation soll den Betrachtern das allgegenwärtige Ausstreuen von personenbezogenen Daten bewusst machen und eine Sensibilisierung zu Datenschutz- und netzpolitischen Themen fördern.

Das Backend der beiden Installationen

Documenta 14 hack – Kunst auswildern

6. August 2017

Einmal auf der Documenta ausstellen, wer möchte das nicht. Die Documenta ist neben der berechtigtigten inhaltlichen Kritik  leider wenig zeitgenössisch aufgestellt und zeigt nur etablierte Kunst. Ein Teil der ausgestellten Künstler schon nicht mehr am Leben und der Rest ziemlich betagt.

Mit virtuellen Exponaten in Augmented Reality geht das natürlich auch für respektlose Jungspunde und so habe ich mein AR-Projekt WordzInTheCity von 2012 um Komponenten in Kassel ergänzt. Die Android-App von 2011 funktioniert weiterhin bei eingeschaltetem GPS und einer funktionierenden Datenverbindung in das Internet. Informationen dazu und den Download Link findet man auf der Projektseite zu WordzInTheCity.
Diese Screenshots habe anläßlich eines Besuchs der dokumenta 14 in Kassel angefertigt. Die Texte und Marker werden abhänging von der Orientierung und Position des Smartphones in Echtzeit in das Videobild eingeblendet.

Das Parthenon der verbotenen Bücher im robotnet hack.

Friedrichsplatz – documenta 14 – hack

 

Aber auch eine physische Arbeit habe ich auf der Documenta 14 “ausgewildert”. Die Position in der Karlsaue ist in der WordzInTheCity APP dokumentiert. Es handelt sich um ein während der offenen Ateliers in Dortmund entstandenen Roboter-Stempel, der hier wetterfest als Druck in einem Button ausgeführt ist. Die genaue Position in GPS-Koordinaten lautet  (Lon./Lat.): 51.304334,9.493238.

Mein augewilderter DoCuMeNTa-Roboter auf den GPS Koordinaten 51.304334,9.493238

Die Abstände in Metern stimmen noch nicht genau, da ich die Höhe über Normalnull auf Dortmund bezogen hatte. Das werde ich aber noch in der App korrigieren. Update: Alles um 80 Meter angehoben, das Exponat um 12m.

Observed-Installation als Augmented Reality in Hard- und Software

27. Juli 2017

Ich experimentiere derzeit mit einer Augmented Reality Version meiner Observed-Installation. Ziel ist die Installation in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers mit Hilfe einer Datenbrille darzustellen.

Approach 1: Eine einfache Hardware Lösung mit Videobrille, montierter USB-Camera und VGA2Video-Umsetzer und externem PC als Zuspieler:

Augmented Reality mit Videobrille, montierter USB-Camera, VGA-Umsetzer und externem PC als Zuspieler

Diese Lösung habe ich sehr schnell realisiert, es ist aber nur Video-(TV)-Auflösung verfügbar. Der Anwender ist nicht sehr beweglich, da Video und USB-Kabel mitgeführt werden müssen.

Approach 2: Realisierung in Software als Android-App:

Meine Android-App im Screenshot. Bild im Hintergrund (c) Heike Kollakowski

Das Android-Smartphone wird hier von einer Dive-VR-Brille gehalten. Das Google Cardboard funktioniert natürlich auch! Vorteile: Höhere Beweglichkeit und Skalierbarkeit. Obwohl die Rechenleistung aktueller Smartphones stark zugenommen hat, waren doch ein paar Tricks und Optimierungen nötig, um eine akzeptable Framerate zu erzielen. Die App ist derzeit noch nicht im Android-Store erhältlich.

Das Head Mounted Display (HMD) mit Android Smartphone zeigt Observed in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers. Hier realisiert mit DIVE und Nexus4.

Beide Ansätze realisieren nicht wirklich Stereo-Vision, da jeweils nur eine einzige Kamera eingesetzt wird. In der Android- App-Variante kann aber die überlagerte Animation Tiefeninformation enthalten, da die Teilbilder einzeln erzeugt werden. Die Videobrille akzeptiert nur eine einzige Videoquelle, so dass prinzipbedingt kein Stereo-Vision möglich ist. Die App-Variante kann zwei Cameras nutzen, sofern sie im Smartphone verbaut sind (z.B. Oppo) bzw. auch sinnvoll im Augenabstand angeordnet sind. In der Wikipedia findet sich eine Liste von Smartphones, die 3D-Vision unterstützen.

Ich plane die Videobrille mit einem Raspberry pi zero und der Raspi-Camera auszustatten, um sie auch kabellos  nutzen zu können.

Update: Die Observed-Installation äuft mit speziellem Video-Library auch auf dem pi zero. Die erreichbare Framerate (ca. alle 3 Sekunde ein Frame) ist aber nicht akzeptabel.

Der klitzekleine raspbery pi zero rendert was das Zeug hält die Observed Installation in 320×240 Auflösung…

… und nimmt dabei nur 5 Watt Leistung auf. Green-Art ;-)

Beitrag zur Extraschicht 2017 – die Nacht der Industriekultur

27. Juni 2017

Der Kulturort Depot ist wieder bei der Extraschicht 2017 dabei gewesen und die Ateliers der Künstler im Depot waren geöffnet. Und so haben auch Heike Kollakowski und ich am 24.6.2017 eine Extraschicht eingelegt und unser gemeinsames Atelier im Büro 14 des Depots geöffnet.

“data cloud” Videoinstallation

Ich habe dort meine neue Videoinstallation “data cloud” gezeigt, die WLAN-MAC-Adressen von Smartphones in WLAN-Reichweite und die von diesen Geräten gesuchten WLAN-Accesspoint als Datengrundlage verwendet.

Interaktive Videoinstallation “data cloud”

Die Installation startet mit einem leeren Screen und füllt sich interaktiv bei Annäherung von mit Smartphone ausgestatteten Betrachtern. Voraussetzung ist die eingeschaltete WLAN-Funktion auf den Smartphones der Besucher. Viele Smartphone-Nutzer haben diese Funktion ständig eingeschaltet und sind sich nicht bewusst, dass ihre Geräte so eine Datenspur hinterlassen und getrackt und wiedererkannt werden können. Die Installation soll den Betrachtern das allgegenwärtige Ausstreuen von personenbezogenen Daten bewusst machen und eine Sensibilisierung zu Datenschutz- und netzpolitischen Themen fördern.

data cloud in der Rückprojektion

Und so sah die Rückprojektion von vorne aus.

Erstmals habe ich die Installation mit zwei großen Beamern präsentiert.  Es gab sowohl eine Frontpräsententation mit einem Kurzdistanzprojektor als auch eine Rücktransformation auf Transparentpapier.

 

Das Technik-Backend

Audio-Pong

Da bei der Extraschicht immer sehr viel Publikum unterwegs ist, habe ich mir dieses Mal etwas Besonderes überlegt. Alternativ zu der großen Videoinstallation konnte ich ein Audio-Pong präsentieren, nachdem die von Heike Kollakowski im Rahmen der Extraschicht angebotenen Handlettering Workshops beendet waren. Das bekannte Pong-Spiel (eine Implementierung in Processing) habe ich um eine Audio-Steuerung ergänzt, die es ermöglicht, dass zwei Spieler per Mikrofon über die Lautstärke der Stimme Ihren Pong-Schläger steuern konnten. Dieses Konzept gab es übrigens schon einmal in den 70′er Jahren im Fernsehen unter dem Namen “Telespiele” moderiert von Thomas Gottschalk. Interessanterweise kannte keiner der Besucher diese Sendung. Ich hatte diese Installation schon einmal im Dezember 2014 bei einer Veranstaltung eingesetzt und später auf der 32C3 eine ähnliche Installation gesehen. Zur Geschichte von Pong gibt es derzeit aktuell noch ein Video in der ZDF-Mediathek zum Download (1,4GB, Die Amiga-Story, alternativ bei youtube).

Audio Pong mit Mikrofonsteuerung

Auch alte Computer / Telespiele sind meiner Ansicht nach Zeugnisse der Industriekultur. Den Besuchern und auch mir hat die Aktion sehr großen Spaß bereitet, da teils sehr lustige Laute zu hören waren ;-).

Das Datenfenster in der Galvanische Zone in der Shortcuts Videodokumentation

3. Mai 2017

Es ist noch eine Videodoku zur galvanischen Zone bei Vimeo eingestellt worden. Ich verlinke hier direkt zum Timecode meines Datenfensters. Es lohnt die Doku auch von Anfang an zu schauen.

Credits im Video, Dank an Christan Spieß für die spannende Rückansicht ;-)

Das Datenfenster in der galvanischen Zone

11. Dezember 2016

Eine Variante meiner Observed-Installation war als Datenfenster in der galvanischen Zone, einem eineinhalbstündigen Audio-visuellen Parcours in der Essener Innnenstadt zu sehen. Die per Funkkopfhörer verteilte Audiospur der galvanische Zone forderte die Teilnehmer auf, sich vom Datenfenster scannen zu lassen, bevor ein Android der galvanische Zone den Zugang zu Lex Spielmanns Galerie “Alte Mitte” gewährte. Im Hinterhof der Galerie der Galerie war die nächste Station der galvanische Zone, eine mit einem Großbeamer animierte Fassade, zu sehen.

Das Datenfenster scannt die Besucher der galvanischen Zone.

 

Der Eingang der Galerie “Alte Mitte” bewacht von dem Datenfenster und den Androiden der galvanische Zone.

Das Datenfenster der galvanische Zone scannt mich.

Die galvanische Zone wurde von dem Künstlerkollektiv Pluspolstadt (Teresa Grünhage, Matthias Plenkmann, Christian Spieß, Jens Maria Weber und Peter Eisold) realisiert. Ich habe mich sehr gefreut, dass meine Arbeit ein Teil der galvanischen Zone geworden ist. An den acht Terminen im November 2016 haben Gruppen von bis zu 50 Besuchern an dem einmaligen interaktiven Parcours / Installation / Audio / Video / Musik / Text / Performance / Projektion / Medienkunst / Theater / Roboter / Vergangenheit / Dokumentation / Zukunft / Parallelwelt / Realität, also einem eigentlich unbeschreiblichen Erlebnis teilnehmen können. Vielen Dank an die Helfer und Mitarbeiter der galvanische Zone, die bei teils eisigen Temperaturen die Zone am Leben erhalten haben!

Die galvanische Zone in der Lokalzeit Ruhr

11. November 2016

Die galvanische Zone ist nun gestartet. Eine Variante meiner “Observed”-Installation ist als Beitrag zur galvanischen Zone im “Datenfenster” in den Parcour integriert. Noch bis zum 26.11.2016 ist die Teilname möglich. Tickets und weitere Infos gibt es hier: http://die-galvanische-zone.de/?page_id=92

Update 18.11.2016: Leider sind alle Termine schon ausverkauft!

Wer noch zur Teilnahme motiviert werden möchte, klicke einfach auf das Video in der Mediathek:

Das Video wird direkt aus der Mediathek des WDR abgespielt und ist verfügbar bis zum 10.11.2017.

Die galvanische Zone – Audiovisueller Parcours City Nord Essen 5.-26. November 2016

6. Oktober 2016

Ich freue mich auf “Die galvanische Zone“, einen audiovisuellen Parcours in der City Nord in Essen, in der auch eine Arbeit von mir zu sehen sein wird. Der Parcours ist vom 5. bis zum 26. November 2016 besuchbar. Es lohnt sich!

Plakat: Jens Weber

Auf der Webseite der galvanischen Zone gibt es unter “work” auch schon ein Foto von den Vorbereitungen.

Treffen mit den Akteuren der galvanischen Zone

Im Gespräch mit den Akteuren der galvanischen Zone © 2016 Die Galvanische Zone

Frühzeitig Karten sichern unter: http://die-galvanische-zone.de/?page_id=92

Observed 4 für die Extraschicht – Nacht der Industriekultur 2016

12. Juli 2016

Da das Depot Spielort der Extraschicht – Nacht der Industriekultur 2016 am 25.6.2016 war, sind auch viele Ateliers für dieses Event geöffnet gewesen. Wir im Büro 14 waren auch dabei. Heike Kollakowski hat einen Handlettering-Workshop angeboten und ich habe die Gelegenheit genutzt, um die Installation Observed 4 auszustellen. Mit dem sehr engagierten Publikum gab es angeregte und auch kontroverse Diskussionen.

Observed 4 für die Extraschicht – Nacht der Industriekultur

Audio für die “generated”- Installation

4. Juni 2016

Der Live-Stream der Installation „generated“ war nur während der Ausstellungszeiten der offenen Ateliers Dortmund 2016 verfügbar. Hier gibt es aber kurze Aufzeichnung der computergenerierten selbstähnlichen Musik der Installation zum Anhören oder Download.

Die Musik wurde mit Pure Data extended erzeugt. Der Pure Data „Patch“  basiert auf auf einem großartigen Patch von Martin Brinkmann, der von mir um eine Open Sound Control (OSC)  und eine Schnittstelle zum Icecast Streaming Server ergänzt wurde. Der Sound des einzigen eingesetzten Synthesizer-Moduls kann mit einem Smartphone per OSC modifiziert werden. Der Musikgenerator von Martin Brinkmann (hier gibt es Ambient-Musik von ihm!) verwendet die fraktale Kompositionsmethode von Lars Kindermann, die dieser für “musinum” implementiert hat. Auch die Idee zu selbstähnlicher Musik stammt ursprünglich von Lars Kindermann, auf dessen Webseite ich auch schon einmal vor einigen Jahren das Projekt PALAOA bei Recherchen zu einer geplanten Teilnahme an Arctic Perspective gefunden hatte.

observed 3 Screenshot