Kunst und Punsch im Depot

11. Dezember 2017

In diesem Jahr nehme ich zum ersten Mal im Depot an der “Kunst und Punsch” teil. In diesem Jahr sind in allen Ateliers des Depots Ganstkünstler eingeladen worden.

Gastkünstler in unserem (Heike Kollakowski & myself) Atelier Büro 14 im Depot Dortmund ist in diesem Jahr Jens Maria Weber, der Illustrationen und eine Skulptur ausstellt.

Ich präsentiere dort neben der Augmented Reality Installation ObservedAR, die um eine Verpixelungs-Funktion ergänzt wurde, auch eine kleine Installation, die eigentlich als Beitrag für blams Tierleben gedacht war, aber aus Zeitmangel nun hier gezeigt wird. Rahmenbedingung für die Blam war ein Exponat, dass ein Tier darstellt (lebenden Tiere ausgenommen). Im meinem Fall muss es dann natürlich ein intelligentes robotisches Tier sein.

Die robotische Installation heißt “beA.S.T” und enthält Zitate von Douglas Adams, Nina Hagen, Marc Uwe Kling, René Descartes, George Orwell und aus der “Allgemeinen Erklärung Tierechte”, die mit Text-to-Speech-Techniken eingesprochen werden.

Die Öffnungstermine für Kunst und Punsch im Depot Dortmund:

SO 3.12.2017 DO 07.12.2017 , SO 10.12.2017 , DO 14.12.2017
geöffnet ist jeweils:
DO von 17 bis 20 Uhr
SO von 15 bis 18 Uhr

Offene Nordstadtateliers 2017 – wieder dabei!

9. September 2017

Gemeinsam mit Heike Kollakowski öffne ich unser Atelier im Depot Dortmund für die Offenen Nordstadtateliers am 9. (15-22 Uhr) und 10.9.2017 (11-18 Uhr). Ich zeige dort eine Audio-Installation erstellt mit pure data, die auf einem alten analogen Röhrenoszilloskop spannende Muster darstellt. Weiterhin gibt es erstmals die Augmented Reality-Version von “Observerd” mit Namen “ObservedAR” und die Installation “data cloud” zu sehen.

Kunst am Oszilloskop

Drei Head Mounted Displays sind bereit zum Ausprobieren! v.l.n.r: Dive, modifizierte (Kamerabohrung) flyingtiger VR-Brille, modifizierte Videobrille mit aufgeklebter Webcam.

Links: ObserverdAR- Installation, Rechts: “data cloud”-Installation

Observed-AR“
Die Arbeit mit dem Titel „Observed“ soll den Betrachtern die allgegenwärtige Überwachung und die Aggregation von Metadaten bewusst machen. Die interaktive Videoinstallation verfolgt mittels „face tracking“ die Gesichter der Betrachter in Echtzeit und markiert diese. Es werden Daten über jedem beobachteten Gesicht eingeblendet, die keinesfalls öffentlich zugänglich sein sollten, um das Bewusstsein zu schaffen, dass jeder etwas zu verbergen hat. Die „Observed-AR“ Installation stellt in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers mit Hilfe von Datenbrillen diese Informationen dar. Eine Variante realisiert eine Hardware Lösung mit Videobrille, montierter USB-Camera und VGA2Video-Umsetzer und externem PC als Zuspieler. Gleichzeitig wird der subjektive Blickwinkel des Betrachters auf einem großen Display für eine „Ich sehe was was Du siehst“-Funktionalität dargestellt. Eine alternative Realisation in Software als Android-App ist als bewegliches Pendant ausgestellt.

Oberserved-Installation in Augmented Reality – La vie en rouge (Schuhe: New Yorker – T-Shirt: Gulaschprogrammiernacht 2017 – Pudel: Heike Kollakowski)

Und so sieht der Blick durch das HMD (Head Mounted Display, hier Smartphone mit selbst entwickelter APP) aus.

data cloud” Videoinstallation
Die Installation startet mit einem leeren Screen und füllt sich interaktiv bei Annäherung von mit Smartphone ausgestatteten Betrachtern. Voraussetzung ist die eingeschaltete WLAN-Funktion auf den Smartphones der Besucher. Viele Smartphone-Nutzer haben diese Funktion ständig eingeschaltet und sind sich nicht bewusst, dass ihre Geräte so eine Datenspur hinterlassen und getrackt und wiedererkannt werden können. Die WLAN-MAC-Adressen von Smartphones in WLAN-Reichweite und die von diesen Geräten gesuchten WLAN-Accesspoint-Namen werden als Datengrundlage verwendet. Die Live-Daten werden mittels “tshark” (Terminal basiertes Wireshark) aus den WLAN-Profilen von Smartphones in WLAN-Reichweite gewonnen, die ständig nach bekannten WLAN-Netzen in ihrer Umgebung suchen. Auf diese Weise sind Smartphones eindeutig identifizierbar (Fingerprinting). Dieses Verfahren wird auch in Geschäften und Ladenlokalen eingesetzt, um Kunden zu identifizieren und wieder zuerkennen. Die Installation soll den Betrachtern das allgegenwärtige Ausstreuen von personenbezogenen Daten bewusst machen und eine Sensibilisierung zu Datenschutz- und netzpolitischen Themen fördern.

Das Backend der beiden Installationen

Documenta 14 hack – Kunst auswildern

6. August 2017

Einmal auf der Documenta ausstellen, wer möchte das nicht. Die Documenta ist neben der berechtigtigten inhaltlichen Kritik  leider wenig zeitgenössisch aufgestellt und zeigt nur etablierte Kunst. Ein Teil der ausgestellten Künstler schon nicht mehr am Leben und der Rest ziemlich betagt.

Mit virtuellen Exponaten in Augmented Reality geht das natürlich auch für respektlose Jungspunde und so habe ich mein AR-Projekt WordzInTheCity von 2012 um Komponenten in Kassel ergänzt. Die Android-App von 2011 funktioniert weiterhin bei eingeschaltetem GPS und einer funktionierenden Datenverbindung in das Internet. Informationen dazu und den Download Link findet man auf der Projektseite zu WordzInTheCity.
Diese Screenshots habe anläßlich eines Besuchs der dokumenta 14 in Kassel angefertigt. Die Texte und Marker werden abhänging von der Orientierung und Position des Smartphones in Echtzeit in das Videobild eingeblendet.

Das Parthenon der verbotenen Bücher im robotnet hack.

Friedrichsplatz – documenta 14 – hack

 

Aber auch eine physische Arbeit habe ich auf der Documenta 14 “ausgewildert”. Die Position in der Karlsaue ist in der WordzInTheCity APP dokumentiert. Es handelt sich um ein während der offenen Ateliers in Dortmund entstandenen Roboter-Stempel, der hier wetterfest als Druck in einem Button ausgeführt ist. Die genaue Position in GPS-Koordinaten lautet  (Lon./Lat.): 51.304334,9.493238.

Mein augewilderter DoCuMeNTa-Roboter auf den GPS Koordinaten 51.304334,9.493238

Die Abstände in Metern stimmen noch nicht genau, da ich die Höhe über Normalnull auf Dortmund bezogen hatte. Das werde ich aber noch in der App korrigieren. Update: Alles um 80 Meter angehoben, das Exponat um 12m.

Observed-Installation als Augmented Reality in Hard- und Software

27. Juli 2017

Ich experimentiere derzeit mit einer Augmented Reality Version meiner Observed-Installation. Ziel ist die Installation in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers mit Hilfe einer Datenbrille darzustellen.

Approach 1: Eine einfache Hardware Lösung mit Videobrille, montierter USB-Camera und VGA2Video-Umsetzer und externem PC als Zuspieler:

Augmented Reality mit Videobrille, montierter USB-Camera, VGA-Umsetzer und externem PC als Zuspieler

Diese Lösung habe ich sehr schnell realisiert, es ist aber nur Video-(TV)-Auflösung verfügbar. Der Anwender ist nicht sehr beweglich, da Video und USB-Kabel mitgeführt werden müssen.

Approach 2: Realisierung in Software als Android-App:

Meine Android-App im Screenshot. Bild im Hintergrund (c) Heike Kollakowski

Das Android-Smartphone wird hier von einer Dive-VR-Brille gehalten. Das Google Cardboard funktioniert natürlich auch! Vorteile: Höhere Beweglichkeit und Skalierbarkeit. Obwohl die Rechenleistung aktueller Smartphones stark zugenommen hat, waren doch ein paar Tricks und Optimierungen nötig, um eine akzeptable Framerate zu erzielen. Die App ist derzeit noch nicht im Android-Store erhältlich.

Das Head Mounted Display (HMD) mit Android Smartphone zeigt Observed in Echtzeit als Augmented Reality Darstellung aus dem subjektiven Blickwinkel des Trägers. Hier realisiert mit DIVE und Nexus4.

Beide Ansätze realisieren nicht wirklich Stereo-Vision, da jeweils nur eine einzige Kamera eingesetzt wird. In der Android- App-Variante kann aber die überlagerte Animation Tiefeninformation enthalten, da die Teilbilder einzeln erzeugt werden. Die Videobrille akzeptiert nur eine einzige Videoquelle, so dass prinzipbedingt kein Stereo-Vision möglich ist. Die App-Variante kann zwei Cameras nutzen, sofern sie im Smartphone verbaut sind (z.B. Oppo) bzw. auch sinnvoll im Augenabstand angeordnet sind. In der Wikipedia findet sich eine Liste von Smartphones, die 3D-Vision unterstützen.

Ich plane die Videobrille mit einem Raspberry pi zero und der Raspi-Camera auszustatten, um sie auch kabellos  nutzen zu können.

Update: Die Observed-Installation äuft mit speziellem Video-Library auch auf dem pi zero. Die erreichbare Framerate (ca. alle 3 Sekunde ein Frame) ist aber nicht akzeptabel.

Der klitzekleine raspbery pi zero rendert was das Zeug hält die Observed Installation in 320×240 Auflösung…

… und nimmt dabei nur 5 Watt Leistung auf. Green-Art ;-)

Beitrag zur Extraschicht 2017 – die Nacht der Industriekultur

27. Juni 2017

Der Kulturort Depot ist wieder bei der Extraschicht 2017 dabei gewesen und die Ateliers der Künstler im Depot waren geöffnet. Und so haben auch Heike Kollakowski und ich am 24.6.2017 eine Extraschicht eingelegt und unser gemeinsames Atelier im Büro 14 des Depots geöffnet.

“data cloud” Videoinstallation

Ich habe dort meine neue Videoinstallation “data cloud” gezeigt, die WLAN-MAC-Adressen von Smartphones in WLAN-Reichweite und die von diesen Geräten gesuchten WLAN-Accesspoint als Datengrundlage verwendet.

Interaktive Videoinstallation “data cloud”

Die Installation startet mit einem leeren Screen und füllt sich interaktiv bei Annäherung von mit Smartphone ausgestatteten Betrachtern. Voraussetzung ist die eingeschaltete WLAN-Funktion auf den Smartphones der Besucher. Viele Smartphone-Nutzer haben diese Funktion ständig eingeschaltet und sind sich nicht bewusst, dass ihre Geräte so eine Datenspur hinterlassen und getrackt und wiedererkannt werden können. Die Installation soll den Betrachtern das allgegenwärtige Ausstreuen von personenbezogenen Daten bewusst machen und eine Sensibilisierung zu Datenschutz- und netzpolitischen Themen fördern.

data cloud in der Rückprojektion

Und so sah die Rückprojektion von vorne aus.

Erstmals habe ich die Installation mit zwei großen Beamern präsentiert.  Es gab sowohl eine Frontpräsententation mit einem Kurzdistanzprojektor als auch eine Rücktransformation auf Transparentpapier.

 

Das Technik-Backend

Audio-Pong

Da bei der Extraschicht immer sehr viel Publikum unterwegs ist, habe ich mir dieses Mal etwas Besonderes überlegt. Alternativ zu der großen Videoinstallation konnte ich ein Audio-Pong präsentieren, nachdem die von Heike Kollakowski im Rahmen der Extraschicht angebotenen Handlettering Workshops beendet waren. Das bekannte Pong-Spiel (eine Implementierung in Processing) habe ich um eine Audio-Steuerung ergänzt, die es ermöglicht, dass zwei Spieler per Mikrofon über die Lautstärke der Stimme Ihren Pong-Schläger steuern konnten. Dieses Konzept gab es übrigens schon einmal in den 70′er Jahren im Fernsehen unter dem Namen “Telespiele” moderiert von Thomas Gottschalk. Interessanterweise kannte keiner der Besucher diese Sendung. Ich hatte diese Installation schon einmal im Dezember 2014 bei einer Veranstaltung eingesetzt und später auf der 32C3 eine ähnliche Installation gesehen. Zur Geschichte von Pong gibt es derzeit aktuell noch ein Video in der ZDF-Mediathek zum Download (1,4GB, Die Amiga-Story, alternativ bei youtube).

Audio Pong mit Mikrofonsteuerung

Auch alte Computer / Telespiele sind meiner Ansicht nach Zeugnisse der Industriekultur. Den Besuchern und auch mir hat die Aktion sehr großen Spaß bereitet, da teils sehr lustige Laute zu hören waren ;-).

Das Datenfenster in der Galvanische Zone in der Shortcuts Videodokumentation

3. Mai 2017

Es ist noch eine Videodoku zur galvanischen Zone bei Vimeo eingestellt worden. Ich verlinke hier direkt zum Timecode meines Datenfensters. Es lohnt die Doku auch von Anfang an zu schauen.

Credits im Video, Dank an Christan Spieß für die spannende Rückansicht ;-)

Das Datenfenster in der galvanischen Zone

11. Dezember 2016

Eine Variante meiner Observed-Installation war als Datenfenster in der galvanischen Zone, einem eineinhalbstündigen Audio-visuellen Parcours in der Essener Innnenstadt zu sehen. Die per Funkkopfhörer verteilte Audiospur der galvanische Zone forderte die Teilnehmer auf, sich vom Datenfenster scannen zu lassen, bevor ein Android der galvanische Zone den Zugang zu Lex Spielmanns Galerie “Alte Mitte” gewährte. Im Hinterhof der Galerie der Galerie war die nächste Station der galvanische Zone, eine mit einem Großbeamer animierte Fassade, zu sehen.

Das Datenfenster scannt die Besucher der galvanischen Zone.

 

Der Eingang der Galerie “Alte Mitte” bewacht von dem Datenfenster und den Androiden der galvanische Zone.

Das Datenfenster der galvanische Zone scannt mich.

Die galvanische Zone wurde von dem Künstlerkollektiv Pluspolstadt (Teresa Grünhage, Matthias Plenkmann, Christian Spieß, Jens Maria Weber und Peter Eisold) realisiert. Ich habe mich sehr gefreut, dass meine Arbeit ein Teil der galvanischen Zone geworden ist. An den acht Terminen im November 2016 haben Gruppen von bis zu 50 Besuchern an dem einmaligen interaktiven Parcours / Installation / Audio / Video / Musik / Text / Performance / Projektion / Medienkunst / Theater / Roboter / Vergangenheit / Dokumentation / Zukunft / Parallelwelt / Realität, also einem eigentlich unbeschreiblichen Erlebnis teilnehmen können. Vielen Dank an die Helfer und Mitarbeiter der galvanische Zone, die bei teils eisigen Temperaturen die Zone am Leben erhalten haben!

Die galvanische Zone in der Lokalzeit Ruhr

11. November 2016

Die galvanische Zone ist nun gestartet. Eine Variante meiner “Observed”-Installation ist als Beitrag zur galvanischen Zone im “Datenfenster” in den Parcour integriert. Noch bis zum 26.11.2016 ist die Teilname möglich. Tickets und weitere Infos gibt es hier: http://die-galvanische-zone.de/?page_id=92

Update 18.11.2016: Leider sind alle Termine schon ausverkauft!

Wer noch zur Teilnahme motiviert werden möchte, klicke einfach auf das Video in der Mediathek:

Das Video wird direkt aus der Mediathek des WDR abgespielt und ist verfügbar bis zum 10.11.2017.

Die galvanische Zone – Audiovisueller Parcours City Nord Essen 5.-26. November 2016

6. Oktober 2016

Ich freue mich auf “Die galvanische Zone“, einen audiovisuellen Parcours in der City Nord in Essen, in der auch eine Arbeit von mir zu sehen sein wird. Der Parcours ist vom 5. bis zum 26. November 2016 besuchbar. Es lohnt sich!

Plakat: Jens Weber

Auf der Webseite der galvanischen Zone gibt es unter “work” auch schon ein Foto von den Vorbereitungen.

Treffen mit den Akteuren der galvanischen Zone

Im Gespräch mit den Akteuren der galvanischen Zone © 2016 Die Galvanische Zone

Frühzeitig Karten sichern unter: http://die-galvanische-zone.de/?page_id=92

Observed 4 für die Extraschicht – Nacht der Industriekultur 2016

12. Juli 2016

Da das Depot Spielort der Extraschicht – Nacht der Industriekultur 2016 am 25.6.2016 war, sind auch viele Ateliers für dieses Event geöffnet gewesen. Wir im Büro 14 waren auch dabei. Heike Kollakowski hat einen Handlettering-Workshop angeboten und ich habe die Gelegenheit genutzt, um die Installation Observed 4 auszustellen. Mit dem sehr engagierten Publikum gab es angeregte und auch kontroverse Diskussionen.

Observed 4 für die Extraschicht – Nacht der Industriekultur