Concluding the Shoot

The journey to Lapland as well as my filming of it has concluded a couple of days ago and I want to write a short conclusion of my experiences, struggles and learnings.

All in all I feel like filming worked out quite well, both technically and story-wise. I have been struggling a bit with the cold, but the main issue was mostly my hands and fingers and not the cameras which was good. The batteries have lasted me longer than I had expected and I made it through the whole journey without any battery struggles. I even managed to fly my drone twice, but there the low temperatures did significantly affect how long the battery lasted and I had to do two emergency landings. Nonetheless, I managed to get some nice footage of the snowy marshes and forests of Lapland with members of our group skiing and reindeer sledding. Other than the battery life, I was also a bit concerned with the safety of the camera’s LCD displays because I read online that they might break in really low temperatures. And while filming in minus 30 degrees celsius I noticed that the display moved slower and showed some artefacts. However, once I got the camera warmed up again, the display returned to normal and showed no sign of damage. The times where I was most afraid for the safety of the cameras was while taking Timelapse content of the northern lights where I had the camera out on a tripod in minus 34 degrees for 10 minutes. But even then, the cameras showed no sign of damage after I slowly warmed them back up, so I am positively surprised at the durability of the cameras in low temperatures.

One thing I realised fairly quickly during the filming process is, that most of the time I went with the flow of the journey and group instead of very strictly sticking to my shot list. This also worked out well with the travel group I was filming, because while they were all really good with being filmed during the journey and didn’t mind me recording them, they were quite opposed to “faking” anything. I got frequent comments about how unauthentic things were, even if I just quickly asked someone if they could repeat a movement or move slightly for a better camera angle. So I pivoted towards recording what was happening with almost no interference or commentary from my side, which however sometimes also made it pretty difficult to achieve certain shots I had imagined. Nonetheless, I believe that the footage I collected now really authentically represents the journey, the group and the experiences they had together. Now I just need to manage to create a film in the edit that accurately depicts these experiences while also conveying the story and message I had in mind during the planning phase. But what I mostly learned from this was that you cannot plan for everything that will happen and have to stay flexible and spontaneous enough to adapt to unexpected things that are happening while still keeping the message you want to convey to your viewers in mind to make sure you focus on the right action.

That was also one thing I was struggling with, to let go of the idea of documenting everything and instead focus on what I will actually need for my story. There were many interesting things happening, which, however, did not serve my story or would have just been too much to also fit into my film. While it was difficult to put my camera down at times, it was quite liberating to realise I did not need to film every little detail that was happening.

I really enjoyed the trip and the sense of community in our travel group even though I was technically there to work. This sense of belonging to the group and being part of the experience allowed me to really get a sense of how the journey felt to the participants. However, it also made it difficult at times to stay neutral and as an outsider of the story. What I also realised is, that the moments I most wanted to film because there was some struggle with having to catch a train or packing your bags quickly, I in fact also had to run for the train or pack my stuff, so I could not actually film all that I wanted to film.

All in all, I really enjoyed the experience and could also collect some footage I am quite happy with. Now it is just about refining that footage in the edit and telling the story I have in mind. I also provided photos for the travel group every day and got some really positive feedback from everyone, which, I think also helped with easing their scepticism about me being there and documenting them.

#10 Why Spatial Immersion Intensifies Emotional Response

When we experience a traditional painting or a flat screen animation, there is always a clear separation between the viewer and the work. We stand outside, observing. We can maintain a psychological distance. But when we enter a spatial installation, this distance disappears. We are not just observers anymore, we are participants. The work surrounds us, envelops us, and forces our body into the experience. This shift is crucial for understanding how abstract motion design can generate emotions, particularly stress.

Stress, as an emotion, is strongly tied to the body. Heart rate, breathing, tension, and attention all respond to external stimuli. It is a universal, recognizable emotion. It is physiological and psychological. Unlike joy or sadness, it is closely tied to attention, movement, and bodily awareness. In spatial environments, abstract visual elements like moving light, patterns, and shapes no longer sit at a distance. Instead, they occupy the same space as our bodies (Schmitz et al., 2011). The closer the visual and temporal stimuli are to our physical presence, the stronger their potential impact on emotional intensity. By removing the physical and psychological distance, installations intensify bodily exposure to motion parameters. Unlike screen-based animations, where the body can remain passive, spatial designs require active navigation. The viewer’s position, movement, and orientation directly influence what is perceived. This is where motion design principles, such as rhythm, tempo, repetition, and density, can be used in a controlled way to generate emotional effects.

Spatial installations unfold over time.The experience depends on movement and duration. A hallway of pulsing lights, a room of shifting patterns, or a suspended arrangement of floating shapes all change as you move through them. Temporal design, the core of motion design, is therefore a key tool. By carefully orchestrating the timing of visual changes, the designer can escalate intensity, build tension, or release it. Consider stress as an example. Slow, irregular rhythms may feel uneasy. Fast, dense pulses increase physiological arousal. By adjusting tempo and repetition over time, one can simulate the onset of stress in a non-narrative, abstract environment. The visitor experiences these shifts physically, through subtle bodily reactions, before they even cognitively recognize them.

Hereby the role of navigation and orientation is important. Immersive environments create opportunities for multiple perspectives. Moving through a space changes what is seen, how light reflects, and how patterns interact. The visitor is a co-creator of the experience: their choices determine the path, the duration of exposure, and the angles from which stimuli are perceived (Lennon, 2025). Motion design can respond to this movement by creating feedback loops: lights that shift as a person approaches, patterns that densify when more people occupy a space, or visual flows that guide attention. These interactions are key to understanding emotional response. Stress is not only triggered by the motion itself but also by the unpredictability of the environment and the necessity to adapt. When motion and light respond to the visitor, the intensity of the experience increases. For instance, a fast, repetitive movement on a small screen may cause moderate tension. In a 3D installation that surrounds the body, the same movement can create a sense of overwhelm. By controlling rhythm, density, and directionality, designers can amplify the emotional impact without relying on narrative or symbolic content.

Modern installations often integrate digital technology to create responsive systems. Sensors, projection mapping, LEDs, and sound allow motion parameters to change in real-time based on visitor behavior. These feedback loops enhance immersion and can intensify emotional responses. Stress, in particular, can be modulated dynamically: sudden changes in light rhythm or density in reaction to movement can create moments of heightened tension. Visitors feel as though the space itself is alive, interacting with their bodies and decisions. Spatial installations offer a unique environment to study and apply motion design principles. By integrating rhythm, tempo, repetition, and density with bodily navigation and immersive presence, designers can create abstract experiences that generate stress without narrative or symbolic content. The viewer becomes both subject and co-creator, their body and attention guiding the unfolding of the work.

Bibliography:

Schmitz, A., Merikangas, K., Swendsen, H., Cui, L., Heaton, L., & Grillon, C. (2011). Measuring anxious responses to predictable and unpredictable threat in children and adolescents. Journal of Experimental Child Psychology, 110(2), 159–170. https://doi.org/10.1016/j.jecp.2011.02.014

Lennon, B. (2025). How contemporary installation art uses space, site and scale to create a phenomenological experience for viewers [Master’s thesis, Institute of Art, Design + Technology]. https://hdl.handle.net/10779/iadt.30601340.v1

Werkstück im Mausuleum 

In diesem letzten Blogartikel möchte ich mein geplantes Werkstück vorstellen, das den praktischen Kern meiner Abschlussarbeit darstellen wird.

Das Mausoleum als transzendenter Projektionsraum

Als Aufführungsort ist das Mausoleum Graz vorgesehen. Der sakrale Innenraum soll jedoch nicht im religiösen oder kulturellen Sinne thematisiert werden. Vielmehr interessiert mich die architektonische Struktur als räumliche Skulptur, als Formkörper, der durch Licht transformiert werden kann. Säulen, Gewölbe, Wandflächen und Raumachsen sollen durch die Projektion neu definiert werden.

Geplant ist der Einsatz eines NEC-Weitwinkel-Beamers, der den Innenraum von unten nach oben bespielt. Diese einzelne, künstliche Lichtquelle wird bewusst gewählt: Das Licht ist nicht nur Mittel zum Zweck, sondern Material der Gestaltung. Durch abstrakte Formen, rhythmische Bewegungen und eine reduzierte, wahrscheinlich schwarz-weiße Bildsprache soll eine visuelle Erzählung entstehen, die weniger narrativ als atmosphärisch funktioniert.

Stilistisch knüpft das Projekt an meine bisherigen Arbeiten an, insbesondere an die Projektionen bei Generate 25 in der Helmut-List-Halle sowie an „The Dragon’s Cave“ im Schlossbergstollen. Das neue Werk versteht sich als logische Weiterentwicklung dieser beiden Projekte, jedoch mit stärkerem Fokus auf Raumtransformation und immersiver Wahrnehmung.

Das Mausoleum als audiovisuelle Lichtskulptur

Ziel ist es, das Mausoleum selbst in eine audiovisuelle Lichtskulptur zu verwandeln. Der Raum soll nicht nur beleuchtet, sondern animiert erscheinen. Architektur wird zur Projektionsfläche und zugleich zum Akteur. Durch gezielte Verfremdung möchte ich den Ort in einen Zustand versetzen, der zwischen Realität und Abstraktion oszilliert.

Der Besucher soll aus dem Alltäglichen herausgelöst und in einen zeitlosen Erfahrungsraum geführt werden. Dieser Raum bewegt sich metaphorisch zwischen Raum und Zeit. Es geht um Transzendenz im ästhetischen Sinne, nicht im religiösen. Der sakrale Kontext wird nicht zitiert, sondern transformiert. Das Mausoleum erscheint als temporär umcodierter Raum, als immersive Lichtarchitektur.

Interaktion und gestengesteuerte Animation

Ein zentrales Element des Werkstücks ist die Entwicklung einer gestengesteuerten FBX-Animationstechnik. Derzeit arbeite ich an einem System, bei dem mithilfe eines Bewegungssensors (Modolino) und eines MIDI-Drehreglers Parameter von Animationen in Echtzeit gesteuert werden können. Dadurch sollen Bewegungen, Intensitäten, Partikelsysteme oder Verzerrungen dynamisch kontrollierbar werden.

Diese Interaktion ist nicht primär als partizipatives Element für das Publikum gedacht, sondern als performative Steuerung innerhalb des Systems. Dennoch eröffnet sie die Möglichkeit, das audiovisuelle Geschehen organisch und lebendig wirken zu lassen. Animation wird dadurch weniger linear und stärker prozessual.

Erweiterung der Raumebenen

Eine zusätzliche räumliche Dimension könnte durch den Einsatz eines Holonetzes entstehen. Dieses würde über den Köpfen der Besucher gespannt werden und als weitere Projektionsfläche dienen. So entsteht eine zweite Bildebene im Raum, die nicht frontal, sondern über dem Publikum positioniert ist.

Idealerweise sollen Sitzsäcke oder Liegeflächen installiert werden, damit die Besucher nach oben blicken können. Diese Perspektivverschiebung verändert die Körperhaltung und damit auch die Wahrnehmung. Der Raum wird nicht nur betrachtet, sondern erlebt.

3D-Audio als integraler Bestandteil

Neben der visuellen Ebene ist ein Sechs-Speaker-Setup mit 3D-Audio geplant. Der Klang soll den Raum ebenso modellieren wie das Licht. Durch räumliche Klangbewegungen, gezielte Platzierung von Soundquellen und abstraktes Sounddesign entsteht eine akustische Architektur, die mit der visuellen Projektion korrespondiert.

Das Zusammenspiel aus Licht, Bewegung und Klang soll eine kohärente audiovisuelle Komposition bilden. Sound ist dabei nicht Begleitung, sondern gleichwertiger Bestandteil der Lichtskulptur.

Prototyping und experimentelle Annäherung

Ein wesentlicher Teil der Arbeit wird in das Prototyping fließen. Sollte die Zusammenarbeit mit den Eigentümern des Mausoleums zustande kommen, plane ich zunächst einen LIDAR-Scan des Innenraums. Auf Basis dieser Daten könnte ein präzises 3D-Modell entstehen, das sowohl für Simulationen in Cinema 4D als auch für ein physisches Modell, etwa mittels 3D-Druck, genutzt werden kann.

Dieses verkleinerte Modell würde es ermöglichen, Projektionen und Lichtführungen im Maßstab zu testen und experimentell weiterzuentwickeln. Die technische und ästhetische Erprobung im Vorfeld ist entscheidend, um die Wirkung im realen Raum besser einschätzen zu können.

Ausblick

Das Werkstück soll eine etwa sechs- bis zehnminütige audiovisuelle Installation werden. Es versteht sich als Prototyp, der perspektivisch weiterentwickelt werden könnte. Im Zentrum steht die Frage, wie Architektur durch künstliches Licht, abstrakte Projektion und räumlichen Klang temporär transformiert werden kann.

Die Masterarbeit bewegt sich damit zwischen Medienkunst, Raumforschung und experimentellem Design. Ich bin gespannt, wie sich das Mausoleum als Projektionskörper verhalten wird und welche neuen Erkenntnisse sich aus der Verbindung von Architektur, Licht und Klang ergeben.


Hinweis zur Verwendung von KI

Zur sprachlichen Optimierung und für Verbesserungsvorschläge hinsichtlich Rechtschreibung, Grammatik und Ausdruck wurde ein KI-gestütztes Schreibwerkzeug (Perplexity 2026) verwendet.

Master Thesis Exposé V3

In diesem Blogartikel soll es um die weiter ausgefeilte und konkretisierte Form des Exposés gehen und in welche Richtung sich mein Thema entwickelt hat.

Mit meinem ersten Master-Exposé wollte ich untersuchen, wie Licht als kulturelles, religiöses und atmosphärisches Medium fungiert und fragen, wie natürliches, religiös konnotiertes und künstliches Licht Räume prägt. Ausgangspunkt sollte die jahrtausendealte Lichttradition in sakralen Architekturen, von Maya-, Azteken- und Inka-Bauten bis zur christlichen Kirche sein und die Frage, wie zeitgenössische Medienkunst mit Projektion und Videomapping in diese aufgeladenen Räume eingreift.

Ziel war es, natürliche und künstliche Lichtquellen in sakralen, urbanen und ungewöhnlichen Räumen zu vergleichen, ihre Wirkungsweisen zu analysieren und daraus eine eigene ortsspezifische Lichtinstallation zu entwickeln. Dabei sollten folgende Theorien hinzugezogen werden: Atmosphäre (Böhme, Pallasmaa), Wahrnehmung, Lichttheologie und Lichtkunst (u. a. Turrell, Eliasson) als Grundlage, ergänzt durch Raumanalysen, experimentelle Lichtstudien, ein künstlerisches Werkstück und Besucherforschung.

In Version 3 verschiebt sich der Fokus deutlich: Statt einer breiten „Dreifaltigkeit des Lichts“ in verschiedenen Raumtypen konzentriert sich das Exposé nun klar auf Videomapping im sakralen Raum.

Künstliches Licht wird hier explizit als zeitgenössisches Werkzeug zur Atmosphären-Gestaltung verstanden, das in Kirchen nicht als visuelle Überlagerung, sondern als Fortführung historischer Lichtlogiken eingesetzt werden soll. Im Zentrum steht ein reduziertes Ein-Beamer-Setup, das sich konzeptionell an der Einzigartigkeit des Sonnenlichts orientiert und im Mausoleum Graz in Form einer sechs- bis zehnminütigen, dramaturgisch ausgearbeiteten Mapping-Show erprobt werden soll.

Der Projektteil wird konkreter: Hybride Workflows mit Zeichnung, Modellbau, physischer Lichtmanipulation, 3D-Scanning, KI-gestützter Modellierung und performativer Steuerung (MIDI, Gesten, Live-Tracking) werden gezielt benannt und als Methode zur Entwicklung einer architektursensiblen, rituell erfahrbaren Lichtinszenierung beschrieben.

Wie sich V3 gegenüber der ersten Version weiterentwickelt hat

1. Thematische Fokussierung

V1: Breites Thema „Licht Räume: Natürliches, religiöses und künstliches Licht in sakralen, urbanen und natürlichen Räumen“.

V3: Klarer, enger Arbeitstitel „Videomapping im sakralen Raum“ mit Fokus auf künstliches Licht in Kirchen und Mausoleum.

→ Die Arbeit verschiebt sich von einem vergleichenden Licht-Essay über drei Raumtypen hin zu einer konkreten Untersuchung von Videomapping als ritueller Lichtpraxis im sakralen Kontext.

2. Räumlicher Rahmen

V1: Drei Raumkategorien – sakral (Andräkirche), urban (z. B. Hornig Areal/Klanglicht) und ungewöhnlich/verlassen (Industriehalle o. Ä.).

V3: Konzentration auf einen spezifischen sakralen Ort, das Mausoleum Graz, inklusive Anbindung an ein mögliches Jubiläumsprojekt 2028.

→ Der Raumbezug wird von „vergleichend und breit“ zu „konkret, ortsspezifisch und kuratorisch anschlussfähig“ geschärft.

3. Forschungsfrage und Unterfragen

V1: Zentrale Frage vergleicht natürliches, religiöses und künstliches Licht in verschiedenen Räumen und fragt nach atmosphärischen, symbolischen und räumlichen Bedeutungen.

V3: Zentrale Frage fokussiert hybride analoge und digitale Videomapping-Methoden im sakralen Raum und deren Potenzial, Lichttraditionen zeitgenössisch zu reinterpretieren und neue Raum- und Ritualerfahrungen zu erzeugen.

V1-Unterfragen: kulturelle Lichtbedeutung (Maya, Azteken, Inka, Christentum), Veränderung traditioneller Lichtpraktiken, Wirksamkeit natürlichen vs. künstlichen Lichts, Vergleich verschiedener Orte.

V3-Unterfragen: Wirkung eines Ein-Beamer-Setups im Vergleich zum Sonnenlicht, Beitrag analoger Ausgangsformen, Rolle von KI-Tools, performative Steuerung von Bild und Sound, Videomapping als rituelle Lichtpraxis.

→ Der Fokus wandert von kulturhistorischen und raumtypologischen Vergleichen hin zu gestalterischen, medialen und performativen Fragen innerhalb eines klar definierten Mediums (Videomapping).

4. Hypothese und Zielsetzung

V1-Hypothese: Unterschiedliche Lichtquellen erzeugen je eigene, kulturell und atmosphärisch kodierte Raumwirkungen; künstliches Licht kann bei sensibler Anwendung sakrale Lichtpraktiken fortführen.

V3-Hypothese: Schon ein reduziertes Ein-Beamer-Setup kann – bei präziser räumlicher und zeitlicher Steuerung – starke Atmosphären erzeugen und als zeitgenössische Entsprechung des Sonnenlichts fungieren, ohne die Architektur zu überlagern.

V1-Ziele: Theoretische Analyse, Vergleich dreier Raumtypen, experimentelle Lichtreihe (von Sonne bis Mapping), Entwicklung eines modularen, mobilen Lichtsystems und einer Installation an mindestens einem Ort.

V3-Ziele: Entwicklung eines reproduzierbaren Videomapping-Ansatzes für sakrale Räume, Realisation einer konkreten sechs- bis zehnminütigen Show im Mausoleum samt analytischer und künstlerischer Reflexion.

→ Zielbild und Output werden in V3 viel konkreter: Es gibt ein klar definiertes Werkformat, einen Ort und eine mögliche Wiederverwendung.

5. Methoden- und Technikschärfung

V1: Sehr breites Methodenset – Theorie, drei Raumanalysen, experimentelle Reihe (Sonnenlicht, Kerzen, Prismen, Solar-Setup, Mapping), mobile Lichtsysteme, Besucherinterviews, künstlerische Installation in variablen Orten.
V3: Methoden konzentrieren sich auf Mausoleum-Analyse, analoge und digitale Experimente, Ein-Beamer-Mapping mit Holonetz/Sound, performative Steuerung (Sensoren, Controller, Live-Tracking), Aufzeichnung der Performances und Auswertung.
→ Aus einer eher explorativen „Werkzeugkiste“ wird ein fokussierter, auf ein konkretes Projekt hin ausgerichteter Methodenmix mit klarer technischer Roadmap.

6. Rolle von Technologie und KI

V1: Mappingsoftware und Projektoren werden genannt, aber eher als generische Tools; KI spielt noch keine explizite Rolle.

V3: KI-gestützte Modellierung, 3D-Scanning, Video-Time-Remapping und performative Steuerung werden explizit als Forschungsgegenstand benannt.

→ Technologie wird in V3 nicht nur als Werkzeug, sondern auch als Teil der Fragestellung verstanden (z. B. Rolle von KI bei der Transformation analoger Inhalte).

7. Dramaturgie, Performativität und Ritus

V1: Rituelle Dimension von Licht ist eher inhaltlich/theoretisch verankert (Licht als Träger von Transzendenz, sakrale Atmosphäre, anthropologische Perspektive).

V3: Videomapping wird als potenziell „zeitgenössische Form ritueller Lichtpraxis“ diskutiert; körperbasierte Steuerung und gestische Animationsqualitäten werden direkt mit Raum- und Ritualerfahrung verknüpft.

→ Die rituelle Ebene rückt näher an die konkrete Gestaltungspraxis: Nicht nur „Licht als Symbol“, sondern performative Inszenierung von Licht, Klang und Zeit im sakralen Setting.

Fazit

Von der ersten Version zu V3 ist im Kern ein Prozess der Fokussierung und Konkretisierung.

Aus einer weit gefassten Untersuchung von Licht in verschiedenen Kulturen und Raumtypen ist ein klar konturiertes Projekt geworden, das sich präzise mit Videomapping im sakralen Raum, dem Mausoleum Graz als Versuchsfeld und der Frage nach einer zeitgenössischen rituellen Lichtpraxis beschäftigt. Gleichzeitig bleibt die theoretische Tiefe erhalten, wird aber stärker auf die eigenen künstlerischen Entscheidungen, Workflows und technischen Setups geknüpft.


Hinweis zur Verwendung von KI

Zur sprachlichen Optimierung und für Verbesserungsvorschläge hinsichtlich Rechtschreibung, Grammatik und Ausdruck wurde ein KI-gestütztes Schreibwerkzeug (Perplexity 2026) verwendet.

Arduino, Modulino und TouchDesigner: Wenn Sensorik 3D-Figuren zum Tanzen bringt

In meiner neuesten Versuchsreihe experimentiere ich mit der Verbindung von Arduino, Modulino-Sensoren und TouchDesigner. Ein Setup, das analoge Sensorik mit digitaler 3D-Animation verknüpft. Ziel war es, eine intuitive Steuerung für animierte FBX-Avatare zu entwickeln, bei der reale Interaktionen, etwa die Bewegung der Hand unmittelbar Einfluss auf virtuelle Bewegungsparameter nehmen.

Der Prototyp basiert auf einem humanoiden FBX-Avatar aus der Mixamo-Bibliothek. Die Idee: Die Figur “tanzt” schneller oder langsamer, je nachdem, wie nah oder fern die Hand vom Sensor ist. Gleichzeitig wird die Geschwindigkeit eines Videoclips über denselben Wert moduliert. Dadurch entsteht eine doppelte Dynamik: Bewegung in Ton und Bild reagieren gemeinsam auf physische Gesten.

Technisch läuft das Zusammenspiel über den Arduino, der mit einem Modulino-Sensor (ein kompakter, kostengünstiger Touch- bzw. Distanzsensor, etwa 1 € pro Stück) ausgestattet ist. Die Sensordaten werden seriell mit einer stabilen Baudrate von 115200 an TouchDesigner gesendet. Dort werden sie mit einem DAT to CHOP-Knoten eingelesen, gefiltert und über einen Math CHOP sanft geglättet. So wirken die Bewegungen der Figur nicht sprunghaft, sondern organisch. Eine grüne LED auf dem Arduino signalisiert aktiven Datenfluss und ein Timer-Loop von rund 10 Sekunden sorgt für eine stetige, gleichmäßige Dynamik.

Die Kommunikation zwischen Arduino und TouchDesigner erweist sich überraschend performant. FBX-Modelle lassen sich direkt über den Geometry COMP importieren und mit einem Render TOP visualisieren. Selbst komplexere Animationen laufen flüssig, was den Einsatz für Echtzeit-Performances oder interaktive Installationen besonders spannend macht.

Nächste Versuchsreihe: Von Bewegung zu Video

Der nächste Schritt wird darin bestehen, die generierten Bewegungen aufzuzeichnen, also nicht nur live zu visualisieren, sondern auch als Render-Video zu exportieren. Zusätzlich möchte ich verschiedene FBX-Animationen ausprobieren, die über den Sensoreingang oder andere Parameter getriggert werden. Besonders reizvoll ist die Frage, ob sich Partikelanimationen aus Cinema 4D (als FBX oder Alembic-Datei) ähnlich steuern lassen. TouchDesigner bietet bereits gute Frame-Interpolation, was für fließende Übergänge zwischen Animationsphasen entscheidend ist. So könnte eine ganze Palette kinetischer Effekte entstehen, die auf Handbewegungen oder Umwelteinflüsse reagieren.

Ausblick: Erweiterung mit MIDI

Parallel plane ich, das Setup um MIDI-Steuerung zu erweitern. Dabei könnten Regler, Pads oder Drehknöpfe eines MIDI-Controllers die Animationsgeschwindigkeit, Lichtfarbe oder Partikelmenge variieren. TouchDesigner erlaubt die Einbindung von MIDI-Daten über das MIDI In CHOP-Interface, das ähnlich wie die Arduino-Daten weiterverarbeitet werden kann. Auf diese Weise entsteht ein hybrides Interface: halb physisch, halb digital –, das Bewegungen, Musik und Licht miteinander verschmilzt.

Fazit

Das Experiment zeigt, wie vielseitig die Kombination aus Arduino, Modulino und TouchDesigner sein kann. Ein einfacher Sensor genügt, um virtuelle Figuren lebendig wirken zu lassen. Die Grenzen zwischen physischer und digitaler Interaktion beginnen zu verschwimmen und genau dort eröffnet sich ein spannendes Feld für neue audiovisuelle Erlebnisse.

GONE

In diesem Blogartikel soll es um meine gewonnenen Erkenntnisse und nächsten Schritte mit der interaktiven Installation GONE gehen, die im Fach Dynamik Media unter der Leitung von Peter Venus entstanden ist.

„GONE“ ist eine interaktive audiovisuellen Installation, die das Schmelzen der Pasterze, des größten Gletschers Österreichs, erfahrbar macht und als memoriales Mahnmal für die Folgen der Klimakrise fungiert. Im Zentrum steht ein hochauflösendes 17,5 x 17,5 cm großes 3D‑Modell eines 12 km² großen Gletscherabschnitts, das mittels Dual‑Projection (Unterprojektion vom Screen, obere Partikelprojektion) und Sounddesign durch eine Handgeste über einen Sensor, durch Auf- und Absenken scheinbar schmilzt und sich wieder aufbaut. Absenken beschleunigt die Auflösung, Entfernen setzt einen Wiederaufbau in Gang. Die audiovisuelle Ebene basiert auf granularer Synthese und Aufnahmen von Schnee, Wasser und Eis, die drei Klangzustände formen.

Ziel war es, abstrakte Klimadaten in eine körperliche Erfahrung zu übersetzen: Das scheinbar spielerische „Schmelzen“ macht Besucher:innen zu Akteur:innen und konfrontiert sie direkt mit ihrer eigenen Verantwortung.

Die Realisierung durchlief einen intensiven Prototyping-Prozess: Von lasergeschnittenen Acryl-Schichtmodellen mit semi-transparenter Unterprojektion zum finalen Resin-3D-Druck auf recyceltem Holzstand. Technisch kamen Arduino mit Modulino-Sensor, FH-Laptop, Sonic-Speaker sowie Max 9 und Resolume zum Einsatz, doch der Laptop-Ausfall am dritten Ausstellungstag (instabile Ports, fehlende Admin-Rechte) zeigte die Schwächen komplexer Setups mit unnötigen Fehlerquellen. Trotzdem bewies die Kombination aus Objekt, Projektion und Sound ihre emotionale Wirkung als Klima-Vermittlung.

Optimierung der Sensorik und Hardware-Plattform


Aus den Learnings leitet das Team ein klares Optimierungskonzept ab, das sich insbesondere auf eine robustere und präzisere Sensorsteuerung konzentriert: Künftig soll „GONE“ auf einer einheitlichen, stabileren Plattform wie TouchDesigner laufen, mit eigener, zuverlässiger Rechnerhardware und einem kontinuierlich arbeitenden Hand- oder Touch‑Sensor. Nach intensiver Recherche und Prototyping-Tests im BerryBase-Sortiment hat sich der Raspberry Pi Pico als überlegene Alternative zum ursprünglichen Arduino herausgestellt – mit 26 GPIO-Pins (vs. 14 beim Arduino Uno), 12-Bit-ADC-Auflösung für feinere Messwerte und PIO-Funktionen für flexible Protokolle, die präzise Handflächen-Interaktionen ermöglichen, ohne unnötige Komplexität. Für die Gestensteuerung (Annäherung schmilzt, Absenken beschleunigt, Entfernen baut auf) eignet sich der kapazitive Touch-Sensor TTP223 optimal: Er erkennt Berührung oder Nähe über eine größere Fläche (z. B. unter einer Acrylplatte), liefert ein stabiles digitales Signal und erlaubt eine Zeitmessung – je länger die Hand aufliegt, desto weiter schreitet die Schmelzanimation in TouchDesigner voran, gesteuert über serielle Daten (z. B. als Float-Werte von 0–1). Alternativen wie ein berührungsloser Infrarot-Temperatursensor (z. B. MLX-basiert) könnten die Wärme der Handfläche nutzen, um die Auflösung kontinuierlich zu beschleunigen, oder ein Force-Sensitive-Resistor (FSR) für druckbasierte Variationen, wobei letzterer bei BerryBase ergänzt werden müsste. Der Pico (3,3 V) verbindet sich nahtlos via UART-Serial mit TouchDesigner, wo ein Serial DAT die Werte empfängt, normalisiert und direkt auf Speed- oder Timeline-Parameter der FBX-Gletscheranimation routed – MicroPython erleichtert schnelles Prototyping ohne ständigen Upload. Diese Wahl minimiert Ausfälle durch mehr Pins, niedrigeren Stromverbrauch und Kompaktheit, während Level-Shifter 5-V-Sensoren sicher integrieren.

Professioneller Transportabler Stand
Geplant ist zudem ein professionell gestalteter, transportabler Stand aus mattem Holz oder Aluminium mit integriertem Projektor (Throw Ratio ca. 0,5), der die Arbeit festival‑ und touring‑tauglich macht, etwa für einen Einsatz bei der Ars Electronica. 

Bauanleitung: Transportabler Stand für „GONE“

Materialien (für 24″-Screen-Box, max. 1,30 m hoch):

  • Anthrazitfarbene Kompaktplatte Hornbach (2800 x 1300 x 6 mm, RAL 7016) – wetterfest, UV-stabil, matt-minimalistisch.​
  • Schrauben, Winkelverbinder, Leim; Werkzeuge: Säge, Bohrer, Schleifpapier.​

Schritt 1: Zuschnitt bestellen
Beim Hornbach-Service: 2x Vorder-/Rückwand (600 x 1300 mm), 2x Seiten (400–600 x 1300 mm Tiefe für Sensorraum), Reste für Rippen/Verstrebungen. Höhe nutzt volle 1,30 m Plattenbreite.​

Schritt 2: Vorbereitung
Kanten abschleifen, Löcher für Kabel/Sensor (Pico + TTP223) vorbohren. Innenraum für Raspberry Pi Pico, Serial-Kabel und Projektor vorbereiten.​

Schritt 3: Montage

  • Seitenwände mit Winkelverbindern/Schrauben fixieren (Tiefe 40–60 cm).
  • Innere Rippen für Stabilität (6 mm Dicke hält 5–10 kg Screen).​
  • Screen oben montieren, Projektor (Throw Ratio 0,5) integrieren – mattes Anthrazit rahmt Dual-Projektion schick ein.​

Schritt 4: Abschluss & Test
Leimfugen glätten, transportabel verpacken. Test: Gletscher-Modell stabil, Gesten-Sensor funktioniert: festivaltauglich für Ars Electronica.​

Ergebnis: Robuste, elegante Box – kratzfest, pflegeleicht und perfekt zur Ästhetik von „GONE“.


Hinweis zur Verwendung von KI

Zur Recherche sowie der sprachlichen Optimierung und für Verbesserungsvorschläge hinsichtlich Rechtschreibung, Grammatik und Ausdruck wurde ein KI-gestütztes Schreibwerkzeug (Perplexity 2026) verwendet.

8. IMPULS: LlumBCN – Part 2: Sant Martí im Zeichen der Lichtkunst

LlumBCN – Kontext und Dichte

Über das Festival verteilt wurden insgesamt zwölf professionelle Lichtinstallationen gezeigt, ergänzt durch 21 weitere Projekte von Schulen und Universitäten im Viertel Sant Martí.

Parks, Museen, Universitäten, Straßenkreuzungen, öffentliche Plätze und das Design Museum Barcelona fungierten dabei als temporäre Ausstellungsräume und verwandelten das Viertel in einen nächtlichen Ort für Licht.

Die Bandbreite der Arbeiten reichte von statischen Lichtskulpturen bis zu sehr unterschiedlichen Projektionen, etwa klassische Fassadenprojektionen, Projektionen auf Hologaze-Netze und Glasflächen sowie eine Laserinstallationen.

Gerade diese mediale Vielfalt macht LlumBCN für mich als Mediengestalterin inspirierend: Licht erscheint weniger als „Beleuchtung“, sondern als Material, das in unterschiedliche räumliche und atmosphärische Konstellationen eingebettet wird. Im direkten Vergleich zum Grazer Klanglicht fällt für mich dennoch eine qualitative Differenz auf. Während Klanglicht in seiner kuratorischen Auswahl und technischen Ausführung oft sehr präzise wirkt, hatte LlumBCN dieses Jahr stellenweise etwas Unebenes; nicht jede Installation schien denselben gestalterischen und dramaturgischen Tiefgang zu besitzen. Auch wirkten die vielen Lichter der Stadt von Barcelona wie eine zusätzliche Überlagerung, die den Fokus mancher Arbeiten etwas verschob.

Next Nature II – Wasser, Klang und Projektion

Besonders eindrücklich war für mich die Installation „Next Nature II“ von Rotor Studio (Ángeles Angulo, Román Torre), gezeigt an der Fassade von L’Auditori, Llanterna.

Die Arbeit präsentiert ein hybrides Ökosystem zwischen physischer und digitaler Sphäre, in dem Wasser und Sound eine vollständig sensorische Erfahrung formen.

Eine projizierte virtuelle Wasserfall-Landschaft lädt das Publikum ein, sich durch einen ruhigen, beinahe kontemplativen Raum zu bewegen.

Die Installation verknüpft die Bewegungen der Besucher mit Parametern des Ökosystems, sodass Körper, Technologie und Natur gleichsam in ein fragiles Gleichgewicht gebracht werden.

In der Beschreibung wird explizit von einem Raum der Ruhe und Reflexion gesprochen, in dem der urbane Kontext temporär in eine Zone der Gelassenheit transformiert wird.

Gestalterisch nähert sich Next Nature II meinen derzeitigen Arbeitsweisen an: Die schwarz‑weißen, abstrakten Visuals auf dem Holonetz erinnern an digitale Strukturen, die zugleich organisch wirken. Der Klang des Wassers wurde vor Ort durch zwei reale Wasserdurchläufe erzeugt, die links und rechts der Besuchenden platziert waren; dieses physische Wassergeräusch diente als akustische Folie für den virtuellen Wasserfall und verschränkte Projektion und Realität in einer gemeinsamen Wahrnehmungsschicht.

Für meine Masterarbeit ist diese Installation interessant, weil sie eine künstliche Lichtlandschaft schafft, die dennoch stark mit natürlichen Referenzen (Wasserfall, Ökosystem, Ruheort) arbeitet. Es verschiebt sich die Grenze zwischen natürlichem und künstlichem Licht.

Es zeigt, wie künstliches Licht, in Form von Projektion und Mapping, traditionelle Natur- und Lichtpraktiken transformiert. Ein kontrolliertes, künstliches Setting, in dem Licht zur Schnittstelle zwischen Körper, Architektur und digitalem Ökosystem wird.

Für meine eigene künstlerische Praxis im Bereich Video Mapping und audio-visueller Installationen nehme ich aus dieser Arbeit vor allem zwei Impulse mit: Erstens, wie stark der Einsatz von reduziertem, abstraktem Bildmaterial sein kann, wenn er mit einem klaren räumlichen Setting verbunden ist. Zweitens, wie effektiv echte physische Elemente, wie Wasser und dessen Klang, die Glaubwürdigkeit und Atmosphäre einer ansonsten komplett künstlichen Lichtumgebung steigern können.

Mein persönliches Highlight des Festivals war dennoch die Arbeit von MO:YA, auf die ich im vorherigen  Impulsblog detaillierter eingegangen bin.


Hinweis zur Verwendung von KI

Zur sprachlichen Optimierung und für Verbesserungsvorschläge hinsichtlich Rechtschreibung, Grammatik und Ausdruck wurde ein KI-gestütztes Schreibwerkzeug (Perplexity 2026) verwendet.

7. IMPULS: LlumBCN – Part 1: Fraktale Animationen

In diesem Impulsblog möchte ich meine Eindrücke und Erfahrungen vom LlumBCN Lichtfestival 2026 in Barcelona teilen.


Von diesem Festival erfuhr ich durch Birgit Lill-Schnabl, die Kuratorin des Klanglicht Festivals in Graz. Sie erzählte mir, dass das Festival vom 6. bis 8. Februar in Barcelona stattfinden würde und dass sie als Co-Kuratorin gemeinsam mit dem Künstlerkollektiv MO:YA daran beteiligt sei.
MO:YA präsentierten dort ihre fraktal-generative Animation “Mantra Intervention” , ein Projekt, das sie bereits in ähnlicher Form beim Klanglicht Festival im Schauspielhaus Graz gezeigt hatten. Für LlumBCN entwickelten sie die Arbeit weiter und brachten sie auf eine neue Bühne, die Fassade des RBA-Gebäudes in den Jardins de Ca l’Aranyó an der Roc Boronat 142.

Sie wurden als Art Headliner des Festivals ausgewählt. Ihre fraktalen Animationen passten nicht nur gut zu Gaudís organischer Formensprache, sondern auch zum Kontext, dass Barcelona 2026 zur „World Capital of Architecture“ erklärt wurde.
Die Installation erforschte das künstlerische Potenzial generativer audiovisueller Systeme im öffentlichen Raum. Besucher:innen wurden in ein immersives Umfeld aus Licht, Projektion und Klang eingeladen, in dem Bild und Musik in Echtzeit aus einem gemeinsamen Regelwerk, inspiriert von fraktaler Geometrie und architektonischen Strukturen, generiert wurden.

Für die Projektion kamen vier besonders lichtstarke Projektoren der Firma Barco zum Einsatz. Durch sogenanntes Stacking sollten sie ein großflächiges, hochauflösendes Bild in 4K erzeugen, das die gesamte Gebäudeoberfläche bespielte. Die Animation selbst bestand aus drei verschiedenen, in Unreal genereierten, Fraktalsequenzen, die sich in einem schwebenden weißen Raum entfalten und gegenseitig überlagern konnten. Über einen Touchscreen konnten die Besucher:innen aktiv mit der Projektion interagieren und verschiedene Parameter, etwa Form, Bewegung oder Farbintensität, beeinflussen.
Die Musik, ein Mix aus Downtempo, 4/3-Ambient und Drum’n’Bass, schuf eine hypnotische Klangkulisse, die die visuellen Elemente stimmungsvoll ergänzte. Diese Kombination aus rhythmischer Struktur und sphärischen Texturen versetzte die Besucher:innen in einen fast meditativen Zustand.
Technisch arbeiteten MO:YA mit der Unreal Engine und einer RTX 4090, ihre eigene Workstation hatten sie eigens im Handgepäck nach Barcelona mitgebracht.
Im Laufe des Festivals fiel einer der Projektoren aus. Schließlich entschied man sich, auch den dritten nicht zu verwenden und auf das ursprüngliche Stacking-Setup zu verzichten.


Hinweis zur Verwendung von KI

Zur sprachlichen Optimierung und für Verbesserungsvorschläge hinsichtlich Rechtschreibung, Grammatik und Ausdruck wurde ein KI-gestütztes Schreibwerkzeug (Perplexity 2026) verwendet.

#10 Lagger Homework

Introduction

  • Author: Christopher Blake Evernden 
  • Title: Digital Imperfections: Analog Processes in 21st Century Cinema 
  • Degree: Master of Fine Arts, New Media 
  • Institution: University of Lethbridge 
  • Year: 2014 
  • Supervisors: Dr. Aaron Taylor, Deric Olsen 
  • Work piece: Prairie Dog (feature film) 
  • Document type: Support paper (theoretical and methodological companion to a creative thesis) 

Structure

The support paper is divided into six main sections:

  1. Introduction 
  2. Research Aims 
  3. Justification of Research Methods 
  4. Prairie Dog Sequence Analysis (subdivided into six sequences) 
  5. Conclusion 
  6. Works Consulted 

Overall Presentation Quality

The thesis presents itself with professional formatting, consistent academic tone, and clear visual documentation (figures, stills, and references to both historical and original materials). The writing is good, and image placement supports the analysis great. The integration of film stills, diagrams, and compositional notes contributes to a high production and presentation standard.

Degree of Innovation

He challenges the dominance of digital perfectionism by reintroducing analog imperfection as a creative and perceptual strategy. The argument, that imperfection restores audience participation in the cinematic illusion, is both original and theoretically grounded. The practical film component (Prairie Dog) provides an artistic experiment that tests these concepts through practice-based research.

Independence

The thesis demonstrates significant autonomy. Evernden independently designed, executed, and documented a complex mixed-media film production. His integration of practical analog effects (miniatures, water-tank photography, matte painting, puppetry) with digital compositing reflects both technical mastery and independent vision.

Organization and Structure

The document follows a coherent progression from theoretical framing to methodological justification and applied analyses. Each chapter builds logically toward the concluding synthesis. The analytical breakdown of individual sequences is systematic and mirrors scientific rigor while maintaining artistic sensibility. Occasionally, the prose becomes dense, and transitions between theory and production description could be better.

Communication

The writing style is formal, precise, and reflective of graduate-level scholarship. Evernden successfully integrates critical theory (e.g., Dudley Andrew, Wollheim, Geuens, Casetti) with personal reflection on artistic process. Occasionally, the text leans toward verbosity and could benefit from tighter phrasing for non-specialist readers. Nevertheless, the articulation of theoretical ideas and practical insights is highly effective.

Scope

The scope is well-calibrated: the paper covers theoretical discourse, historical contextualization, and practical experimentation within the limits of an M.F.A. thesis. It neither overreaches nor becomes superficial. The dual emphasis on analysis and creation ensures both academic and artistic relevance.

Accuracy and Attention to Detail

Citation practices, formatting, and visual documentation are precise. Technical descriptions (e.g., lighting, compositing, analog setups) are specific and carefully recorded. A few passages might have benefited from additional proofreading for stylistic conciseness, but overall, the attention to both linguistic and formal detail is impressive.

Literature

The bibliography is well-curated and demonstrates deep engagement with film theory, aesthetics, and digital media studies. Authors such as Dudley Andrew, Francesco Casetti, and Jean-Pierre Geuens are effectively contextualized. However, the inclusion of more recent sources (post-2010 digital cinema criticism) would have strengthened the contemporary dialogue.

Overall Assessment

Christopher Evernden’s Digital Imperfections: Analog Processes in 21st Century Cinema is an exceptional M.A. thesis that merges scholarly analysis with creative experimentation. Its strengths lie in conceptual originality, technical sophistication, and theoretical depth. The creative project, Prairie Dog, serves as both proof-of-concept and aesthetic manifesto, embodying the thesis argument that imperfection re-humanizes the digital image.

#9 Die Neuro-Ontologie der Nähe: Rauminszenierung als empathischer Katalysator im Branded Short

Eine Analyse der affektiven Bildwirkung am Beispiel von „First Speech“ und „Through my Eyes“

Im Genre des Branded Short Film und explizit in den Formaten von NGOs wie dem UNHCR oder journalistischen Kampagnen, ist die Zeit die kritischste Ressource. Um innerhalb von 120 bis 180 Sekunden eine nachhaltige emotionale Resonanz zu erzeugen, reicht eine lineare Narration oft nicht aus. Eine Synthese aus der klassischen Filmtheorie André Bazins und aktuellen neuroästhetischen Untersuchungen legt nahe, dass die visuelle Raumkonstruktion der entscheidende Faktor für die Induktion von Empathie ist. Elen Lotman argumentiert in ihrer Untersuchung, dass die visuelle Verstärkung von Tiefe eines der am häufigsten genutzten Werkzeuge ist, um die wahrgenommene Empathie gegenüber Leinwandcharakteren zu steuern.

Bazin und die psychologische Notwendigkeit des Raumes

André Bazin sah im „Mythos vom totalen Kino“ das Bestreben, die Realität in ihrer räumlichen und zeitlichen Integrität zu rekonstruieren. Für ihn war die Tiefenschärfe kein bloßer Stil, sondern ein ontologisches Mittel, um dem Zuschauer die Freiheit der Wahrnehmung zurückzugeben und ihn in das Bild „einzubeziehen“.

Diese theoretische Annahme findet nun eine neurophysiologische Entsprechung. Lotman verweist darauf, dass neurobiologische Beweise eine Verbindung zwischen emotionaler Empathie und der Nutzung raumschaffender visueller Werkzeuge nahelegen. Wenn wir verstehen, wie das Gehirn Raum verarbeitet, verstehen wir auch, wie wir in Formaten wie First Speech Nähe erzeugen können.

Embodied Simulation vs. Theory of Mind: Die Wahl der Empathie

Um die Wirkung von Branded Shorts zu präzisieren, muss zwischen zwei Klassen empathischer Prozesse unterschieden werden, die Lotman unter Rückgriff auf Zaki und Ochsner definiert:

  1. Experience Sharing (Embodied Simulation – ES): Dies beschreibt eine affektive Reaktion, bei der der emotionale Zustand einer anderen Person geteilt wird (emotionale Ansteckung oder Resonanz).
  2. Mentalising (Theory of Mind – ToM): Hierbei handelt es sich um die kognitive Fähigkeit, die Perspektive einer anderen Person einzunehmen (Sympathie, Mitgefühl).

Für emotionale Kampagnenfilme ist meist die Embodied Simulation das Ziel. Lotman postuliert, dass bestimmte visuelle Werkzeuge genutzt werden, um diese Form der „verkörperten Simulation“ durch eine tiefenbetonte Bildgestaltung zu verstärken. Im Gegensatz dazu führen Techniken, die die Räumlichkeit reduzieren (Verfremdung), eher zu kognitiven Prozessen der Theory of Mind.

Die Amygdala als Schnittstelle von Raum und Affekt

Die Korrelation zwischen Raumwahrnehmung und Gefühl ist neuroanatomisch fundiert. Forschungsergebnisse deuten darauf hin, dass die Amygdala, zentral für emotionale Bewertungen auch eine entscheidende Rolle bei der Kodierung von räumlichen Informationen spielt. Die Amygdala moduliert die Raumwahrnehmung und ist gleichzeitig essenziell für das Empfinden emotionaler Empathie. Eine Bildgestaltung, die den Raum betont, signalisiert dem Gehirn somit eine höhere Salienz (Salienz [engl. salience; lat. salire springen], [SOZ], Bedeutsamkeit, das Hervortreten, z. B. von Merkmalen bei einer Person) und erleichtert die emotionale Involvierung.

Fallbeispiel I: „Through my Eyes“ (UNHCR) – Die Konstruktion der physischen Präsenz

Im Kontext von POV Szenen wie in Through my Eyes wird die Notwendigkeit der Embodied Simulation besonders deutlich.

  • Visuelle Strategie: Es wird mit Augenähnlichen Brennweiten gefilmt, die noch mehr die POV Symbolik verstärken sollten. Die Einstellungen sind of sehr eng und zeigen nicht viel vom Frame. dies hat wahrscheinlich damit zu tun, das die Sets nicht riesig waren und damit man das Gefühl von Enge vermitteln kann.
  • Anwendung der Theorie: Experience Sharing (Embodied Simulation – ES). Der Zuschauer fühlt sich in der Situation gefangen. Am Ende schwingt der Film um auf Mentalising (Theory of Mind – ToM) um. Wir fühlen mit der Person mit und was sie erlebt hat.
  • Der Effekt: Durch diese Hyper-Räumlichkeit wird die Amygdala aktiviert. Der Zuschauer „denkt“ nicht über das Flüchtlingslager nach (ToM), sondern sein Gehirn simuliert die physische Anwesenheit (ES). Die emotionale Distanz wird durch die räumliche Immersion eliminiert.

Fallbeispiel II: „First Speech“ (Free Press) – Die Isolation des Subjekts

Im Gegensatz zur Isolierung des Subjekts wählt die Kampagne The First Speech einen diametral entgegengesetzten visuellen Ansatz, der die theoretischen Annahmen von Lotman bestätigt. Der Film zeigt nicht die Redner (die Diktatoren), sondern die Zuhörer die Bürger in ihren Wohnzimmern, Cafés und Arbeitsplätzen, die hoffnungsvoll den ersten Worten ihrer neu gewählten Führer lauschen.

  • Visuelle Strategie: Integraler Realismus und Kontext Anstatt den Raum zu eliminieren, zelebriert die Kamera hier den Kontext. Wir sehen detailreiche, tief gestaffelte Tableaus des alltäglichen Lebens. Die Lichtarchitektur ist naturalistisch („Space-inducing Light“), oft mit weichen Texturgradienten und einer spürbaren räumlichen Tiefe, die durch Fenster, Möbel und die Anordnung der Personen im Raum erzeugt wird.
  • Anwendung der Theorie: Embodied Simulation durch Immersion Nach Lotman triggert diese Betonung von Räumlichkeit und Kontext („Depth Cues“) die Embodied Simulation (ES). Das Gehirn des Zuschauers rekonstruiert den dreidimensionalen Raum und platziert sich zu den Bürgern. Wir beobachten sie nicht distanziert (was eine Theory of Mind-Reaktion wäre, bei der wir über ihre Naivität urteilen könnten), sondern wir „bewohnen“ denselben Raum. Die Amygdala kodiert die räumliche Nähe als emotionale Relevanz.
  • Der Effekt: Affektive Dissonanz Der Film nutzt die durch die Rauminszenierung erzeugte Embodied Simulation, um eine emotionale Falle zu stellen. Da wir visuell und affektiv mit den hoffnungsvollen Bürgern verbunden sind („Experience Sharing“), spüren wir ihre Zuversicht physisch mit. Wenn wir dann realisieren, wessen Worte dort gesprochen werden (z.B. Putin oder Erdoğan) und wie sich die Geschichte entwickelte, entsteht eine schmerzhafte Dissonanz. Die visuelle Nähe zwingt uns, den Verrat an der Freiheit nicht als historisches Faktum zu analysieren, sondern als persönlichen Verlust zu empfinden. Eine flachere, distanziertere Bildsprache hätte uns erlaubt, sicher im „Hier und Jetzt“ zu bleiben; die immersive Tiefe jedoch zieht uns in das fatale „Damals“ der Opfer.

Fazit

Die Entscheidung für eine bestimmte Lichtarchitektur ist keine rein ästhetische Frage, sondern eine psychologische Weichenstellung. Wer emotionale Nähe will, muss Raum konstruieren. Die visuelle Verstärkung der Tiefe dient dabei als Trigger für die Amygdala, um den Zuschauer aus der bloßen Beobachtung (Theory of Mind) in das unmittelbare Erleben (Embodied Simulation) zu überführen. Empathie im Film ist somit, wie Lotman zeigt, direkt mit den Parametern der Raumwahrnehmung korreliert. Je mehr Seiten eines Würfels wir sehen, desto räumlicher wirkt er für uns.

Quellen:

Bazin, A. (1967). The myth of total cinema. In H. Gray (Trans.), What is cinema? (Vol. 1, pp. 23–32). University of California Press.

Lotman, E. (2016). Exploring the ways cinematography affects viewers’ perceived empathy towards onscreen characters. Baltic Screen Media Review4, 88–105.