03.06.: Das 1×1 des Gaffers

Nach einer genaueren Einführung wie man Licht eigentlich misst und was eine gute Belichtung ausmacht, möchte ich mich in diesem Blogpost genauer mit dem Equipment beschäftigen, das auf Filmsets genutzt wird. Dies hilft mir später auch das richtige Equipment für meinen Kurzfilm auszuwählen. Außerdem enthält dieser Blogpost einen kurzen Exkurs in die physikalischen Eigenschaften von Licht.

Lichtquellen

Phil Rhodes teilt Lichtquellen in Tageslicht, Licht aus Glühbirnen (Incandescent), Leuchtstofflampen (bei uns oft fälschlicherweise Neonlampen genannt), Lichtogenlampen (HMI, CMH, Plasma, Xenon) und LED´s ein. Jedem dieser Lichtquellen widme ich nun eine kleine Erklärung.

Tageslicht

Temperatur, Intensität und Qualität von Tageslicht hängt von vielen Faktoren ab, wie Wetter, Uhrzeit, Ort und Seehöhe. Grundsätzlich lässt sich aber definieren, dass Tageslicht an einem wolkenlosen Tag sehr hart und viel stärker als das Umgebungslicht des restlichen Himmels ist. Daraus ergeben sich kantige Schatten und ein Key-to-Fill Ratio von etwa 7:1. An bewölkten Tagen verhalten sich die Wolken wie eine riesige Softbox und erzeugen damit verbunden auch eine fast schattenlose, durchgehende Ausleuchtung. Tageslicht besteht außerdem aus dem vollen Spektrum an sichtbarem Licht, was viele Vorteile bietet.

Exkurs Metamerismus:

Das sichtbare Licht besteht aus verschiedenen Lichtwellen mit unterschiedlicher Wellenlänge. Die Wellenlänge bestimmt dabei in welcher Farbe ein Licht wahrgenommen wird. Natürliches Licht wie Sonnenlicht enthält alle Farben des Spektrums, die dann gemeinsam als weiß wahrgenommen werden. Dies ist aber nicht zwingend nötig. Technische Geräte nutzen ja oft nur drei Farben – Rot, Grün und Blau – und können durch Mischung dieser genauso weiß aussehen. Solche Farben, die für das menschliche Auge gleich aussehen, aber durch Mischung unterschiedlicher Farben entstanden sind, nennt man metamer. Das Problem dabei ist, dass Kamerasensoren aber nicht gleich funktionieren wie das Auge. Stellt man eine Farbe mit einem unvollständigen Spektrum dar, also zum Beispiel nur mit Rot, Grün und Blau, besteht die Gefahr, dass ein Kamerasensor etwa sensitiver auf Grün ist als auf Blau, ein anderer vielleicht umgekehrt. Währen die Farben dann also für den Menschen gleich aussehen, werden sie in den Kameras verschieden aufgezeichnet. Deshalb ist die Farbqualität bei einem vollen Spektrum immer besser als bei einem unvollständigen. Als Faustregel kann man Festhalten, dass jegliche Arten von natürlichem Licht meist ein volleres Spektrum haben als künstliches.1

Glühbirnen

Glühbirnen sind eine der ältesten Formen von Lichtquellen, die aber bis heute bestehen. Da in einer Glühbirne Metall durch Erhitzung zu “verbrennen” beginnt, hat das Licht, das dabei abgesondert wird, einer sehr hohe Qualität, jedoch wird viel von der Energie am Ende nur als Hitze abgesondert. Klassische Glühbirnen, in denen Halogen als Gas enthalten ist, um zu verhindern, dass der Draht wirklich durchbrennt, haben fast alle die gleiche Farbtemperatur: 3200 Kelvin. Damit sind sie sehr warm (oft Tungsten genannt).

Leuchtstoffröhren

Das Licht aus Leuchtstoffröhren ist in seiner Qualität zwar bei weitem nicht mit Glühbirnen und Tageslicht zu vergleichen, hat aber andere Vorteile. So zum Beispiel, dass es automatisch weicher ist. Außerdem entsteht nicht so viel Hitze und die Energie wird besser in Licht umgesetzt.

Lichtbogenlampen (HMI, CMH etc.)

Lichtbogenlampen funktionieren in der Hinsicht ähnlich wie Glühbirnen, als dass in einem abgeschlossenen Raum durch elektrische Spannung etwas zum Glühen gebracht wird. Während das bei klassischen Glühbirnen meist ein Wolfram-Draht ist, sind es bei Lichtbogenlampen meist Gase, die man mit einem Hochspannungsblitz quasi aufwärmt und dann unter Dauerstrom zum Leiten und damit zum Leuchten bringt. Die bekanntesten sind HMI Lampen, die mit Quecksilberdampf funktioniert. Der Vorteil gegenüber klassischen Glühbirnen, liegt in der viel größeren Lichtausbeute. Außerdem sondern die Gase automatisch ein Licht mit etwa 6000 Kelvin ab, was sie super als Tageslichtlampen eignet. Alternativ können in solchen Lichtbogenlampen auch andere Gase und Substanzen vorkommen, wie Xenon. Die Unterschiede bestehen dann etwa in der Effektivität, Farbtemperatur oder Farbqualität.

LED´s

LED´s funktionieren anders als alle bisherigen Lichtquellen. Sie nutzen im Grunde einen negativen und einen positiven Pol und einen Halbleiter, der halb positiv und halb negativ geladen ist. Fließt Strom zwischen diesen Polen wird er als Photon und damit Licht abgesondert. Dies hat unsagbare Vorteile in der Energieeffizienz, da per se kein Objekt glühen oder leuchten muss. Erzeugt aber ein sehr einseitiges Spektrum an Licht. Dieses kann je nach dem genutzten Halbleiter die verschiedensten Farben haben. Um weißes Licht zu erhalten werden dann entweder rote, grüne und blaue LED´s gemischt (was ein sehr unvollständiges Spektrum erzeugt) oder eine blaue LED durch zugabe von Phosphor der gelb leuchtet, zu weißem Licht aufgewertet (was ein volleres aber immer noch nicht volles Spektrum erzeugt).

Durch diese Techniken ergeben sich verschiedenste Möglichkeiten sie in vollständigen LED-Lampen einzubauen. Tageslicht-LED Lampen sind meist nur mit Phosphor-Konvertierten Dioden versehen, das erzeugt hohen Output und ausreichend gute Farbqualität. Bi-Color Leuchten sind meist mit zwei verschiedenen Phosphor-Konvertierten Dioden ausgestattet. Die eine Hälfte bleibt eher bläulich, die andere sehr warm. Durch mischen der Dioden werden dann verschiedene Temperaturen erzeugt, diese sind aber in ihrer Farbqualität nicht optimal. Die dritte Variante, also full color Leuchten sind dann entweder mit drei verschiedenen LED´s, roten, grünen und blauen, oder zusätzlich einer weißen, oder sogar zwei weißen, einer kühlen und einer warmen ausgestattet. Grundsätzlich gilt, je mehr verschiedene Dioden verwendet werden, desto besser die Farbqualität, da sie mehr Farben mischen und damit ein volleres Spektrum erzeugen können. Dies geht jedoch auf die Lichtausbeute, da natürlich nie alle Dioden gleichzeitig leuchten werden.2

Gels

Ist man mit der Farbtemperatur des Lichts nicht zufrieden, gibt es jedoch noch immer eine allerletzte Lösung: Gels. Im Grunde nichts anderes als farbige, lichtdurchlässige Materialien, die man vor den Lichtstrahl hält. Ehemals aus Gelatine (daher der Name) und heute meist aus Polyester, können aber auch Gels natürlich nur bedingt helfen, da sie im Grunde nur gewisse Frequenzen aus dem bestehenden Licht rausblocken und andere durchlassen. Sie fügen kein Licht hinzu. Heißt: Das resultierende Licht ist in seiner Qualität schlechter als davor, da mehr Frequenzen fehlen, es hat eben nur eine andere Farbe. Besteht aber keine andere Möglichkeit, das Licht auf “natürlichere” Weise, direkt beim Entstehungsprozess in der Farbe zu verändern sind Gels natürlich hilfreich. Die wichtigsten sind hierbei CTB´s und CTO´s, was für Color Temperature Blue und Orange steht, also im Endeffekt das Licht abkühlt oder aufwärmt.3

vgl.

  1. Vgl. Rhodes, Phil: Light Sourcs and Lighting Instruments. In: Mullen, Merritt David (Hrsg.) und Hummel, Rob (Hrsg.): American Cinematographer Manual. Eleventh Edition. Los Angeles: The ASC Press 2023. S. 105-108. ↩︎
  2. Vgl. Rhodes, Phil: Light Sourcs and Lighting Instruments. In: Mullen, Merritt David (Hrsg.) und Hummel, Rob (Hrsg.): American Cinematographer Manual. Eleventh Edition. Los Angeles: The ASC Press 2023. S. 125-132.  ↩︎
  3. Vgl. Rhodes, Phil: Light Sourcs and Lighting Instruments. In: Mullen, Merritt David (Hrsg.) und Hummel, Rob (Hrsg.): American Cinematographer Manual. Eleventh Edition. Los Angeles: The ASC Press 2023. S. 143f. ↩︎

Testing AR Platforms for Seamless Product Experience

1. AR Code – The Most Seamless Experience, But at a Cost

Website: https://ar-code.com

What I really liked about AR Code is how simple and fast the experience is. You don’t need to download any app the product appears directly in AR in just two taps. This is a huge advantage for customers, especially in retail, where any extra step can lead to drop-off.

However, the downside is the pricing model. It works on a paid membership basis, and the free version is extremely limited. it’s also really expensive with standard membership 79 eur per month and pro membership 890eur per month. I was only able to test it with basic text-based AR, not with the core features that actually make it powerful, but it is only free feature available.

These locked features include:

  • 3D object scanning
  • Face filters
  • Video in AR
  • Advanced interactive elements

Where AR Code Has Limitations / What to Check

Dependence on network/web — Because it’s Web AR, users need decent internet connection. Offline usability is not possible (maybe unlike AR apps).

So while the platform is technically impressive and extremely customer-friendly, it’s not very accessible for students or small creators without a budget. I would say its pretty good for prototype development.

2. Overly – Affordable and Surprisingly Elegant

Website: https://overlyapp.com

Overly feels like a budget-friendly alternative to AR Code. The pricing is very accessible around 19 euros, which makes it much more realistic.

Visually, I actually prefer Overly’s display and viewing experience more than any of others. The way display and animation appear feels clean and intuitive. One very interesting interaction detail is that the animation triggers automatically when the camera sees the image — there is no need to scan QR code which can be really esthetically pleasing for costumers. Also its just needs 1 sec and without taping on the screen animation starts. This is especially effective for customers who might not realize they need to interact with the screen.

However, there is also an important limitation:

  • You cannot create AR content directly inside the mobile app ( which I find good, it will not confuse users)
  • The app works mainly as a viewer / review tool
  • Creation happens externally and then gets imported

Still, from a user experience perspective, Overly feels very polished and customer-friendly. you can design it in the way where it will activate when u will see the poster or painting, which can be used in retails. Of course with some limitations it should be complex enough for the program to recognize it.

3. Adobe Aero – Powerful, But Coming to an End

Support update: https://helpx.adobe.com/aero/aero-end-of-support-faq.html

Unfortunately, Adobe Aero is slowly being phased out. Adobe officially announced the end of support, and this directly affects long-term usability.

  • The app is already facing technical issues and limited stability

This is especially problematic for students and researchers (like me) who invested time into building scenes inside Aero. Even if you already have it installed, it will not be a reliable long-term solution.

4. ARLOOPA – Weak Performance and Limited Results

Website: https://www.arloopa.com

Out of all the platforms I tested, ARLOOPA gave me the weakest results. The AR tracking felt unstable, object placement was inaccurate, and several features simply did not work properly on my phone.

They do offer:

  • web-based preview
  • maybe Pro version might perform better

But based on my current testing experience, the free version felt unreliable and low in quality. It may be usable with a professional subscription, but in its basic form it’s not convincing for serious product visualization.

So shortly:

  • AR Code offers the smoothest experience, but at a high financial entry barrier
  • Overly is the best budget-friendly and customer-oriented solution for viewing.
  • Adobe Aero is no longer future-proof
  • ARLOOPA currently feels too unstable for serious use

Impuls 6: The Possession of Hannah Grace

In meiner zweiten Filmanalyse dreht sich alles um den Horrorfilm The Possession of Hannah Grace, den ich bis dato selbst noch nicht gesehen hatte, aber aus gutem Grund ausgewählt habe. Er war zum Zeitpunkt der Veröffentlichung 2018 nämlich der erste Feature Film der in voller Länge auf einer spiegellosen Sony Kamera, der A7SII, gedreht wurde. Also genau das was ich vor habe.

Generelle Überlegungen

Der gesamte Film spielt in einer Leichenhalle und ist dementsprechend durchgehend Low-Key geleuchtet. Laut dem 1st AC, war dies auch exakt das was das menschliche Auge am Dreh gesehen haben soll. Heißt: Die Dunkelheit wurde nicht durch das Runterziehen der Schatten in der Post erzeugt, sondern das Set war wirklich so dunkel. Laut ihm wurde fast alles auf ISO 3200 geshootet, was eben diese Vorgehensweise ermöglicht hat. Zusätzlich, so hat man es im BTS gesehen, wurde anscheinend etwas gemacht, was ich so als Ratschlag noch in keinem Video gefunden habe: Irgendwie hatte es nämlich den Anschein, dass manche Szenen wirklich von den Practicals geleuchtet wurden. Auch wenn die Practicals, jetzt in diesem Fall keine klassischen Tischlampen hinten am Schreibtisch, sondern fette Neonröhren an der Decke waren, hat mich das doch sehr verwundert. Der (aus meiner Sicht) damit induzierte Effekt war natürlich, dass das Licht automatisch viel toppiger kam, und tiefe Schatten unter den Augen erzeugte. Als Beweis dafür, was ich damit meine, hier zwei Screenshots aus dem BTS des Films. In beiden Fällen kann ich eigentlich nur eine Lichtquelle ausmachen. Im Falle der Spiegelszene wahrscheinlich ein Tube-Light über dem Spiegel, und im Gang die Practicals an der Decke.

Frame 1-3: Die Heldin

Der erste Frame ist ein klassischer Shot im Film. Noch (oder gerade) geht keine Bedrohung von der halbtoten besessenen Leiche im Kasten aus, und die Hauptdarstellerin macht einfach ihren Job als Nachtarbeiterin in der Leichenhalle. Jedoch wird sogar schon hier mit einem extrem starken Kontrastverhältnis im Gesicht und mit extrem hartem Licht gearbeitet. In diesem Fall wird das Key-Light von der nebenstehenden Gerätschaft samt ihrem beleuchteten Arbeitsplatz motiviert, der mit Neon-Röhren ausgestattet ist, wie man in anderen Einstellungen sehen kann. So dunkel wie die Fill-Seite ist, dürfte kaum aus dem Frame draußen wohl eine fette Flag mit negative Fill gestanden sein, um das Gesicht so kontrastig hinzubekommen.

Im zweiten Frame ist sie bei der Einführung in ihren neuen Job zu sehen. Wie in der Einleitung beschrieben, sehr toppig geleuchtet, womöglich sogar wirklich mit den Deckenlampen am Set. Auch hier finde ich die Schatten im Gesicht, diesmal unter den Augen, sehr prominent. Besonders gut gefällt mir aber, wie ihr Chef in dem Licht herausgearbeitet wird. Anscheinend (zumindest soll es so den Eindruck machen) steht er direkt zwischen zwei Neonröhren. Die kameranahe gibt ihm Licht auf die Schulter, die ferne noch weiter hinten auf die Brust, sein Kopf inzwischen ist fast unbeleuchtet. Ich könnte mir vorstellen, dass sie dafür einfach die Practicals (sofern es mit diesen geleuchtet ist) mit schwarzem Stoff innen abgeklebt haben, um zu verhindern, dass sie streuen. Dadurch entsteht dann diese schöne Separation und der hohe Kontrast.

Im dritten und letzten Frame der Heldin wird es schon spannender, denn sie hört die ersten Geräusche und geht diesen auf den Grund. Was auffällig ist: Ab hier werden die Kontraste auf ihr eigentlich immer geringer, da sie als gesamtes immer dunkler wird. Wie vorher kommt das Licht sehr toppig, aber viel schwächer als vorher, was dafür spricht, dass die Practicals vermutlich Tubes sind, die das Team frei in ihrer Helligkeit kontrollieren konnte.

Besonders gut gefallen mir hier die Kontraste um sie herum. Die einzelnen Tische und Arbeitsflächen, die Bildschirme, die roten Knöpfe hinter ihr etc.. In diese Einstellung hätte man wirklich kaum mehr Lichttupfer einfügen können, ohne das es gestellt wirkt, immer schön mit der Separierung, dass zumindest kurz dazwischen schwarz ist. Außerdem ist nicht nur ein Kontrast zwischen hell und dunkel, sondern auch warm und kalt gegeben, da sie eindeutig kühler daherkommt, als die Tischlampen seitlich.

Frames 4-6: Die Besessene

Im ersten Frame ist die Anfangsszene zu sehen, in der der ursprüngliche Exorzismus am Mädchen scheitert. Für mich hier am auffälligsten ist die Farbe des Lichts, denn ihr weißes Gewand scheint eigentlich fast schon türkis, so kalt ist das Licht, das sie für diesen Shot gewählt haben. Das erzeugt natürlich auch auf der Haut extrem unnatürliche Töne, die einem das Gefühl vermitteln, dass hier etwas ganz und gar nicht passt. Verwunderlich finde ich die in diesem Fall recht gleichmäßige Ausleuchtung ihres Gesichts. Vielleicht war hier das Ziel, soviel von der Verrücktheit in ihren Augen mitzunehmen wie möglich.

Dieses fast schon türkise Licht zieht sich auch weiter durch ihre Darstellungen. Im Fall des zweiten Frames aber im Winkel mehr wie ich es eigentlich erwarten würde, nämlich sehr seitlich, mit starkem Kontrast zur Fill Seite. Auch sehr interessant: Das Backlight, das ihre Schultern und Haare vom Hintergrund abhebt. Dieses kommt nämlich aus einer sehr ähnlichen Richtung wie das Key – kann aber meiner Meinung nach nicht das gleiche sein, da sich das physikalisch nicht ganz ausgehen würde. Dadurch erreichen die Filmemacher aber natürlich einen recht interessanten Effekt: Sie können verhindern, dass die Darstellerin im dunklen Hintergrund absäuft, ohne irgendwie die Helligkeit der Fill-Seite angreifen zu müssen, und können diese ganz dunkel lassen.

Im letzten Frame ist dann die Kacke wirklich am Dampfen, denn der Dämon fordert in diesem Moment sein (glaube ich) drittes Opfer. Und drastischer geht es eigentlich auch kaum. Abgesehen davon, dass der Charakter eigentlich völlig absäuft und fast komplett dunkel daherkommt, ist die gesamte Umgebung in der signalstärksten aller Farben geleuchtet und das Spitzlicht an ihren Haaren macht mit dem Sensor der Kamera sowieso was es will. Also eigentlich gibts im gesamten Frame nur die drei RGB Values für schwarz, weiß und rot, mehr ist nicht.

Product VI: Image Extender – Image sonification tool for immersive perception of sounds from images and new creation possibilities

Intelligent Balancing – progress of automated mixing

This development phase introduces a sophisticated dual-layer audio processing system that addresses both proactive and reactive sound masking, creating mixes that are not only visually faithful but also acoustically optimal. Where previous systems focused on semantic accuracy and visual hierarchy, we now ensure perceptual clarity and natural soundscape balance through scientific audio principles.

The Challenge: High-Energy Sounds Dominating the Mix

During testing, we identified a critical issue: certain sounds with naturally high spectral energy (motorcycles, engines, impacts) would dominate the audio mix despite appropriate importance-based volume scaling. Even with our masking analysis and EQ correction, these sounds created an unbalanced listening experience where the mix felt “crowded” by certain elements.

Dual-Layer Solution Architecture

Layer 1: Proactive Energy-Based Gain Reduction

This new function analyzes each sound’s spectral energy across Bark bands (psychoacoustic frequency scale) and applies additional gain reduction to naturally loud sounds. The system:

  1. Measures average and peak energy across 24 Bark bands
  2. Calculates perceived loudness based on spectral distribution
  3. Applies up to -6dB additional reduction to high-energy sounds
  4. Modulates reduction based on visual importance (high importance = less reduction)

Example Application:

  • Motorcycle sound: -4.5dB additional reduction (high energy in 1-4kHz range)
  • Bird chirp: -1.5dB additional reduction (lower overall energy)
  • Both with same visual importance, but motorcycle receives more gain reduction

Layer 2: Reactive Masking EQ (Enhanced)

Improved Feature: Time-domain masking analysis now works with consistent positioning

We fixed a critical bug where sound positions were being randomized twice, causing:

  • Overlap analysis using different positions than final placement
  • EQ corrections applied to wrong temporal segments
  • Inconsistent final mix compared to analysis predictions

Solution: Position consistency through saved_positions system:

  • Initial random placement saved after calculation
  • Same positions used for both masking analysis and final timeline
  • Transparent debugging output showing exact positions used

Key Advancements

  1. Proactive Problem Prevention: Energy analysis occurs before mixing, preventing issues rather than fixing them
  2. Preserved Sound Quality: Moderate gain reduction + moderate EQ = better than extreme EQ alone
  3. Phase Relationship Protection: Gain reduction doesn’t affect phase like large EQ cuts do
  4. Mono Compatibility: Less aggressive processing improves mono downmix results
  5. Transparent Debugging: Complete logging shows every decision from energy analysis to final placement

Integration with Existing System

The new energy-based system integrates seamlessly with our established pipeline:

text

Sound Download → Energy Analysis → Gain Reduction → Importance Normalization

→ Timeline Placement → Masking EQ (if needed) → Final Mix

This represents an evolution from reactive correction to intelligent anticipation, creating audio mixes that are both visually faithful and acoustically balanced. The system now understands not just what sounds should be present, but how they should coexist in the acoustic space, resulting in professional-quality soundscapes that feel natural and well-balanced to the human ear.

IMPULSE #2 — Museum CoSA Graz

(Museum Visit – High-Fidelity / Interactive Learning)

If the Schlossberg Museum and Graz Museum showed me how visible framing can still communicate, then the CoSA (Center of Science Activities) showed me something completely different:
What happens when the frame doesn’t just present the content, but replaces it?

CoSA is not a museum in any traditional sense. It’s more like a playground disguised as an exhibition. A high-fidelity, immersive environment designed for kids, teens, and curious adults who want to touch, play, try, fail, experiment. Everything is screaming interaction. Lights, buttons, projections, puzzles, sounds, even the architecture itself feels like part of the performance. And somehow, in the middle of all this spectacle, I found myself thinking about my thesis again. Especially the question of whether art needs a frame to communicate or whether, in spaces like CoSA, the frame becomes so thick that the content becomes secondary.

The Superpower of High-Fidelity Framing

Everything is polished, exaggerated, designed for engagement. There’s no moment of “Is this intentional?” it obviously is. Even the walls communicate. Even the floor feels curated. In some rooms, you’re invited to look at a dead cat and a movie plays in front of it. In others, you’re challenged to be the doctor to an ill man or child, build a car yourself, drive with your very own car, force, sound, perspective. It’s all very game-like. And because it’s game-like, it also shifts how people behave. At Schlossberg Museum, people slowed down, read text, observed.
At CoSA, people jump in. There’s no hesitation, because the space gives permission. It guides you. It demands participation. And that’s exactly where it becomes relevant for my research:

High-fidelity framing dictates behaviour.

When people know the rules, they relax. When people know they are supposed to interact, they interact. When people know the space will guide them, they let go. This is almost the opposite of my everyday installations, where uncertainty is the whole point.

The Contrast: What My Research Isn’t About (but Helps Clarify)

One thing I noticed at CoSa: nothing here could ever be mistaken for an everyday installation. The framing is too strong, too theatrical. There’s no ambiguity. The frame is not just present  it’s hyper-present. And that helps me understand my thesis by contrast. If I want to explore how art communicates without a frame – then CoSA shows me the extremity of what happens with a frame. Here the meaning comes from the design, not from the object. The space tells you what to do, how to behave, and how to interpret what you see.

My photos of accidental compositions function in the opposite way. They rely on your curiosity, your willingness to look, your active interpretation. CoSA relies on instructions. So a strange question formed in my head:

Can art without a frame only function if people are trained by spaces like CoSA to trust their instincts or does it make them too dependent on explanation?

I don’t know the answer yet.
But I love that this place forces me to ask the question.

How Children React vs. Adults

Children don’t need frames the way adults do. Kids immediately start touching, playing, pushing, exploring. They don’t care what things “mean,” only what they “do.” They don’t ask for permission they assume everything is meant to be interacted with. Adults, however, hesitate. They wait for someone else to engage first. They need the frame to feel safe. This ties directly back to my earlier experiments with staging reactions to the celery stalk. Maybe adults look for social proof because they learned it in high-fidelity contexts like CoSA, museums, galleries, spaces that tell them what is allowed. Kids, meanwhile, operate naturally in low-fidelity environments. They accept randomness without fear. Maybe art without a frame communicates more easily with children than with adults. Maybe adults have to unlearn framing before they can perceive openly again.

What CoSA Taught Me About My MA Question

My thesis question still feels fresh, shifting, not quite ready. But this visit helped me refine something important:

For art to communicate without a frame, the viewer must bring their own interpretive tools. High-fidelity spaces, like CoSA, give you the tools but they also take away the freedom.

CoSA is wonderful. It’s smart, engaging, well-designed. But it also shows what happens when context becomes so strong that the content becomes inseparable from it. If everyday installations are the whisper, CoSA is the megaphone. And somewhere between whisper and megaphone lies the answer to my thesis.

Links

https://www.museum-joanneum.at/cosa-graz/unser-programm/ausstellungen/event/flip-im-cosa
https://www.museum-joanneum.at/cosa-graz/unser-programm/ausstellungen/event/der-schein-truegt
https://www.museum-joanneum.at/cosa-graz

AI Disclaimer

This blog post was written with the assistance of AI.

IMPULSE #1 Schlossberg Museum / Graz Museum (Museum Visit)

When I walked into the Schlossberg Museum, I wasn’t expecting anything. It´s just a part of a course. I assumed it would be a classic museum visit: walking through rooms, reading plaques, observing objects arranged in rehearsed formations. But the longer I stayed, the more I realized that this museum, in its own quiet way, is a fascinating study of how staged environments communicate and how they sometimes don’t.
My master thesis still circles around the question:
“What does it take for art to communicate without a frame?”
And oddly enough, this museum (a highly framed environment) helped me understand the opposite: What happens when the frame is visibly present, and how that visible framing sometimes works, sometimes fails, and sometimes becomes the entire message.

Staged Installations Without Pretending Not to Be Staged
What I realized was how intentionally “set up” everything looked. The Schlossberg Museum uses low-fidelity installations, meaning the staging is visible, almost transparent. You’re never tricked into believing that you entered an immersive world. You know that things are placed here for you.
And yet, people interact with these low-fidelity setups in surprisingly attentive ways.
Why?
Because the museum doesn’t try to hide its own construction. There’s a kind of honesty in that. It reminded me of my celery experiments, the difference between placing something deliberately yet pretending it’s accidental versus owning the arrangement. The Schlossberg Museum doesn’t pretend. The frame is obvious. The stage is visible. And weirdly enough, that visibility communicates.

How People Behave Around Framed Meaning
One of the most interesting things during my visit wasn’t the exhibition itself but the people inside it. I observed how visitors (including my friends being visitors as well) behaved:
• They slowed down near installations that had lighting around them.
• They spent more time near objects that had a certain spatial importance (center of the room, elevated platform, glass vitrtrine).
• They trusted anything behind a glass box more than anything placed openly.
• And they ignored objects that lacked a clear contextual cue, even when those objects were historically interesting.

So what does that say about meaning?
People read context faster than they read content.
They decide something is important before they understand why it is important.
This fits perfectly into my MA question.
Maybe art communicates without a frame only when people are trained to trust their own perception more than the environment around them. But museums do the opposite, they reinforce the frame as the reliable source of truth.

Low-Fidelity ≠ Low Communication
What stayed with me most were the humble, almost simple arrangements. Placed with intention, but without spectacle.
It reminded me of my everyday installations, accidental compositions I find on the street, a banana peel on a pizza carton, a toy scooter locked among adult bikes. Those moments also communicate something, despite lacking a label, despite lacking institutional permission.
At the Graz Museum, the objects have permission, yet they feel almost as unassuming as the found installations I’ve been documenting.
This made me wonder:
• Does an object need a high-fidelity frame to speak clearly?
• Or is a minimal frame enough, as long as viewers trust the context?
• And crucially: what happens when you take away the frame entirely?
The museum helped me see that “communicating without a frame” isn’t just about removing borders, it’s about cultivating perception.


Links
https://www.grazmuseum.at/graz-museum-schlossberg/
https://www.grazmuseum.at/ausstellung/demokratie-heast/
https://www.grazmuseum.at

AI Disclaimer
This blog post was polished with the assistance of AI.

First literature Research – Impulse #4

The last three blogposts where all about my intentions and the reasons for picking open source as the topic of my masters thesis, this one is about first steps, I took in researching about open source and how this influenced the next steps, I want to make.

During the “Proseminar Master Thesis” course, we were tasked, to gather some sources we could use for our thesis in the future. Two books and an article. Skimming through those texts really changed my view on open source. Especially the impact of UX work on open source projects interested me.

1. Working in Public

Reading Working in Public felt like having someone open a curtain. I always knew open source was built by volunteers, but the book made me understand just how much work, coordination, and emotional labor goes into maintaining a project. I was especially struck by the part that explained how most projects start small and private, and how everything changes once people begin to use them.
The sections on hidden costs and funding were honestly eye opening. Until now, I never really questioned how open-source creators manage to keep projects alive despite having almost no resources. This book made me more aware of why people burn out, why documentation suffers, and why newcomers have such a hard time finding their place.

2. Producing Open Source Software

Where Working in Public explained what is going on, Producing Open Source Software finally gave me how. This book was far more structured, and honestly much easier to navigate. For the first time, I read concrete advice on where design can fit into an OSS workflow, especially the points about improving documentation, lowering the “activation energy,” and funding dedicated UX roles.
The most influential part for me was the idea that newcomers should write beginner tutorials. That simple thought made me reflect on my own homelabbing struggles: of course the docs feel hard, because they’re written by experts.
This shifted my thinking from “What UX problem should I research?” to “Maybe the onboarding experience of designers in OSS is the problem.”

3. Untold Stories

The third text, Untold Stories, finally backed many of my assumptions with research. UX professionals do help OSS projects. Their contributions are valuable. And still, hardly any of them participate.
The paper helped me understand why: the culture, the tools, the developer-first mindset.
What surprised me most was how differently UX people write issue reports: more factual, more user-centered, more structured. It made me think that maybe designers don’t need to force themselves into OSS spaces—they just need to show the value of this way of communicating.
It also strengthened my idea that UX needs its own “space” within OSS—something that current platforms don’t provide.

Accompanying Links

Link to the book “Working in Public” (sadly no free download): https://press.stripe.com/working-in-public

Link to the book “Producing Open Source Software”, which is free to download: https://www.producingoss.com

Link to the article “Untold Stories”: https://dl.acm.org/doi/10.1145/3706599.3720063

Ai was used to formulate this blogpost (ChatGPT)

Impulse no4: DIY Urbanism – 99% Invisible

Recently I listened to the 99% Invisible episode “The Help-Yourself City,” and it was much more interesting than I expected. The episode explores DIY urbanism: the little illegal-but-kind-of-understandable interventions people make in cities when official systems fail them. Things like residents painting their own crosswalks because the city won’t, placing traffic cones to reserve parking spots, building unofficial benches in their neighborhood, or taping up handmade signs to guide confused pedestrians.

An interesting point that was made was that people reshape their environments not out of rebellion (okay, sometimes out of rebellion) but mostly out of necessity. They see a problem, feel unheard, and then just decide to fix it themselves. And suddenly the city becomes this playground of small, improvised design decisions made by people who would never call themselves designers.

Listening to this made me realize how often design is treated as a top-down discipline. We create systems, UIs, layouts, streets, signs, apps — and expect users to adapt. But this episode flips the table: users constantly adapt our designs by bending them, hacking them, “misusing” them. The city becomes a reminder that “user behavior” isn’t just something to accommodate; it’s something to learn from. These tiny interventions show what people actually need, beyond what official planning claims to provide.

The creative impulse I took from this was that design should invite appropriation instead of resisting it. If people are modifying their surroundings, there’s a gap in the design. And that gap isn’t a failure — it’s a piece of insight.

For my own work I should more often ask myself: How could people misappropriate my work? How could they “co-design” it? How can I create systems that allow for bending, customizing, hacking — or at least acknowledging that this will happen anyway. The city doesn’t fight back when someone zip-ties a DIY sign to a lamppost. It just absorbs it. Maybe more digital products should behave like that, too: more porous, more flexible, more willing to be reshaped.

There’s also something philosophically beautiful about the idea that design doesn’t end when we’re done designing. The world edits it afterwards. And maybe the best designs are the ones that tolerate — or even encourage — these edits.

Impulse no3: Slow Design for Meaningful Interactions

A while ago I saw a youtube video about a survival guide to the brainrot apocalypse (https://youtu.be/6fj-OJ6RcNQ?si=RnQvDCDZ1GuJucp7) and it had an interesting section which talked about replacing doomscrolling with reading about fallacies and scientific articles. That’s how and why I came across and read this particular paper: “Slow Design for Meaningful Interactions“.

It left me thinking about a design philosophy I usually associate with niche craft projects, not mass-produced consumer products. The authors explore how the principles of Slow Design — a movement rooted in slowing down, creating awareness, and fostering more reflective, meaningful engagement — can be applied even to everyday appliances like a juicer. At first, this seems counterintuitive: mass-produced objects are designed to be efficient, convenient, and fast. But the paper argues that slowing down the right parts of an interaction can actually increase product attachment and ultimately lead to more sustainable behavior.

Slow doesn’t mean forcing the user to waste time. Instead, it means enriching the moments that are already meaningful. For a juicer, the meaningful moment isn’t the cleaning or the storing — it’s watching the fruit transform into juice and feeling connected to the process. The study reveals that people enjoy activities that slow them down when they choose them, like preparing coffee on a quiet weekend morning, paying attention to small details, or creating something with their hands. That insight became the backbone for reinterpreting the original Slow Design principles into more actionable ones: reveal, expand, reflect, engage, participate, evolve, and a new one — ritual. These were then used to redesign a juicer in a way that makes the user more involved, more aware of what’s happening inside the device, and more inclined to treat it as a long-term companion rather than something to eventually discard.

This made me rethink the moments in my own design projects where I rush to try to optimize everything. Friction is often treated as something to eliminate, but the paper reframes certain types of friction as opportunities for reflection, connection, or even emotional durability. It made me wonder where I can intentionally slow down an interaction — not to make it harder, but to make it more meaningful. A subtle animation that reveals a system’s inner workings, a gesture that requires a moment of intention, or a small ritual embedded in the interface could shift the user from passive consumption to mindful engagement.

Impulse no2: “How Designers destroyed the world” – Mike Monteiro

Der Vortrag von Mike Monteiro war für mich nichts neues aber hat mich an einen wesentlichen grundsatz erinnert den wir alle mit uns tragen sollten im Design. Während viele Design-Talks sich um neue Tools, Trends oder Best Practices drehen, geht es hier um moralische Verantwortung und darum, dass Designer*innen oft vergessen, welche Wirkung ihre Arbeit in der echten Welt hat.

Monteiro startet seinen Talk direkt recht provokant: “Designer*innen zerstören die Welt nicht, weil sie schlecht designen — sondern weil sie nicht über die Konsequenzen ihres Designs nachdenken.

„You are responsible for what you put into the world.“

Einer der stärksten Punkte im Vortrag war die Aussage, dass Design kein neutraler Akt ist. Jede Entscheidung die getroffen wird — sei es ein Button, ein Algorithmus, ein Interface oder eine komplette Plattform — hat reale Folgen:

  • Sie beeinflusst, wie Menschen handeln.
  • Sie beeinflusst, welche Informationen sichtbar werden.
  • Sie beeinflusst, wer Zugang bekommt — und wer ausgeschlossen wird.

Monteiro zeigt Beispiele von Unternehmen, die durch bewusstes Wegschauen oder blinden Gehorsam Designs entwickelt haben, die massiven Schaden angerichtet haben. Er spricht über Social Media Plattformen, die Hass und Manipulation verstärken. Über Dark Patterns, die Menschen in Abos oder Systeme drängen. Und darüber, dass all diese Systeme nicht zufällig entstanden sind sondern bewusst designed wurden.

Designer*innen haben mehr Macht, als sie glauben. Und zu oft geben sie diese Macht freiwillig ab. Monteiro kritisiert, dass viele Designer*innen „Professionalität“ als Ausrede nutzen. Sätze wie “Ich mach nur was der Kunde will” oder “Ich bin nur Designer, ich entscheide das nicht” sind nur Ausreden die es einem ermöglichen ethische Verantwortung abzugeben. Architekt*innen würden auch keine einsturzgefährdende Gebäude entwerfen nur weil der Kunde es so will.

Ein Gedanke, der wichtig ist sich immer wieder in den Kopf zu rufen ist, dass Design immer politisch ist. Monteiro sagt ganz klar: “Wenn wir etwas bauen, das Millionen an Menschen benutzen, dann gestalten wir Strukturen, Verhalten und Systeme mit.”
Und damit nehmen wir Einfluss auf unsere Gesellschaft.

Einer der wichtigsten Impulse aus dem Talk: “Designer*innen dürfen — und sollen — Nein sagen.”

  • Nicht jeder Auftrag ist moralisch vertretbar.
  • Nicht jeder Kunde hat gute Absichten.
  • Nicht jedes Produkt sollte existieren.

Monteiro ruft dazu auf, sich bewusst zu machen, für welche Art Welt man arbeiten möchte. Und sich bewusst dagegen zu entscheiden, Dinge zu bauen, die Menschen schaden, ausbeuten oder manipulieren. Er sagt auch: “Wir brauchen weniger Designerinnen, die Dienstleister sind — und mehr, die als verantwortliche Expertinnen auftreten.”

Was mir wieder klar geworden ist, ist dass ich viel öfter über die Konsequenzen meiner Arbeit nachdenken sollte. Nicht nur über das Interface, die Experience oder die Conversion Rate, sondern auch darüber welche Verhaltensweisen ich mit meinem Design fördere, welche Menschen ausgeschlossen werden und welche Probleme durch mein Design in der realen Welt entstehen könnten.