Fazit: Das Projekt hat gezeigt, dass Lernen vor allem durch praktische Anwendung entsteht und dass nicht jedes Experiment ein perfektes Ergebnis liefern muss, um wertvoll zu sein.
Deshalb gibt es an dieser Stelle auch kein visuell bahnbrechendes Video, sondern einfach nur vier Screenshots 🥲
Das finale Setup sah eine leicht gedrehte Positionierung der Kirche vor: nicht frontal, sondern in einem gezielten Winkel zum Beamer hin. Dieser Winkel wurde in das digitale 3D-Modell übernommen und diente als Grundlage für die Projektionsinhalte.
Auf das Modell wurden verschiedene zuvor getestete Texturen gelegt. Es kamen mehrere visuelle Herangehensweisen zum Einsatz: darunter das Auflösen des Meshes in eine Partikelwolke, das Fracturing des Modells sowie die Umwandlung der Kanten in Splines, welche mit einem “Seil-Tag” animiert wurden, eine Technik, die bereits im vorigen Blogpost beschrieben wurde.
Die Projektion erfolgte schließlich mithilfe eines Mini-Beamers, der auf einem Stativ aus kurzer Distanz arbeitete. In HeavyM mussten die perspektivischen Verzerrungen je nach Sequenz manuell angepasst und entzerrt werden. Die Animationen bestanden aus Bildsequenzen, teilweise Videos, teilweise hintereinander abgespielte PNG-Stills. Insgesamt funktionierte das gut, auch wenn das Bild an Schärfe verlor, was sich nicht vollständig klären ließ.
Im Ergebnis entstand eine Abfolge von experimentellen Szenen, die sich als Sammlung verschiedener technischer Zugänge verstehen lässt, allerdings (noch) ohne durchgängige visuelle Choreografie oder ein abgestimmtes Sounddesign.
Der ursprünglich angestrebte künstlerische Gesamteindruck konnte im Rahmen dieses Prototyps nicht vollständig realisiert werden.
Trotzdem kann das Projekt als erfolgreiche Case Study gelten. Der Lernwert war hoch: Techniken wie Warping, Splinemodifikation, Mapping auf unregelmäßige Geometrie oder der Umgang mit Licht und Materialität im Kleinformat konnten praktisch erprobt werden. Besonders deutlich wurde, wie Farben, Licht und Perspektive auf physisch vorhandenen Oberflächen wirken – und wo technische Grenzen liegen.
Die Idee des Mikromappings im Modellmaßstab bleibt weiter spannend. Auch wenn dieses Projekt noch nicht publikationsreif ist, liefert es eine solide Grundlage für weitere Experimente – vielleicht in einem neuen Kontext, mit anderen Objekten oder stärker durchkomponierten Abläufen.
Disclaimer zur Nutzung von Künstlicher Intelligenz (KI):
Dieser Blogbeitrag wurde unter Zuhilfenahme von Künstlicher Intelligenz (ChatGPT) erstellt. Die KI wurde zur Recherche, zur Korrektur von Texten, zur Inspiration und/oder zur Einholung von Verbesserungsvorschlägen verwendet. Alle Inhalte wurden anschließend eigenständig ausgewertet, überarbeitet und in den hier präsentierten Beitrag integriert.
Im Zuge der texturbasierten Projektion auf eine Kirchenfassade mittels HeavyM zeigte sich, dass die perspektivische Ausrichtung nicht vollständig stimmig war. Eine Überprüfung der zugrunde liegenden 3D-Geometrie ergab, dass insbesondere die beiden Seitenteile entlang der Y-Achse leicht zu hoch positioniert worden waren. Diese Ungenauigkeit führte zu Anpassungen am Modell sowie zu weiteren Experimenten mit Perspektive und Warping innerhalb von HeavyM.
Daraus entwickelte sich die Überlegung, die Fassade nicht ausschließlich frontal zu bemappen, sondern auch seitlich anzusteuern, um einen räumlich überzeugenderen 3D-Effekt zu erzeugen. Voraussetzung dafür ist eine exakte Übereinstimmung der Perspektive zwischen virtuellem Modell und realer Architektur. Diese konnte durch die Verwendung des Photogrammetrie-Meshes aus Polycam gewährleistet werden. Dennoch entstehen während der realen Projektion perspektivische Verzerrungen, die durch gezieltes Warping im Mapping-Tool kompensiert werden müssen.
Obwohl verschiedene Textur-Experimente interessante gestalterische Erkenntnisse lieferten, erwies sich ein reduziertes, abstraktes Schwarz-Weiß-Mapping als geeigneter, um die sakrale Architektur aus ihrem festgelegten kulturellen Kontext zu lösen. Farbintensive oder symbolisch aufgeladene Texturen tendieren dazu, die bestehende religiöse Bedeutungsebene zu verstärken. Ein minimalistischerer Zugang ermöglicht hingegen eine offenere, atmosphärische Interpretation der Raumstruktur.
Für die Gestaltung der Visuals wurden auf Basis des Polycam-Meshes sämtliche Kanten in Splines umgewandelt. Diese Splines wurden mit einem sogenannten “Seil-Tag” versehen, wodurch sie dynamisch reagierten und in eine physikalische Simulation eingebunden werden konnten. Durch den Einsatz von Kräften wie Turbulenz, Gravitation, Wind und Kraftfeldern entstanden organisch anmutende, abstrakte Animationen. Diese bewegten sich scheinbar intuitiv über die architektonische Struktur und eröffneten neue Möglichkeiten in der Wechselwirkung zwischen Raum, Bewegung und Projektion.
Disclaimer zur Nutzung von Künstlicher Intelligenz (KI):
Dieser Blogbeitrag wurde unter Zuhilfenahme von Künstlicher Intelligenz (ChatGPT) erstellt. Die KI wurde zur Recherche, zur Korrektur von Texten, zur Inspiration und/oder zur Einholung von Verbesserungsvorschlägen verwendet. Alle Inhalte wurden anschließend eigenständig ausgewertet, überarbeitet und in den hier präsentierten Beitrag integriert.
Eine Kirche auf Reisen zwischen Material, Ort und Bedeutung
Nach einer kreativen Pause fiel es mir zunächst schwer, wieder in mein Mapping-Projekt einzutauchen. Die ursprüngliche Idee – ein Modell einer Kirche als Projektionsfläche für ein Videomapping zu verwenden – fühlte sich plötzlich nicht mehr stimmig an. Ich stellte infrage, ob die stark vereinfachte Form dieses Modells überhaupt das Potenzial für ein visuell ansprechendes Ergebnis bietet. Die Architektur schien mir zu reduziert, zu geometrisch starr, um die emotionale und atmosphärische Tiefe zu erzeugen, die ich anstrebe.
Statt das Projekt jedoch vollständig zu verwerfen, beschloss ich, einen Schritt zurückzutreten und nach alternativen Ansätzen zu suchen. Dabei passte ich die Grundidee des Konzeptes an – inspiriert von dem Künstler Philipp Frank, der seine Mappings häufig in der freien Natur umsetzt.
Die Idee: Eine Kirche auf Wanderschaft
Die kleine Kirchenminiatur verlässt ihre gewohnte Umgebung und wird an verschiedenen Orten in und um Graz inszeniert – in der Natur, im Wald, auf dem Schlossberg oder an anderen atmosphärischen Plätzen. Dort soll sie mittels Projektion in wechselnden Texturen und Lichtstimmungen transformiert werden. Die Kirche als Objekt bleibt gleich, doch der Kontext – und damit ihre Wirkung – verändert sich.
Dieses Vorhaben stellte mich jedoch schnell vor technische Herausforderungen. Mein Mini-Beamer (Optoma ML750) benötigt 19 Volt bei mindestens 4,3 Ampere – deutlich mehr, als meine bisherigen mobilen Stromlösungen liefern konnten.
Um die Wirkung von Materialien und Oberflächen auf die Wahrnehmung von Architektur untersuchen zu können, wurden verschiedene Texturen – sowohl reale als auch fiktive – auf das Kirchenmodell gesetzt und gerendert.
Ich entwickelte ein einfaches Testkonzept, bei dem die Kirchenminiatur in Cinema 4D mit unterschiedlichen “Mood-skins” versehen wurde – eine Mischung aus prozeduralen Shadern und Material-Texturen, die verschiedene ästhetische Richtungen repräsentieren. Diese Kategorien reichten von:
Sci-Fi
dystopisch
psychoaktiv
farbenfroh
emotional dunkel
bis hin zu natürlichen Materialien wie Stoff, Pappe, Stein oder Kunststoff.
Ziel war es, visuell und atmosphärisch zu testen, wie unterschiedlich die Kirche je nach Materialbeschaffenheit wirkt – ohne die Architektur selbst zu verändern. Diese Test-Renderings sollen später Teil einer Animation werden, die sich in der Bewegung wiederholt, aber mit wechselnden Texturen versehen ist. So kann ich effizient verschiedene „Skins“ visualisieren, ohne jede Szene neu berechnen zu müssen.
Sound, Material und Atmosphäre
Im nächsten Schritt plane ich, die unterschiedlichen Materialwirkungen auch akustisch zu interpretieren. Jedes visuelle Setup soll eine eigene Soundästhetik erhalten – so wird das multisensorische Erlebnis verstärkt. Der Klang eines psychedelischen Settings unterscheidet sich schließlich grundlegend von jenem eines Holz- oder Betonlooks. Sobald die Texturen und Sounds definiert sind, beginne ich mit der Animation und finalen Vorbereitung für das Mapping – sei es mobil in der Natur oder stationär im Studio.
Literatursammlung zur Materialästhetik und Atmosphäre
Grundlagen & Inspiration
Basics Materialität – Manfred Hegger u. a., Birkhäuser, 2014 Standardwerk zur Materialität in der Architektur. Behandelt die subjektive Wirkung von Oberflächen, haptische Reize und kreativen Umgang mit klassischen Baustoffen wie Holz, Beton, Stein. → degruyter.com
Sculpting Emotions: The Intersection of Space, Material, and Architecture – Rachata P. Tantaweewong, 2022 Wie Materialien Emotionen formen (Holz = Wärme, Beton = Stärke); räumliche Gestaltung als emotionaler Resonanzraum. → academia.edu
Mini-Konzept: für weitere „Unmögliche Oberflächen“
Ziel:
Entwicklung und Erprobung von virtuellen Materialien, die starke Stimmungen hervorrufen – jenseits traditioneller Baumaterialien – und als „Mood-Skins“ experimentell auf eine Modellkirche projiziert werden.
Kategorie
Materialidee
Assoziation/Wirkung
Mögliche Anwendung
Sci-Fi / Dystopisch
Chrom-membranisch, flüssiges Metall
Künstlich, kühl, distanziert
Technik-Fetischismus, Entfremdung
Blutige Membran (halbtransparent, pulsierend)
Organisch, verstörend, lebendig
Körperassoziation, Opfer-Thematik
Nanopartikel mit leuchtenden Fasern
Hochtechnologisch, surreal
Alien-Architektur, KI-Ästhetik
Farbenfroh / Emotional
Opaleszierendes Glas mit Irisierung
Magisch, hoffnungsvoll, sakral
Spirituelle Momente, Lichterscheinung
Fluoreszierende Gel-Oberfläche
Verspielt, lebendig, fremd
Kindliches, Futurismus
Holografischer Stoff mit Farbverläufen
Flüchtig, digital, vielschichtig
Transhumanismus, digitale Utopien
Dunkel / Psychoaktiv
Schwarze, ölartige Oberfläche mit zitternder Reflexion
In diesem Beitrag möchte ich einen kleinen Exkurs dokumentieren, der sich aus nächtlichen Experimenten, eigenständiger Recherche und einem Workshop während der Designwoche ergeben hat. Da dieser Eintrag nicht den Prototyp behandelt – müsste dieser als Blogpost 5/1/2 gesehen werden. Er versteht sich als methodischer Zwischenstand, aber auch als wichtige Erweiterung meiner gestalterischen Werkzeuge.
Ausgangspunkt war ein Workshop mit dem Workshopleiter Emilio Leonardo, der während der Designwoche ein spannendes Tool namens Trellis vorgestellt hat. Diese Plattform ermöglicht es, zweidimensionale Zeichnungen mithilfe künstlicher Intelligenz (KI) in 3D-Modelle zu überführen. Fasziniert von den Potenzialen dieses Tools begann ich, eigene Workflows zu testen und weiterzuentwickeln.
Einblick in das Toolset: Trellis und KI-gestützte Bildverarbeitung
Trellis ist eine browserbasierte Plattform, die mit Cloud-Unterstützung arbeitet und verschiedene Eingabemöglichkeiten bietet. In Kombination mit Stable Diffusion basierten Tools wie Stable Projectors oder Bildgeneratoren wie Perplexity, ergibt sich ein kreatives Ökosystem: Persönliche Skizzen oder abstrakte Zeichnungen können fotografiert, digital verarbeitet und schließlich in ein dreidimensionales Mesh überführt werden.
Dabei ergibt sich folgender Workflow:
Handgezeichnete Skizze fotografieren oder scannen.
Die Skizze in einem KI-Tool (z. B. Perplexity) hochladen und mit einem Prompt versehen, der eine stilistisch ähnliche, aber dreidimensional anmutende Version generieren lässt.
Das resultierende Bild wird in Trellis hochgeladen – bevorzugt über die kostenfreie und werbefreie Plattform Hugging Face (https://huggingface.co/spaces/crevelop/Trellis)
Mittels der Funktion „Generate“ wird ein 3D-Modell (Mesh) erstellt, welches im .glb-Format exportiert werden kann.
Anschließend kann dieses Modell in einem 3D-Programm wie C4D oder Blender verwendet werden. Eventuelle Artefakte oder Topologiefehler sind hier noch zu beheben.
Kreative und künstlerische Relevanz
Das Potenzial dieser Methode liegt vor allem in ihrer Niedrigschwelligkeit und Individualität: Selbst wenn man kein professioneller Illustrator ist, lassen sich persönliche, abstrakte oder emotionale Zeichnungen in digitale 3D-Welten transformieren. Die Ergebnisse sind nicht perfekt – kleinere Fehler oder Unvollständigkeiten im Mesh sind üblich – doch für Anwendungen im künstlerischen Bereich, insbesondere im Bereich Visuals, Social Media Content oder generativer Kunst, sind sie mehr als ausreichend.
Was mich besonders begeistert hat, ist die Möglichkeit, ein Stück eigener Handschrift zu digitalisieren und in den Raum zu bringen. Im Gegensatz zu generischer KI-Kunst bleibt hier der persönliche Ausdruck im Vordergrund, da die Zeichnung der Ausgangspunkt ist.
Anwendung im Kontext von Projektionen und Mapping
Diese Technik bietet auch neue Perspektiven für zukünftige Videomapping-Projekte – etwa in Kirchenräumen. Statt auf klassische 2D-Visuals zurückzugreifen, könnten historische Illustrationen, handschriftliche Fragmente oder sakrale Skizzen aus verschiedenen Epochen durch diesen Workflow zum Leben erweckt werden – kostengünstig, zeiteffizient und visuell eindrucksvoll.
Die Verschmelzung von analoger Zeichenkunst mit digitaler Raumwirkung könnte somit zu einer immersiveren, emotionaleren Visualisierung führen.
Fazit und Ausblick
Was zunächst als Spielerei begann, entpuppte sich als ein tragfähiger und inspirierender Workflow, der nicht nur kreative Entfaltung ermöglicht, sondern auch wissenschaftlich und gestalterisch anschlussfähig ist. Für die weitere Arbeit am Prototypen bleibt abzuwarten, ob und wie stark diese Technik dort Einzug halten wird. Denkbar ist eine subtilere, abstraktere Anwendung – doch allein die Möglichkeit, diesen Zugang zu haben, erweitert das Repertoire um eine wertvolle, persönliche Komponente.
Disclaimer zur Nutzung von Künstlicher Intelligenz (KI):
Dieser Blogbeitrag wurde unter Zuhilfenahme von Künstlicher Intelligenz (ChatGPT) erstellt. Die KI wurde zur Recherche, zur Korrektur von Texten, zur Inspiration und/oder zur Einholung von Verbesserungsvorschlägen verwendet. Alle Inhalte wurden anschließend eigenständig ausgewertet, überarbeitet und in den hier präsentierten Beitrag integriert.
Um ein präziseres 3D-Modell der Kirche zu erhalten und eine verlässliche Referenz für die Arbeit in Cinema 4D zu schaffen – insbesondere zur besseren Einschätzung von Tiefenverhältnissen und räumlichen Dimensionen – wurde die Kirche aus etwa 50 verschiedenen Perspektiven fotografiert. Diese Aufnahmen deckten möglichst viele Blickwinkel ab, um ein umfassendes Bild des Objekts zu gewährleisten.
Die Fotos wurden anschließend in Polycam hochgeladen und mithilfe des Photogrammetry-Modus verarbeitet. Das daraus generierte 3D-Modell – im GLB Format – lieferte überraschend gute Ergebnisse und bildete die Struktur der Kirche erstaunlich detailreich ab.
Im nächsten Schritt wurde das Modell in Cinema4D weiterbearbeitet. Mit der Remesh-Funktion konnte die Geometrie optimiert und in eine gleichmäßige, saubere Topologie überführt werden. Das daraus resultierende Modell dient nun als präzise digitale Replik des ursprünglichen Holzmodells und ermöglicht eine exakte Anpassung der zuvor erstellten Fassadenprojektion in Cinema 4D.
Ein weiterer Vorteil: Eine leichte perspektivische Verzerrung, die beim vorherigen Mapping-Versuch aufgefallen war, konnte nun auf Basis des neuen Modells korrigiert werden.
Testrender GLB aus Polycam
Disclaimer zur Nutzung von Künstlicher Intelligenz (KI):
Dieser Blogbeitrag wurde unter Zuhilfenahme von Künstlicher Intelligenz (ChatGPT) erstellt. Die KI wurde zur Recherche, zur Korrektur von Texten, zur Inspiration und/oder zur Einholung von Verbesserungsvorschlägen verwendet. Alle Inhalte wurden anschließend eigenständig ausgewertet, überarbeitet und in den hier präsentierten Beitrag integriert.
Im nächsten Schritt wurde die Frontfassade der Kirche digital rekonstruiert. Ein frontal aufgenommenes Foto diente als Grundlage, das in Photoshop freigestellt und perspektivisch entzerrt wurde. Anschließend wurde es in Cinema 4D als Vorlage für den Nachbau in der Frontalansicht verwendet. Die Architektur wurde mithilfe von Splines, Extrude-NURBS und Boole-Operationen detailliert nachgebaut. Um die unregelmäßige Geometrie in eine brauchbare Topologie zu überführen, kam zunächst ein Volumenmesher, anschließend ein Volumenerzeuger und schließlich ein Remesher zum Einsatz. Ziel war eine gleichmäßigere Oberfläche für spätere Animationen und Simulationen – mit teils zufriedenstellenden Ergebnissen.
Erste Materialexperimente kombinierten originalgetreue Texturen mit alternativen Shadern. Außerdem wurde eine einfache Partikelsimulation erstellt, die das Volumen des Meshes als Emitter nutzte, ergänzt durch ein Turbulenzfeld zur Bewegungskontrolle.
Beim Rendern wurde gezielt darauf geachtet, dass das Format exakt der nativen Auflösung des verwendeten Beamers entsprach (1024 × 768 Pixel). Auch die Kameraeinstellungen wurden zentral und ohne Rotation gewählt, um perspektivische Verzerrungen zu vermeiden.
Das Ergebnis wurde in HeavyM geladen und auf die reale Fassade projiziert. Dabei zeigte sich jedoch ein perspektivisches Problem: Die Fenster ließen sich nicht exakt auf die physische Struktur anpassen. Ob der Fehler bei der Modellierung, dem Export oder dem Mapping liegt, muss nun untersucht werden. Erst wenn das Frontalmapping fehlerfrei funktioniert, sollen auch die Seitenflächen modelliert und ein vollständig räumliches Mapping getestet werden.
Disclaimer zur Nutzung von Künstlicher Intelligenz (KI):
Dieser Blogbeitrag wurde unter Zuhilfenahme von Künstlicher Intelligenz (ChatGPT) erstellt. Die KI wurde zur Recherche, zur Korrektur von Texten, zur Inspiration und zur Einholung von Verbesserungsvorschlägen verwendet. Alle Inhalte wurden anschließend eigenständig ausgewertet, überarbeitet und in den hier präsentierten Beitrag integriert.
Nachdem die Bauteile für die Modellkirche eingetroffen waren, wurden sie zusammengesetzt, wodurch ein verkleinertes Modell einer Kirche aus Holz entstand. Die Struktur des Holzes erwies sich als leicht faserig mit einem gelblichen Ton. In diesem Zusammenhang stellte sich die Frage, ob ein Anstrich in Weiß vorteilhaft wäre, insbesondere falls sich die ersten Mapping-Tests als nicht erfolgreich erweisen sollten.
Zur Durchführung der Tests wurde ein Projektor des Modells NEC LT20 aus dem Media-Center entliehen. Dieser mobile Projektor verfügt über einen VGA-Anschluss, weshalb ein USB-C-Adapter erforderlich war, um ihn mit dem Laptop zu verbinden. Erste Tests zeigten eine eingeschränkte Farbwiedergabe, dennoch wurde der Projektor für initiale Projektionen auf das Modell als ausreichend betrachtet.
Der Projektor wurde mit dem Laptop verbunden und die Modellkirche so positioniert, dass eine möglichst hohe Pixeldichte erreicht wurde, ohne die Proportionen des projizierten Bildes zu verzerren. Anschließend wurden in der Software HeavyM erste Masken erstellt, zunächst rudimentär für die Dächer, Fenster und Seitenteile. Unterschiedliche Shader wurden angewendet, variiert in Helligkeits- und Geschwindigkeitsstufen, um die Lesbarkeit und Klarheit der Projektion auf dem Modell zu evaluieren.
Die vorliegenden Foto- und Videoaufnahmen dokumentieren, dass trotz der begrenzten Leistungsfähigkeit des Projektors eine zufriedenstellende Projektion erreicht werden konnte. Dies lässt darauf schließen, dass das Modell als Grundlage für weiterführende Tests geeignet ist. Verschiedene Animationstypen und Mapping-Methoden könnten in weiteren Experimenten systematisch untersucht werden.
Der nächste Schritt besteht in der digitalen Rekonstruktion der Kirche als 3D-Modell, um gezielt 3D-Mapping-Techniken zu erproben. Zudem ist geplant, audioreaktive Animationen zu integrieren. Langfristig wäre es denkbar, ein detailreicheres Modell zu entwickeln und leistungsstärkere Projektionstechnologie einzusetzen.
Bereits die gegenwärtigen Ergebnisse zeigen, dass selbst mit einem einfachen Modell und einem veralteten Projektor aussagekräftige Resultate erzielt werden können. Die bisherigen Erkenntnisse bieten eine solide Grundlage für die Weiterentwicklung der Untersuchung.
Disclaimer zur Nutzung von Künstlicher Intelligenz (KI):
Dieser Blogbeitrag wurde unter Zuhilfenahme von Künstlicher Intelligenz (ChatGPT) erstellt. Die KI wurde zur Recherche, zur Korrektur von Texten, zur Inspiration und zur Einholung von Verbesserungsvorschlägen verwendet. Alle Inhalte wurden anschließend eigenständig ausgewertet, überarbeitet und in den hier präsentierten Beitrag integriert.
In diesem Artikel sollen folgende Fragen untersucht werden:
Was ist eine audioreaktive Animation?
Welche Funktionen bieten Blender und Cinema 4D?
Welche Vorteile bietet diese Technik für ein Videomapping gegenüber einer herkömmlichen Animation?
Was ist eine audioreaktive Animation?
Eine audioreaktive Animation beschreibt den Prozess, bei dem ein Audiosignal von der Animationssoftware erkannt und als Information weiterverarbeitet wird, um bestimmte Parameter eines Objekts zu verändern. Ein einfaches Beispiel: Wird eine Kickdrum im 4/4-Takt mit 90 BPM (Beats Per Minute) erkannt, kann der entsprechende Frequenzbereich ausgewählt werden, um beispielsweise die Größe einer Kugel zu steuern. Die Skalierung der Kugel würde sich dann synchron zum Beat der Kickdrum verändern.
Die Herausforderung besteht darin, gezielt Einfluss auf die gewünschten Parameter wie Skalierung, Position oder Farbe zu nehmen und gleichzeitig dynamische Anschlags- und Ausklangszeiten zu definieren, um eine flüssige, ansprechende Animation zu erzeugen, die harmonisch mit der Musik interagiert.
Blender und Cinema 4D bieten hierfür unterschiedliche Ansätze und Werkzeuge, um audioreaktive Animationen umzusetzen.
Audioreaktive Animation in Blender mit Geometry und Simulation Nodes
In Blender ermöglichenGeometry Nodes, 3D-Objekte prozedural zu erstellen, zu verändern und zu animieren, indem visuelle Knoten (Nodes) miteinander verbunden werden.
Ein häufiger Ansatz ist es, einen Keyframe auf einen Value Node zu setzen und diesen mit einer Audiodatei zu verknüpfen. Je nach ausgewähltem Frequenzbereich wird der Wert des Nodes dynamisch beeinflusst. So lassen sich die Eigenschaften eines geometrischen Objekts, wie Skalierung, Position oder Rotation, direkt durch das Audiosignal steuern.
Besonders interessant sind die Simulation Nodes, die es ermöglichen, komplexe Bewegungen und Interaktionen zu generieren. Dies umfasst Loop-basierte Simulationen, die über mehrere Frames hinweg berechnet und präzise gesteuert werden können. Dadurch lassen sich flüssige Bewegungen und dynamische Ease-In- und Ease-Out-Animationen erzeugen, die nahtlos auf Audiosignale reagieren.
Audioreaktive Animation in Cinema 4D mit Soundfields und Mograph
Cinema 4D bietet mit seinen Soundfields und Mograph-Tools eine benutzerfreundliche Möglichkeit, audioreaktive Animationen zu erstellen.
In meinem Beispiel wird ein Cube mehrfach geklont und über einen Schritt- und Formeleffektor, die beide ein Soundfield enthalten, animiert. Die Klone werden dann als Simulationsobjekte definiert, um eine Partikel-Replikation des ursprünglichen Turms zu erzeugen.
Das Soundfield ermöglicht es, Audiosignale direkt auf Parameter wie Position, Skalierung oder Rotation zu übertragen, was besonders für rhythmische oder abstrakte Animationen nützlich ist.
Vorteile für ein Videomapping gegenüber herkömmlichen Animationen
Im Kontext des Videomappings bieten audioreaktive Animationen erhebliche Vorteile, insbesondere bei der Gestaltung von längeren Visualisierungen, da sie zum Großteil ohne Keyframes auskommen und die Musik den Rhythmus vorgibt.
Ein besonderer Vorteil zeigt sich, wenn das Sounddesign selbst entwickelt wird. In diesem Fall entsteht eine einzigartige Symbiose zwischen Bild und Ton. Durch gezieltes Komponieren und das Einsetzen bestimmter Sounds und Frequenzen übernimmt der Sounddesigner gewissermaßen auch die Rolle des Animators.
Warum diese Technik besonders für Videomapping geeignet ist:
Echtzeit-Reaktion: Visuelle Effekte können live auf Musik reagieren.
Effizienz: Keine manuelle Anpassung von Keyframes erforderlich, die Animation passt sich dynamisch an.
Kohärentes Erlebnis: Durch die direkte Verbindung von Ton und Bild entsteht ein intensiveres visuelles Erlebnis.
Flexibilität: Änderungen im Audiosignal erfordern keine zeitaufwendige Anpassung der Animation.
Blender featuring C4D – Ein möglicher hybrider Workflow für die Zukunft?
Eine vielversprechende Methode, die Stärken beider Programme zu kombinieren, wäre der Einsatz von FBX, OBJ oder Alembic-Dateien, um Meshes und Animationen, die in Blender mit Simulation Nodes erstellt wurden, in den Workflow von Cinema 4D zu integrieren, um dort weiterverarbeitet zu werden.
So lassen sich die prozeduralen und simulationsbasierten Möglichkeiten von Blender mit den intuitiven Tools und der Benutzerfreundlichkeit von Cinema 4D verbinden, um ein noch leistungsfähigeres Setup für audioreaktive Animationen zu schaffen.
🤖🧠Disclaimer zur Nutzung von Künstlicher Intelligenz (KI):
Dieser Blogbeitrag wurde unter Zuhilfenahme von Künstlicher Intelligenz (ChatGPT) erstellt. Die KI wurde zur Recherche, zur Korrektur von Texten, zur Inspiration und zur Einholung von Verbesserungsvorschlägen verwendet. Alle Inhalte wurden anschließend eigenständig ausgewertet, überarbeitet und in den hier präsentierten Beitrag integriert.
Das Ziel des zweiten Design & Research Projekts im Masterstudiengang CMS24 besteht darin, einen Prototypen zu entwickeln, der im weiteren Verlauf auch für die Masterarbeit von Bedeutung sein wird. Dieser Prototyp dient als experimentelles Werkzeug zur Untersuchung der Rolle von Videomapping als künstlerische Technik zur Veränderung der architektonischen Wahrnehmung durch Licht und Bewegung.
Anpassung der Forschungsfrage
Zunächst möchte ich die zentrale Forschungsfrage anpassen, bzw. um einen neuen Gedankenimpuls erweitern. Anstatt nur den kulturellen Kontext des Gebäudes zu berücksichtigen, soll auch die Auswirkung der Projektion auf die Architektur untersucht werden: „Wie kann Videomapping als künstlerische Technik die Wahrnehmung von Architektur durch Licht und Bewegung verändern?“
Folgende Themenbereiche dienen als theoretische Grundlage:
Geschichte des Lichtdesigns in der Architektur
Wahrnehmungspsychologie von Lichtprojektionen
Interaktion von Licht, Farbe und Materialität
Prototypenentwicklung
In meinem Projekt plane ich, ein Modell – voraussichtlich eine Miniaturkirche – entweder als fertigen Bausatz aus dem Internet zu bestellen und zusammenzubauen oder es als Laser-Cutter-Vorlage mit dem Lasercutter der Fachhochschule auszuschneiden.
Projektion & Videomapping
Nach der Fertigstellung des Modells soll dieses mithilfe eines Beamers projiziert und durch Videomapping visuell bespielt werden. Hierfür ist der Einsatz eines Kurzdistanzprojektors oder eines kleinen mobilen Beamers vorgesehen, um maximale Flexibilität bei der Aufstellung und Projektion zu gewährleisten. Ziel dieser Projektionen ist es, verschiedene Techniken, Farben, Texturen, Animationen und Visualisierungen auf die Miniaturkirche anzuwenden, um deren Wirkung auf die Oberflächenstruktur und die architektonische Gestaltung zu untersuchen. Besonders relevant ist hierbei die Frage, wie Licht auf Architektur wirkt und inwieweit Projektionen als erweiterte Gestaltungsebene dienen können.
Prototypenvarianten und Herausforderungen
Um ein möglichst authentisches 3D-Mapping zu erzielen, plane ich, die Miniaturkirche auch als digitales 3D-Modell zu erstellen. Dies würde die Flexibilität erhöhen und eventuell auch die Möglichkeit bieten, virtuelle Prototypen in VR oder AR zu testen. Ein potenzielles Problem bei der Projektion auf physische Modelle ist deren geringe Größe von etwa 20 bis 30 cm sowie die eingeschränkte Auflösung des Beamers. Es bleibt fraglich, ob feine Konturen und Linien des Modells präzise genug dargestellt werden können, um eine ästhetisch ansprechende und wirksame Projektion zu ermöglichen.
Software & Technik
Das Videomapping soll audio-reaktiv gestaltet werden, wobei ich derzeit überlege, ob ich dafür Cinema4D oder Blender verwenden soll. Optimalerweise würde ich eine Kombination der besten Features beider Programme nutzen. Blender bietet aufgrund seiner leistungsstarken Geometrie- und Simulations-Nodes deutlich mehr Optionen zur Erstellung sanfter, dynamischer Animationen, während Cinema4D in diesem Bereich bisher limitiert ist – jedoch in anderen audio-reaktiven Anwendungsbereichen deutlich intuitiver ist. Weitere Untersuchungen und Experimente dazu werden im nächsten Blogpost (BlogPost #2) dokumentiert.
Der Medientheoretiker Marshall McLuhan stellte einst fest: „Das Medium ist die Botschaft.“ Diese Aussage hat in unserer von digitalen Technologien geprägten Zeit eine besondere Relevanz und dient als Leitsatz für die Entwicklung dieses Prototyps.
🤖🧠Disclaimer zur Nutzung von Künstlicher Intelligenz (KI):
Dieser Blogbeitrag wurde unter Zuhilfenahme von Künstlicher Intelligenz (ChatGPT) erstellt. Die KI wurde zur Recherche, zur Korrektur von Texten, zur Inspiration und zur Einholung von Verbesserungsvorschlägen verwendet. Alle Inhalte wurden anschließend eigenständig ausgewertet, überarbeitet und in den hier präsentierten Beitrag integriert.