Soundtracking

Soundtracking

Betreuung:
Jakob Doppler, Julian Rubisch

Projektbeschreibung:
Das Ziel des Projekts ist es, durch Körperbewegungen synthetische generative Visuals und Musik zu komponieren. Der User wird hierfür durch das Kinect System erfasst und seine Körperbewegungen durch die Erkennung von Gesten und der Positionen der Extremitäten in Musik und OpenGL gerenderte 3d Animationen verwandelt.

Max/MSP/Jitter Dienten als Entwicklungsplattformen, wobei in der Sonifikation auf die BEAP Libary zum Einsatz kam.

Bei der Visualisierung wurden durch jit.bfg generierte Fraktale verwendet, die einerseits als NURBS andererseits direkt als Mesh gerendert wurden.
Die Sonifikation geschieht durch simple Schlagzeug ähnliche Klänge die durch Gesten getriggert werden können, wie auch durch zwei einfache monophone subtraktive Synthesizer, deren Tonanlität durch interaktive Prozesse und vorbestimmte Sequenzen gelenkt ist. Die Klangfarbe kann quasi mit den Händen dirigiert werden.

Video:

Aufgabenverteilung:
Architektur – Georg Augsten
Bewegungserkennung – Mario Bogner
Visualisierung – Stefan Sieder
Sonifikation – Patrik Lechner

, , , , , audio, interactive, video, visuals