October 29, 2013 Danielle Borowski, Penelope Reindl, Sebastian Mayrhuber and Stephen Agyemang
Betreuung:
– Julian Rubisch
– Jakob Doppler
Teammitglieder:
– Sebastian Mayrhuber
– Stephen Agyemang
– Penelope Reindl
– Danielle Borowski
Idee:
Musikplayer mit Visualisierung
Geplanter Ablauf:
1. User-Interface: Videoscreen mit Buttons: Audio-Track laden, Play, Stop.
2. User wählt einen Audio-Track (per Drag’n’Drop oder Dialog-Fenster).
3. Track wird analysiert (Amplitude, Frequenzen, etc.).
4. Eine externe Datenquelle wird eingelesen und analysiert (-> kann später ein Textfile von einem Webserver sein, zum Testen arbeiten wir mit einer lokalen Text-Datei. Ausgewertet wird z.B. Was kommt am öftesten vor? Was am seltensten?, Durchschnittswerte, BPM, Attack, Loudness, etc.)
5. Entsprechend der Analyse-Ergebnisse:
– ..werden vorgefertigte Videos aus einem Pool gewählt und auf die Bühne gelegt.
– ..die Video-Clips werden anhand der Analyse-Ergebnisse über die Zeit verändert, z.B.: Bild einfärben (RGB-Werte verändern), Deckkraft verändern, Ebenenmodus ändern (z.B. Multiplizieren, Addieren, etc.), Effekte wie z.B. Blur, Verpixeln, usw anwenden.; Effekte werden je nach Geschwindigkeit der einzelnen Videos (langsam, mittel, schnell) zugeordnet. Für jedes Video sind 2 unterschiedliche Effekte angedacht, welche sich gleichzeitig über das Video legen, bzw. das Bild verändern.
Video-Demonstration:
EPROG3, generativ, Max, Msp, MT11, Musikvideo, Musikvisualisierung audio, interactive, video