Generatives Musikvideo

Music-Visualizer Interface

Betreuung:
– Julian Rubisch
– Jakob Doppler

Teammitglieder:
– Sebastian Mayrhuber
– Stephen Agyemang
– Penelope Reindl
– Danielle Borowski

Idee:
Musikplayer mit Visualisierung

Geplanter Ablauf:
1. User-Interface: Videoscreen mit Buttons: Audio-Track laden, Play, Stop.

2. User wählt einen Audio-Track (per Drag’n’Drop oder Dialog-Fenster).

3. Track wird analysiert (Amplitude, Frequenzen, etc.).

4. Eine externe Datenquelle wird eingelesen und analysiert (-> kann später ein Textfile von einem Webserver sein, zum Testen arbeiten wir mit einer lokalen Text-Datei. Ausgewertet wird z.B. Was kommt am öftesten vor? Was am seltensten?, Durchschnittswerte, BPM, Attack, Loudness, etc.)

5. Entsprechend der Analyse-Ergebnisse:
– ..werden vorgefertigte Videos aus einem Pool gewählt und auf die Bühne gelegt.
– ..die Video-Clips werden anhand der Analyse-Ergebnisse über die Zeit verändert, z.B.: Bild einfärben (RGB-Werte verändern), Deckkraft verändern, Ebenenmodus ändern (z.B. Multiplizieren, Addieren, etc.), Effekte wie z.B. Blur, Verpixeln, usw anwenden.; Effekte werden je nach Geschwindigkeit der einzelnen Videos (langsam, mittel, schnell) zugeordnet. Für jedes Video sind 2 unterschiedliche Effekte angedacht, welche sich gleichzeitig über das Video legen, bzw. das Bild verändern.

Video-Demonstration:

, , , , , , audio, interactive, video