In dieser Masterarbeit für 1 Person soll eine bühnentaugliche Loop-basierte DJing- und VJing-Applikation für den Live-Einsatz implementiert werden. Ziel ist es in Echtzeit mit Hilfe eines Game Controllers jeweils einen Mehrspur-Mischer für Audio- und Video-Inhalte anzusteuern. Dabei sollen verschiedene Abhängigkeiten zwischen Audio und Video definiert werden können, wie zum Beispiel: Steuern des Videos über Beat-Detection, Timestretching des Videos entsprechend des BPM der Musik, Video-Transparenz abhängig von der Lautstärke der Tonspur, u.v.m. Über ein User Interface soll es dabei möglich sein vor der Performance die Spuren und Abhängigkeiten zu definieren und zu speichern, die dann während der Performance mit dem Game Controller getriggered und verändert werden können.

Vorerfahrungen mit einer oder mehreren der folgenden Technologien bzw. Software-Produkte sind vorteilhaft:

Audio: Ableton Live, PD, MAX/MSP
Video: VDMX, Resolume, Jitter, Gem, Quartz Composer, TouchDesigner
Scripting: Processing, Python, JSON

Der praktische Anteil der Masterarbeit sollte bis Ende Jänner 2017 abgeschlossen werden.

Comment