Nachdem mehrere Kollegen auf FB an meinen Erfahrungen mit der Klangfabrik interessiert waren, habe ich meinen Senf der besseren Schreib- und Lesbarkeit auf einen Blog ausgelagert. Vorab: Das betrifft vor allem das Team Klang/DigicoSD. Standalone bzw. mit einer anderen Konsole habe ich so noch nicht gearbeitet. Here we go:
Genaugenommen ist es nicht der erste Berührungspunkt mit den Kollegen von Klang. Bereits vor einigen Jahren nahm ich an einer Demo teil – damals noch ohne Madi und Digico-Integration. Das Fazit war dementsprechend: Tolle Sache, hat Potential und klingt wirklich interessant – aber ich mische doch keine zehnköpfige Band mit siebzig Inputs über ein Ipad (wtf?) während meine Monitorkonsole leicht frustriert, beleidigt und aus Langeweile zwei Häuser weiter an ‘ner rauchigen Jamsession teilnimmt.
Glücklicherweise wurden von den richtigen Leuten die richtigen Wege beschritten und so gibt es mittlerweile Madi-Schnittstellen (zwei Stück, entweder hin/rück oder 2x hin schaltbar) und eine OSC-Integration für die SD-Pulte von Digico. Genau da fangen wir mal an: Die SD-Integration ist als durchaus gelungen zu bezeichnen. Ekstatische Begeisterung liest sich sicherlich anders aber meine Ansprüche sind da auch verdammt hoch und wurden wahrscheinlich auch noch nie komplett befriedigt. Unterm Strich funktionierte fast immer alles in der Kommunikation zwischen Pult und KF super und die einzigen Hänger in der Remote waren zweimal Abweichungen in den Nametags der Busse nach einem Neustart/Neuverbindung. In solchen Fällen wird “Pull mix settings from console” in der Klang-App gedrückt und alles war wieder richtig gelabelt. Bis auf solche Kleinigkeiten verlief die Netzwerkkommunikation reibungslos und die KF hing übrigens nebenbei für die Remote ohne Probleme beiderseits in meinem Soundgridnetzwerk.
Für den Zugriff auf die App habe ich meinen Laptop (Win) genutzt. Da lief ebenfalls das Multirack und Nuendo Live über ein Madiface Pro drüber (ich mags spannend) und die Klang-App habe ich über einen externen Touch bedient. Das ist dank der Integration in den SDs eine recht unnötig-luxuriöse Lösung aber aber es hilft am Anfang den Überlick zu behalten und schnell reagieren zu können.
Im Remote Menü der SDs aktivieren wir die KF, setzen die üblichen Parameter für coms (Ipad Remote spielt problemlos nebenher sofern andere Ports genutzt werden) und in der Klang App muss ebenfalls die SD-Remote aktiviert werden. Anschließend müssen wir einmal alle (benötigen/gewollten) Inputs und Sends mappen – sprich alle Inputs werden als direct outs post fader über Madi in die KF angelegt und die Busse aus der KF mergen wir in unsere Auxmaster. Kanalnamen werden per OSC automatisch übertragen. Ich empfehle dennoch Vorsicht walten zu lassen und alles einzeln pedantisch zu überprüfen, gerade bei mono/stereo – Kanälen kann man sich manchmal verrennen und mit dem Mapping kämpfen.
In der App können wir dann pro Kanal und Send entscheiden ob dieses Signal für diesen Mucker/Send durch die KF gschickt werden soll oder in der SD auf der regulären Auxschiene bleibt. Entscheiden wir uns für die KF wird das Signal automatisch auf der internen Auxschiene der SD gemutet und die Faderposition des Sends bestimmt nicht mehr den Send intern auf diesem Auxweg sondern den Send in der KF. Für A/B Vergleiche und Fallback-Routinen lassen sich Sends in die KF und Sends intern auch im Remote-Menü linken. Sind die Sends nicht gelinkt begeben sich die Sendpegel nach dem ausschalten den jeweiligen Kanals in der KF wieder auf den internen Wert und das Signal bleibt im Pult.
In der Praxis ist der Workflow wie folgt: Ich drücke im Pult einen sends on fader/solo für einen bestimmten Mucker/Send -> die App springt im Interface mit in diesen Mix (sofern dieser Mix/Mucker angelegt/gemappt ist) und wir können über den Touchscreen alle aktiven Signale im 3D-Bereich für diesen Mucker verteilen. Tatsächlich fühlt es sich nicht so an als ob das Signal das Pult verlässt und bis auf die 3d-Verteilung (welche ja nun auch im Interface der SD-Software im Pult machbar wäre – habe ich wie gesagt bisher nicht genutzt) können wir wie gewohnt am Tisch arbeiten. Zu Havariezwecken muss man sich ein paar schlaue Macros überlegen, welche die KF möglichst schnell und unauffällig aus dem Signalweg schmeissen aber das kennen wir ja schon aus den Anfangstagen mit Waves…
Zum Sound:
Einerseits (mit Absicht nicht Positiv genannt…): Hui! Verdammt ungewohnt und sehr überwältigend. Stellt Euch einfach vor Ihr habt die letzten Jahre Mono IEM gemischt und dann kam das Update in Stereo. Mit all seinen Möglichkeiten, Problemen (fragt mal Radiokollegen nach Monokompatibilität) und Ansprüchen.
Andererseits (mit Absicht nicht negativ genannt…): Es klingt anders. Oder genauer: Die Quellen klingen anders. Das wahrgenommene Frequenzspektrum ändert sich Ortsabhängig. Das heisst kurz und knapp: Je nachdem wo Ihr Eure Quellen positioniert, ändert sich ihr Sound. Und je nach Instrument sogar erheblich. Eine verzerrte Gitarre mit ihrem breiten Obertonspektrum z.B. ändert Ihr Klangbild mit dem Verschieben auf der Vertikalen Achse (oben/unten) so stark, dass es eine andere herangehansweise im Monitormix erfordert. Die Spektrale Änderung der Signale je nach Position ist zu großen Teilen dem Funktionsprinzip der KF geschuldet – als (sehr!) vereinfachtes Beispiel hören wir z.B. von hinten bedingt durch die Abschattung unserer Ohrmuscheln einfach weniger treble.
Fazit:
Für eine finale Bewertung ist es für mich noch zu früh. Die Tendenz ist aber eindeutig positiv. Den Monitorkollegen wird damit ein mächtiges Werkzeug in die Hand gelegt um vor allem komplizierte Szenarien zu lösen. Dem MD, der drei Instrumente spielt, gleichzeitig Backings singt und zwölf Kanäle Tracks überwachen muss weil der DJ jeden Abend neu mit dem Ableton improvisiert können wir nun einen aufgeräumten Sound ohne Klicktrack des Todes bauen. Oder dem Sänger der seit 30 Jahren Wedges gewöhnt ist und nun IEM nutzen muss können wir den Umstieg erleichtern. Oder dem Klampfer der gern von hinten rechts sein Fullstack hört etc etc…
Zu bedenken sind:
– Die Laufzeiten:
KF-erfahrene Kollegen haben schon im Vorfeld angemerkt, dass mit dem 3D-Sound ein paar ms mehr nicht so ins Gewicht fallen und das kann ich bestätigen. Dennoch gibt es Künstler (gerade die, die seit vielen Jahren mit IEM und nem guten Mix unterwegs sind), die würden das hören. Und manchen dürfte das auch zuviel sein. Ich habe Menschen erlebt, die haben im Mon auf dem IEM den Switch von 48 auf 96 gehört (Zeit, nicht Sound – das ist ne andere Diskussion…) und bei denen könnte (könnte! mir fehlt da die Empirie…) das Problematisch sein. Am Ende ist das eine Einzelfallentscheidung und dadurch dass pro Kanal und Send geschaltet werden kann hat man da auch diesen Spielraum einfach mal für den Sänger die Vox aus der KF zu nehmen.
– Spektrum:
Spektrale Änderungen des Signals je nach Position sind für die Ortung unabdingbar, deswegen kann man den Jungs von Klang auch schlecht einen Vorwurf draus machen. Dennoch erfordert es für uns ein Umdenken: Wenn ich dem Sänger seine Klampfe bildlich vor’s linke Ohr stelle und sie für ihn dadurch extrem Präsent erklingt werde ich sie wohl etwas dunkler filtern, de-esser oder dyn-eq im präsenzbereich drauf o.ä. – In der Konsequenz wird die Gitarre für den Rest der Band (welche sie eh einige DB leiser auf dem Ohr haben werden) recht dumpf klingen. Splits sind selten eine Option, Nodal kan nur die SD7Q, also muss ein Kompromiss her. Auch da fehlen die langfristigen Erfahrungswerte…
Die Hardware an sich macht nen guten Eindruck, zwei Netzteile, ein Sack voll simultaner (Remote Fix, Remote Flex, Dante etc.) IP-Adressen und ausführliches Logging. Der Support ist auch top und über die Farbgebung könnte man vielleicht nochmal bei nem Bier mit den Jungs reden 😉
tldr; Integration mit SD-Konsolen funzt sehr gut, das Funktionsprinzip erfordert im Mix andere Heransgehensweisen, nehmt Euch Zeit, kann sich durchaus lohnen.