Moderne Musikproduktion Teil 2

Moderne Musikproduktion Teil 2_Cover

Ich begrüße euch zum zweiten Teil der Beitrags-Reihe „Moderne Musikproduktion“.

Um was geht es?

In diesem Teil geht es um die Funktionen und Benutzung von Plugins, also entweder Virtuellen Instrumenten oder Effekten. Dabei werden wir bei den Instrumenten eher auf die Grundprinzipien eingehen, da ja nicht jedes Plugin gleich ist, und bei den Effekten wollen wir uns den Themenfeldern EQ (Equalizer), Compressor, Multiband Compressoren, Reverb und Delay genauer widmen sowie auf deren Funktionsweise eingehen. Ich hoffe ihr freut euch genau so wie ich, aber bevor wir anfangen, hole ich noch kurz etwas nach, was im letzten Beitrag gefehlt hat.

Welche DAW passt zu mir oder welche ist die beste?

Das ist die wahrscheinlich am häufigsten gestelle Frage in der weiten Welt der Musikproduktion und keiner kann eine genaue Antwort liefern. Allerdings gibt es doch so ein paar Dinge, bei denen man sich einig ist, den Rest muss man für sich selbst entscheiden. Ich hoffe, die folgenden Tipps werden dir in der Wahl deiner DAW helfen.

Welche DAW wofür?

Es gibt drei hauptsächliche Anwendungsbereiche für DAWs. Man kann natürlich jede DAW für alle Bereiche verwenden, aber manche eignen sich halt besser als andere. An dieser Stelle möchte ich auch darauf hinweisen, dass genauere Tutorials zu den einzelnen DAWs in Zukunft kommen werden.

Auftritte Live: Dafür wird fast immer Ableton Live benutzt. Es hat das Live ja schon im Namen. Die beliebte DJ-Software bringt nämlich alles, was man für einen gelungenen Live-Auftritt braucht, hat aber auch alles, was man für Home Recording benötigt. Sie ist sehr bekannt und die meisten Tonstudios haben es auf mindestens einem Rechner laufen. Warum also auf eine andere zurückgreifen? Ganz einfach. Die Steuerung ist gewöhnungsbedürftig und mit 600€ für die „Vollversion“ (Suite) auch nicht gerade günstig. Es gibt auch eine Version für 350€ (Standard). Dieser fehlen allerdings relativ viele gute Sounds und nur 3 von 9 vorinstallieren Instrumenten sind vorhanden. Über die 80€ (Intro)-Version will man gar nicht reden. Soll heißen: eingeschränkte Funktionen, nicht mal ein Drittel aller Sounds und fehlende Effekte raten schon alleine von dieser Version ab. Alternative? Cubase! Niemand geringeres als Skrillex selbst verwendet auch für seine Live-Auftritte Cubase und das, obwohl es hauptsächlich für Home Recording verwendet wird – ein perfektes Beispiel dafür, dass es auf die Verwendung ankommt und nicht auf die DAW.

Home Recording: Cubase, FL Studio, Reaper, Ableton Live, Pro Tools, Logic Pro X, Reason, Studio One und sogar das von mir nicht sehr geschätzte Sonar X3 kann man dafür verwenden. Jede DAW, die es gibt, eignet sich dafür, da das der  Hauptanwendungsbereich ist. Hier hilft nichts als Testen oder sich im Fachhandel erkundigen.

Mixing und Mastering: Ich, der den Beruf des Audio Engineers anstrebt, werde hier einen Mastering-Experten zitieren: „Pro Tools! Punkt!“ Mit diesen weisen Worten wäre alles gesagt. Naja fast. Es ist einfach so, dass eigentlich alle großen Tonstudios Pro Tools verwenden. Das liegt einfach daran, dass es für diesen Bereich (Mixing und Mastering) optimiert ist, beispielsweise durch Funktionen wie den Over-Sampling-Mode. Die Audioverarbeitung ist einfach ideal einstellbar und es bietet alle Funktionen, die man braucht.

Nun aber zurück zum eigentlichen Thema:

Plugins:

Es gibt leider nicht nur „das Plugin“. Es gibt eine Vielzahl von Plugins. Wir schauen uns ganz kurz VST, AAX, AU und RTAS an.

VST: Das ist die Abkürzung für Virtual Studio Technology. Das ist das von Steinberg Media Technologies entwickelte Software-Protokoll. Es gibt eine große Anzahl an VST-Plugins, viel zu viele, um alle zu nennen. Fast alle DAWs können VSTs benutzen. Pro Tools ist eine Ausnahme, aber mit Bridgern (einem Umwandlungsprogramm) geht auch das.

AAX: Avid Audio Extension. Das ist ein speziell für Pro Tools entwickeltes Software-Protokoll. Es wird ausschließlich von Pro Tools verwendet, ist also eher selten anzutreffen. Viele Entwickler müssen ihre Plugins immer noch in das AAX-Format umwandeln, auch wenn die Zahl immer kleiner wird, doch viele machen sich diese Mühe nicht, was Pro Tools aber nicht wirklich schadet, da es schon alles Wichtige hat.

RTAS: Das steht für RealTimeAudioSuite. Das war das erste ausschließlich für Pro Tools entwickelte Software-Protokoll. Seit Version 10.8 wird dieses aber nicht mehr unterstützt, weshalb es eigentlich nicht mehr vorkommt.

AU: Die Abkürzung für Audio Unit ist ein von Apple entwickeltes Format für Plugins. Logic benutzt ausschließlich diese Format, aber die meisten anderen DAWs, die auf einem Mac laufen, verwenden auch VSTs.

Wie verwende ich Plugins?

Die Antwort zu dieser Frage ist natürlich von DAW zu DAW unterschiedlich. Wenn man aber einmal weiß, wie es geht, ist es ganz einfach. Meist reicht es, die Standard-Installation auszuführen, und beim Starten der DAW wird das Plugin automatisch erkannt. Dann muss man nur noch wissen, wie man es in der DAW selbst öffnet.

Instrumente:

Es gibt eine immense Anzahl an Virtuellen Instrumenten in allen möglichen Preisklassen. Aber einige Funktionen sind bei den meisten vertreten.

Sampler: Dabei handelt es sich um die einfache Art der Virtuellen Instrumente. Sampler spielen aufgenommene Töne ab und transponieren diese bei Bedarf. An sich gibt es zwei Arten von Samplern. Die einen benutzen Sounds, die ihnen manuell vorgegeben werden (wie Drum Machines), die anderen arbeiten mit Presets oder Soundfonts. Soundfonts sind in einem Format gespeicherte Samples und Parameter-Beschreibungen, die mit SoundFont-Playern abgespielt werden.

Synthesizer: Diese Instrumente sind wesentlich komplexer. Sie generieren nämlich selbst Sounds. Wie das funktioniert, ist ein Kapitel für sich, aber die Funktionen von einem Synthesizer werde ich euch versuchen näher zu bringen – wobei man nicht ganz an der Erzeugung des Tons vorbeikommt. Ganz kurz: Ein Ton setzt sich zusammen aus Schalldruckpegel (gemessen in Dezibel [dB]) und Frequenzen  (gemessen in Hertz [hZ]). Bei einem synthetisch generierten Ton sind dann noch Parameter wie Bit-Tiefe und Samplerrate wichtig, aber die lasse ich jetzt mal außen vor, da sie für diese Erklärung keine Rolle spielen. Der Schalldruckpegel bestimmt die Lautstärke eines Tons und die Frequenzzahl die Höhe. Hertz ist an sich nur eine Umschreibung für Schwingungen pro Sekunde. Also sind 100 hZ 100 Schwingungen pro Sekunde. Aber Schwingungen von was? Dafür muss man wissen, dass sich Geräusche wie Licht ausbreiten, also in Wellenform. Je schneller diese Welle schwingt, desto höher ist der Ton. Die Lautstärke wird dadurch bestimmt, wie stark die Schallwelle auf einen Körper (zum Messen auf eine Membran) trifft – also wie schnell er sich ausbreitet. Schnelligkeit der Ausbreitung und Schnelligkeit der Schwingung sind zwei unterschiedliche Dinge. Das eine ist eine Bewegung in die Richtung, in die der Schall „geworfen“ wird, das andere die Bewegung der Schallwelle selbst. Jetzt aber genug zum Thema Ton-Generierung. Viel interessanter ist ohnehin, wie ein Synthesizer funktioniert. Er macht nichts anderes, als eine sogenannte Sinus-Welle (Bezeichnung für den reinsten Ton [Eine gleichbleibende Welle ohne Verzerrung im negativen oder positiven Bereich – gezeigt im nachfolgenden Bild]) zu verändern.

welle

Dadurch entstehen, je nach Veränderung, andere Töne (wie genau diese Veränderung funktioniert, werde ich nicht erklären, da ein eigener Beitrag dafür notwendig wäre; das ist ein großer Teil eines Moduls in der Ausbildung zum Tontechniker). Dieser entstandene Ton kann synthetisch klingen:

 

oder auch eine Imitation eines realen Instruments sein:

 

Der ein oder andere „Experte“ wird jetzt sagen, dass man das ja einfach mit Presets machen kann – auswählen und fertig. Das stimmt, aber jeder richtige Experte wird mir zustimmen, wenn ich sage, dass es besser ist, seinen eigenen Sound (oder bei Effekten eigene Einstellungen) zu erstellen. Das wird im Normalfall wesentlich besser in den eigenen Track passen als irgendein Preset. Es ist natürlich nicht einfach, einen gewissen Sound zu erstellen, aber mit Übung klappt das schon. Ich habe z. B. versucht, den Sound von dem Lead Synth aus Martin Garrix` – Poison (dem Drop-Part) nachzuahmen und ich würde sagen, das ist doch relativ gut gelungen. Dabei gab es nur eine Herausforderung: Das, was ihr in folgendem Beispiel hört, ist nicht nur ein Synth, sondern fünf, die gleichzeitig spielen.

 

Diese „Technik“ ist das so genannte Layering. Das bedeutet, dass mehrere Instrumente (der etwa gleichen Art) das Gleiche spielen. Diese Technik findet sich in so ziemlich allen Pop- oder Hand-Up- bzw. allen Songs der EDM wieder, und das nicht nur bei Synths, sondern auch bei Drums, egal ob Snare oder Kick. Dabei gilt aber auch einiges zu beachten – dazu an anderer Stelle mehr.

Was können diese ganzen Regler?

Dieser Frage stellen sich wahrscheinlich alle, die das erste Mal einen Synthesizer sehen. Verständlich, da es wirklich ziemlich viel auf einmal ist. Ich werde versuchen, euch in diesem Teil die wichtigsten Funktionen zu erklären und in späteren Beiträgen vielleicht einmal auf die „versteckten“ oder speziellen Funktionen eingehen. Das Wichtigste zu unserem Thema aber nun hier: der bzw. die OSCs. Das steht für Oszillator. Na gut. Um ehrlich zu sein, steht das für Open Sound Control, aber Oszillatoren (oder auch Operator) werden grundsätzlich die Ton-Generatoren genannt. Diese setzen sich meist aus einem Wave Picker und Tune Controllern zusammen. Bei Multi-OSC-Synths werden auch Volume-Control-Regler bei den einzelnen Oszillatoren angegeben. Die Tune-Controller bestimmen diejenigen, auf welchen Ton der OSC gestimmt ist.

Meist gibt es zwei verschiedene Tune-Controller, den Semitone-Controller und den Detune-Controller. Der Semitone-Controller verschiebt den Input um die ausgewählte Anzahl an Semitönen (Halbtöne) nach oben oder unten. Dieser Kontroller wird auch oft mit Pitch betitelt. Der angegebene Wert muss keiner ganzen Zahl entsprechen, sondern kann auch Dezimalen enthalten. Falls dies nicht der Fall ist, gibt es meist einen so genannten Finetune-Controller. Dieser ist dann für die Dezimal-Werte zuständig. Der Detune-Controller funktioniert etwas anders. Er verstellt nämlich nicht den Unterton (Grundton), sondern fügt Obertöne (Teiltöne des Klangs, die für die Klangfarbe „zuständig“ sind), hinzu. Das führt zu einer Disharmonie, klingt also, als ob der Grundton verstimmt (detuned) wurde.

Im Wave-Picker wird die „Wellenart“ gewählt, die benutzt werden soll (eigentlich eher das „Aussehen“ der Amplitude). Um das zu verstehen, muss man wissen, dass der reinste mögliche Ton aus einer gleich schwingenden Welle besteht, der so genannten „Sinus-Welle“:

Sinus Welle

 

Diese Sinus-Welle wird mit einer gewissen Anzahl an Schwingungen (Frequenz) pro Sekunde erzeugt. Diese Frequenz gibt an, wie hoch bzw. tief der Ton ist. Der Kammerton A4 liegt z.B. bei 440 Hz (Hertz = Die Einheit für Frequenzen) also 440 Schwingungen pro Sekunde. Je höher die Hertz-Anzahl ist, des­to höher ist der Ton und umgekehrt. So liegt C8 (der höhste Ton eines Klaviers) bei 4,186 kHz (1 kHz = 1000 Hz) und A0 (tiefster Ton) bei 27,5 Hz. Natürlich ist das Erzeugen eines absolut reinen, aus nur einem Grundton ohne Obertöne bestehenden Tons unmöglich, aber die Synthesizer tun ihr Bestes. Wie genau jetzt das Verformen der Amplituden-Form funktioniert, ist einen Beitrag für sich wert, aber so viel sei gesagt: Es fügt Obertöne hinzu. Das reicht als Grundwissen. Was mit Wave Shapern und dergleichen gemacht wird, ist vorerst unbedeutend. Die folgenden Bilder samt Tonbeispielen lassen euch die Arten Triangle, Saw, Square sehen bzw. hören.

Triangle:

Triangle

 

Saw:

Saw

 

Square:

Square

 

Beim folgenden Beispiel handelt es sich um die besonderen Wellen des Round Saw, alle gespielt auf dem Kammerton A4. Lasst euch nicht von dem A3 verwirren. Das liegt daran, dass das VST eine andere Skala verwendet, die bei Minus-Noten beginnt.

Round Saw

 

Das waren die Basics eines Synthesizers. Etwas spezieller ist vielleicht Phase Offset, aber das gibt nur den Startwert der Amplitude an, also z. B. nicht am 0 Punkt, sondern schon halb in der Schwingung. Pan oder Panning, also der Panoramapotentiometer, Panpot oder einfach Panoramaregler, gibt die Lautstärkeverteilung eines Audiosignals auf zwei Kanälen an – demnach: wie gut der Ton von links bzw. rechts zu hören ist. Aber nun zu dem etwas schwierigeren Bereich: Envelope, LFO und Filter.

Was ist ein Envelope?

Die beste Übersetzung wäre Hüllkurve, da die Envelope-Kurve den Verlauf eines PARAMETERS angibt:

Envelope

Wenn dieser Parameter nicht fest eingestellt ist, wie beispielsweise bei einem Volume-Envelope, kann man ihm meist einen Parameter zuweisen in einer so genannten FX-Matrix. Das kann sich von Plugin zu Plugin allerdings unterscheiden. Die folgende Abbildung zeigt eine solche Matrix:

FX Matrix

Curve, Type, Mod und Aux (von auxiliary) Source sind recht selten, weswegen ich sie in diesem Beitrag außen vor lassen werde. Dass sie doch sehr nützlich sein können, zeige ich in einem anderen Beitrag, aber zurück zum Envelope. Eine Envelope-Kurve besteht aus vier Bereichen. Der erste wird durch den Attack-Regler bestimmt. Dieser gibt die Zeit an, die der Parameter braucht, um auf 2/3 der 100% (durch Makros verstellbar) zu kommen. Der zweite wird durch den Holdregler bestimmt. Dieser gibt an, wie lange der Paramter auf 100% bleiben soll, bevor er durch den dritten Bereich modelliert wird. Dieser wird durch Decay und Sustain bestimmt. Hierbei ist Decay eine Zeitangabe und Sustain eine „Höhen-“ oder Prozentangabe. Der Decay-Regler gibt an, wie lange der Parameter braucht, um auf den vom Sustain ausgewählten Prozentsatz zu kommen. Sobald der Parameter dort angekommen, ist bleibt er dort so lange, bis die Taste losgelassen wird. Ein Envelope beginnt bei Tastendruck. Sobald die Taste losgelassen wird, geht der Parameter in den vierten Bereich. Dieser wird durch den Release-Regler kontrolliert, welcher wiederum angibt, wie lange der Parameter braucht, um wieder auf 2/3 vor 0% (mit Makros verstellbar) zu gehen. In machen Plugins gibt es auch noch ein Delay-Regler. Dieser bestimmt, wie lange gewartet wird, bis die Envelope-Kurve anfängt zu wirken.

Was ist ein LFO?

LFO steht für „Low Frequency Oscillator“ und er macht genau das, was man von einem Oscillator erwartet. Er erzeugt einen Ton. Zumindest war das so in der analogen Zeit. Dieser Ton war damals aber auch unter 10 Hz, was ihn für das menschliche Gehör nicht hörbar machte, dafür war er auch nicht da. Ein LFO sollte schon damals einen Ton „verändern“. Um etwas genauer zu werden: durch die Schwingungen dieses vom LFO produzierten Tons entstehen im Hörfeld harmonische und unharmonische Teiltöne. Details spare ich aber hier aus, da es ohnehin um digitale LFOs geht. Das sind nicht anderes als wellenförmige Envelopes. Sie stellen also den Wert das Parameters gleichmäßig von einem Prozentsatz auf den anderen und zurück. Klingt zwar langweilig, ist aber aus der EDM nicht mehr weg zu denken.

Was macht die FX Matrix?

Eigentlich nichts anderes als einem Parameter (hier Destination genannt) einen „Verlauf“ anzugeben, so beispielsweise der Cutoff Frequency den zweiten Modulation Envelope. Amount regelt dabei, wie stark dieser Envelope beachtet werden soll. Output regelt, wie laut dieser Modulation wiedergegeben wird.

Mit all diesem Wissen können wir uns endlich einem der wichtigsten Themen der Synthesizer widmen.

Filter

Den Begriff bestimmt jeder schon jeder einmal gehört und sie machen genau das, was der Name vermuten lässt. Sie filtern etwas. Naja nicht ganz. Um genau zu sein, verstärken oder schwächen sie Frequenzen. Es gibt eine Reihe an Filtern mit einschlägigen Bezeichnungen. Ich werde hier die bekanntesten aufzählen:

Es gibt fünf Arten von Filtern, die man kennen sollte: den Peak Filter, den High Pass Filter, den Low Pass Filter, den High Shelf Filter und den Low Shelf Filter.

Peak Filter: Diese Art von Filter kann eine bestimmte Frequenz angeben oder absenken. Der Q-Parameter gibt dabei die sogenannte Flankensteilheit des Filters an. Das heißt, dass er die Breite und somit die Anhebung oder Absenkung der (Kern)Frequenz beeinflusst. Höhere Flankensteilheit vermindert die Breite und niedrige erhöht ihn. Somit werden mehr oder weniger Frequenzen erhöht bzw. gesenkt.

High Pass Filter: Wie der Name schon sagt, lässt der High Pass Filter alle Frequenzen, die oberhalb der Cutoff-Frequenzen liegen, „passieren“. Die leicht darunter liegenden werden geschwächt und die weiter hinten liegenden werden verstummt. Die Weite davon kann mit dem Parameter Q verstellt werden.

Low pass Filter: Dieser Filter bewirkt das genaue Gegenteil des Highpass-Filters. Heißt also, dass er alle Frequenzen über der Cutoff-Frequenz abschneidet und alle darunter frei passieren lässt. Dies folgt dem Muster des High Pass. Knapp dahinter wird leiser gestellt und weiter weg verstummt. Die Weite davon kann ebenfalls mit dem Parameter Q verstellt werden.

High Shelf Filter: Dieser Filter verstärkt alle Frequenzen über der Cutoff-Frequenz leicht bis stark. Der Steigungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.

Low Shelf Filter: Dieser Filter verstärkt alle Frequenzen unterhalb der Cutoff-Frequenz leicht bis stark. Der Steigerungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.

Band Pass: Dieser Filter filtert eine gewisse Frequenzbandbreite, z. B. von 500 Hz bis 15 kHz. Den Rest schwächt er ab oder lässt ihn verstummen. Wie schnell das passiert, kann man mit der Flankensteilheit einstellen.

Wer sich jetzt fragt, wofür man das brauchen könnte, sollte definitiv weiter lesen. Einerseits kann es natürlich verwendet werden, um dem Synth genau den Sound zu geben, den man möchte, und dafür sind auch die Filter in den Plugins gedacht. Auch für spezielle Effekte des Tons können Filter verwendet werden wie z. B. bei einem Wobble Bass der im Dubstep-Genre viel Verwendung findet. Für Build Ups wird auch oft ein Low Pass Filter verwendet.

Mit all diesem Wissen können wir endlich zu einem der interessantesten Punkte kommen. Den Effekten. Zu dieser Kategorie gehören zwar auch die Filter, aber da sie so wichtig sind, habe ich sie hier gesondert erklärt.

Welche Effekte gibt es?

Viele! Zu viele für diesen einzelnen Beitrag. Hier eine kurze Auflistung:

Distortion, Flanger, Phaser, Chorus, Compressor, Delay, Reverb, Equalizer, Stereo Widener, Soft Clipper, Limiter, Vocoder usw.

Ein Paradies, wenn man weiß, was die Effekte (kurz FX) machen, aber eben sehr nervig, wenn man es nicht weiß und den Sounds damit das gewisse Etwas fehlt. Ich werde versuchen, euch in diesem Beitrag die wichtigsten Effekte näher zu bringen und euch ihr Processing zu erklären. Hierbei ist wichtig zu wissen, dass man über jeden dieser Effekte eigentlich einen eigenen Beitrag machen könnte und ich es (damit es nicht zu lang wird) möglichst kurz halten werde.

Compressor

Compressor

Das ist wahrscheinlich der Effekt mit den meisten „Mythen“, die sich über die Zeit eingeschlichen haben. Zwar sind es keine direkten Fehler, aber halt auch nicht volle Wahrheiten. Aber der Reihe nach.

Was macht ein Compressor?

Allgemein wird meist gesagt, dass ein Compressor die dynamische Reichweite verringert. Das ist nicht ganz richtig. Zunächst aber zu den Grundlagen: ein Compressor setzt Töne, die über einem gewissen Schwellenwert sind, nach einer gewissen Rate herunter. Das funktioniert durch folgende Regler: Threshold und Ratio.  Threshold oder zu deutsch Schwellenwert ist die Angabe für den Dezibelwert, ab dem der Compressor anfängt zu wirken und die Lautstärke herunter regelt. Um wie viel das geregelt wird, wird durch den Ratio-Regler bestimmt. Dieser wird in einem Verhältnis von X zu 1 eingestellt (Beispiel: 10:1). Im Fall des Beispiels werden also alle 10 dB über dem Schwellwert auf 1 dB über den Schwellwert runter geregelt. Auch alles unter 10 dB ist betroffen. So werden z. B. 5 dB auf 0,5 herunter geregelt usw. Auch finden sich schon zwei bekannte Regler beim Compressor wieder: Attack und Release – und genau bei diesen Reglern ist der größte Fehler in der Signalverarbeitung versteckt, den man, wenn man aufmerksam war, erkennen kann. Hier die Erklärung: Der Attack regelt, wie lange das Signal über dem Schwellwert sein muss, bevor er reagiert. Fehler gefunden oder erraten? Falls nicht auch nicht schlimm. Die Attack-Zeit ist die Zeitspanne, die der Compressor braucht, um 2/3 des Verhältnisses zu reduzieren. Also genau wie beim Envelope. Man mag es nun glauben oder nicht, aber das gilt gleichsam für den Release. Heißt also, dass der Release nicht regelt, wie lange der Compressor nach Unterschreiten des Schwellwerts noch wirkt, sondern wie lange der Compressor braucht, um zurück auf 2/3 vom Verhältnis der Wirkung zurückzugehen. Klingt schwieriger als es ist. Wichtig ist eigentlich nur zu wissen, dass Attack die Anfangs-Zeit beeinflusst und Release die End-Zeit. Dann wäre da noch ein ganz wichtiger Regler. Der Makeup Gain. Um es kurz zu halten: Das ist der Regler für die Output-Lautstärke des Compressors. Den braucht man, da man ja bei Benutzung eines Compressors die Lautstärke des Input Signals beeinflusst.

Wofür braucht man einen Compressor?

Ein Compressor hat viele Anwendungsbereiche. Um eine zu nennen: Bei der Aufnahme eines Schlagzeugs werden nicht nur die einzelnen Elemente des Schlangzeug mit Mikrophonen versehen, es gibt auch oft ein so genanntes Room Mic. Dieses nimmt das ganze als Allgemeinheit auf. Wofür? Ganz einfach. Wenn der Song in Versen oder Refrain ist, werden natürlich die Spuren der einzelnen Mikrophone verwendet (diese werden übrigens auch meistens mit Compressoren bearbeitet), da der stärkere Sound gebraucht wird, damit man die Drums unter all den anderen Instrumenten oder vielleicht auch Stimmen auch gut hören kann (mehr dazu in der Mix Sektion). Das wäre mit dem „verwischten“ oder „ungenauen“ Sound des Room Mics nicht möglich, da keine eindeutige Definition bzw. Klangdifferenzierung besteht. Geht der Song jetzt aber in einen ruhigeren Teil über (z. B. Bridge)über, kann man das Room Mic sehr gut verwenden, um dem ganzen Song einen „Raum zu geben“. Klingt seltsam, ist aber eine Sache der Wahrnehmung, die beachtet wird, um alles realistischer klingen zu lassen, da ja der gesamte Schall im Raum aufgenommen wurde. Allerdings gibt es ein Problem bei der ganzen Sache. Manche Elemente des Schlagzeugs sind natürlich wesentlich lauter als andere und überdecken so die schwächeren. Ein Kick wird meist wesentlich lauter sein als eine Hi-Hat. Und  was schafft Abhilfe? Richtig. Ein Compressor. Dieser wird so eingestellt, dass er nur das Signal der lauten Elemente bearbeitet. Einfach das Gain hochdrehen und man hat einen wesentlich ausgeglicheneren Mix zwischen Snare, Hi-Hat, Ride, Kick usw. Es gibt natürlich auch Verwendung von Compressoren in digitaler Musik, sogar sehr viele.

Das sollte erst einmal zu Compressoren gewesen sein. Man könnte noch auf Multiband- Compressoren, DeEsser oder Noise Gate eingehen, aber dafür findet sich ein anderes Mal Zeit und Raum.

Equalizer

EQ

Equalizer sind aus der Musik nicht mehr wegzudenken. Der Equalizer sorgt erst dafür, dass ein Sound so klingt, wie er klingen soll, indem er die richtigen Akzente setzt oder dem Mix Platz für gewisse Frequenzen gibt. Zunächst widmen wir uns dem Overlay, wobei man da schon mittem im Themenbereich Equalizer ist. Bei Equalizern gilt es aber zu unterscheiden. Es gibt nämlich zwei Arten:

Was ist der Unterschied zwischen einem Parametrischen und einem Graphischen Equalizer?

Ein Parametrischer EQ (Equalizer) wird im Normalfall immer weniger Bänder (wird später erklärt) haben als ein Graphischer. Zudem hat man bei einem Parametischen EQ noch die Möglichkeit, die Flankensteilheit zu verstellen und die Frequenzen der einzelnen Bänder zu wählen, während bei einem Graphischen EQ diese Werte festgesetzt sind. Wer gut aufgepasst hat, dem wird aufgefallen sein, dass der Begriff Flankensteilheit bereits gefallen ist, und zwar bei den Filtern, ebenso wie der Begriff Frequenzen. Es ist also wahrscheinlich, dass diese etwas miteinander zu tun haben, nicht? Und genau so ist es auch.

Was macht ein Equalizer?

Das er etwas mit Frequenzen zu tun hat ist klar, und dass er sie erhöht oder senkt, ist durch die Erwähnung des Wortes Flankensteilheit auch logisch. Heißt also, Equalizer ist nur ein anderes Wort für Filter? Keineswegs. Ein Filter hat immer eine bestimmte Funktion auf einen Frequenzbereich bezogen. Ein Equalizer kann über mehrere sog. Bänder mehrere Frequenzbereiche gleichzeitig bearbeiten. Natürlich könnte man theoretisch auch mehrere Filter benutzen, aber das wäre viel zu umständlich. Mal davon abgesehen, dass viele EQs eine bessere Verarbeitung des Tons haben als ein Filter, da EQs nun einmal genau dafür gemacht sind, während Filter eher für grobere Soundeinstellungen sind, also um den groben Klang zu bekommen. Equalizer sind wesentlich genauer und haben ein größeres „Funktionen-Feld“. Bevor jemand fragt: Ja, man kann auch einen EQ anstatt eines Filter verwenden, das mache ich persönlich auch sehr oft.

Welche Regler gibt es?

Jeder, der jetzt mit vielen verschiedenen Bezeichnungen gerechnet hat, muss leider enttäuscht werden. An sich gibt es keine anderen Regler als bei Filtern. Im Fall eines Parametischen EQs wären das: Band Level, Band Frequency und Band Width (Flankensteilheit). Das Level ist die Stärke der Erhöhung oder Senkung, also um wie viel dB der Wert verändert werden soll. Die Band Frequency gibt die Grundfrequenz an, die bearbeitet werden soll, und die Band Width die Flankensteilheit. Also eigentlich nur Altbekanntes. Bei einem Graphischen EQ fehlen halt Band Frequency und Width, aber dafür gibt es viele Band Level. Diese sind entweder logarithmisch oder linear angegeben.

Wofür brauche ich einen EQ?

Man will ja nicht den Rahmen sprengen, deshalb alles in möglicher Knappheit, aber lasst mich so viel sagen: Ohne EQ wäre es höchstwahrscheinlich nicht möglich, einen guten Mix hinzukriegen. Ein Equalizer wird nicht nur genutzt, um dem Ton den richtigen Feinschliff zu geben, sondern auch um für den Ton „unwichtige“ Frequenzen herauszuschneiden oder zu senken, um „Platz“ für die anderen Töne im gesamten Mix zu machen. Wenn kein Input mit einem EQ bearbeitet werden würde, würden sich die einzelnen Instrumente, Vocals usw. nur stören und einander überlagern. Das würde sich am Ende einfach nur ungenau anhören und man hätte nicht annährend so viel Freude an der Musik. Das mit der Freude ist natürlich subjektiv, aber ich gehe davon aus, dass mir sehr viele zustimmen werden. Um aber ein praktisches Beispiel zu geben: Nehmen wir an, man macht einen Track für das Genre House. In diesem Genre sind starke, laute Sub Kicks (Focus bei ca. 50 – 100 Hz) nicht ungewöhnlich. Wenn man jetzt zur selben Zeit noch einen tieferen Lead Synth spielen hat, möchte man doch meinen, dass alles in Ordung ist, nicht? Nicht wirklich. Nicht nur kann ein Lead Synth auch mal runter bis 100 Hz (oder tiefer) gehen, auch spielt die Kick nicht ausschließlich im 50 – 100 Hz-Bereich. Der „Punch“ der Kick liegt darüber. Je nachdem, wie hell die Kick ist, kann das durchaus auch einmal in die 5 kHz gehen (oder noch höher). Es kann sein, dass man diesen Sound (im Bereich 5 kHz) bei der Kick will. Das ist auch kein Problem, dann muss man aber Side Chainen. Falls man aber wirklich nur die Sub-Kick will ohne Highs, dann sollte man diese einfach mit einem EQ entfernen. Warum? Ganz einfach. Dadurch kann sich der Lead Synth viel besser ausbreiten, da er keine anderen (in diesem Beispiel) Töne hat, die ihm diese Frequenzen „streitig machen“. Fall man sie nicht entfernen würde, müssten die Lautsprecher beide Frequenzen gleichzeitig abspielen und dann wird eine von beiden nicht mehr so gut hörbar sein. Im Falle einer sehr dominanten Kick (im House Genre nicht unüblich), wäre das wahrscheinlich der Lead Synth. Je weniger Frequenzen ihr für ein Instrument braucht, umso besser für die anderen, die diese sehr wohl brauchen. Macht einfach mal selbst den Vergleich (falls ihr selbst Musik produziert) und entfernt ungebrauchte Frequenzen der einzelnen Spuren. Ihr werdet sicher merken, was ich meinte. Falls man die Frequenzen allerdings auf dem Instrument behalten will, sollte man sich überlegen, Side Chaining zu verwenden, und einen Compressor aushelfen lassen. Was genau das ist, wird in einem anderen Beitrag geklärt.

Auch können wunderbar Störgeräusche entfernt werden. Falls man mit einem Synthesizer (mit dessen Sound man zufrieden ist) eine gute Melodie gefunden hat, aber ein komisches „Pipsen“ zu hören ist, das man einfach im Synth nicht wegbekommt, ohne den Sound komplett zu „zerstören“ (das ist natürlich ein Extremfall), kann man mit einem Peak-EQ mit hoher Flankensteilheit einfach über die Frequenzen gehen und nach diesem Geräusch suchen. Dass man es gefunden hat, merkt man, da es natürlich lauter wird (man muss freilich das Band Level aufdrehen). Wenn man ihn gefunden hat, einfach diesen Frequenzbereich herunterregeln und man hat einen viel sauberen Sound. Entweder dreht man dann noch das Gain hoch, damit der Ton nicht allgemein leiser wird oder man sucht sich eine Frequenzbandbreite, in der der Sound sehr gut definiert wird, und boostet diese. Das bleibt einem selbst überlassen, allerdings bevorzuge ich die zweite Variante.

Um nochmal ganz kurz auf den Feinschliff zurückzukommen: im folgenden Beispiel ist ein unbearbeiteter Synth zu hören:

 

Hier ist die fertige Version, also „im“ Compressor (EQ):

 

Reverb:

Ich kann mich an keine Soul- oder Balladen-Vocals erinnern, auf denen ich keinen Reverb hatte. Der Effekt ist dafür einfach zu gut. Zumindest finde ich das.

Was ist ein Reverb?

Reverb steht für Hall oder Nachhall, der synthetisch erzeugt wird.

Was wird simuliert?

Die Reflektion von Schall, der auf Wände, Menschen, Objekte oder Luft trifft, während Luft eher weniger „reflektiert“. In folgendem Tonbeispiel ist kein Reverb zu hören:

 

So klingt das Ganze mit Reverb:

 

Wie stellt man ein Reverb-Plugin ein?

Das kommt natürlich immer auf das eigene Empfinden an, aber ich kann euch erklären, was die einzelnen Regler machen. Im Gegensatz zum Finden des richtigen Sounds ist das Einstellen eines Reverbs einfach.

Da nicht jedes Reverb-Plugin gleich aufgebaut ist, werde ich hier nur kurz die relevantesten der Plugins erklären. Diese wären: Size/Room Size, Diffusion, Damp und Dry-Wet.

Dry/Wet: Dieser Regler macht nicht anderes als einzustellen, wie viel von dem Original-Input auch wieder zum Output gesendet werden soll. Wenn der Regler also auf 100% wet steht, hört man nur noch das pure Reverb-Signal. Dieser Regler wird manchmal auch Mix genannt oder in zwei einzelne Regler (Dry und Wet) aufgeteilt.

Room Size: Dieser Regler macht genau, was man erwartet. Er stellt die simulierte Größe des Raums, in dem sich die Tonquelle befindet, ein. Die Größe des Raums hat natürlich einen großen Einfluss auf den Sound.

Diffusion: Das ist sicherlich etwas schwerer zu erklären. Am einfachsten ist es, sich das Ganze wieder räumlich vorzustellen. Die beiden Bilder zeigen die räumliche Vorstellung. In folgender Grafik erkennt man einen Reverb mit einer sehr niedrigen Diffusion:

Diff_0

Wie man sieht, „befindet“ man sich in einem Raum mit wenigen Wänden. Die Auswirkung auf den Sound besteht darin, dass der Ton sehr schnell verschallt (um es einfach zu halten).

In folgender Abbildung erkennt man Reverb mit hoher Diffusion. Wie man sieht, ist es ein abgerundeter Raum. Der Sound „verschallt“ wesentlich langsamer:

Diff_1

Damping, zu deutsch dämpfend, ist ein Parameter. Er stellt die Dämpfung der hohen Frequenzen in dem Hallsignal ein. Dämpfung bezieht sich auf die Rate, bei der die hohen Frequenzen verstummen. Darum nennt man diesen Parameter auch High Damping. Ein hoher Damping-Wert lässt den Sound nur allmählich dämpfen, wodurch er wärmer wirkt.

Delay:

Das ist auch einer meiner absoluten Favoriten unter den Effekten. Bei diesem ist es auch wieder sehr wichtig zu beachten, dass es Input und Output gibt, die getrennt von einander gesehen werden müssen. Aber der Reihe nach:

Was ist ein Delay?

Die deutsch Übersetzung wäre Verzögerung und diese passt (oh Wunder) auch zu dem Effekt, denn er macht nichts anderes, als eine Verzögerung des Inputs zu erzeugen. Bei einer richtigen Verzögerung wäre der Original-Input natürlich nicht zu hören, da der Input ja verzögert wäre, aber bei einem Delay Plugin kann man einstellen, ob der Input (das Original-Signal) noch hörbar ist oder nur der Output (das Signal, das durch den Delay verändert wurde). Durch die Tatsache, dass man den Original-Input noch hört, könnte man zu Delay auch Echo sagen, aber die Bezeichnung ist eigentlich egal.

Welche Parameter hat ein Delay?

Wie immer kann man das pauschal nicht sagen, da kein Plugin genau gleich aufgebaut ist. Hier wollen wir uns (vorerst) mit den absoluten Standard-Reglern begnügen, nämlich: Sync, Panorama, Gain und Feedback.

Sync: Für ein gutes Delay ein sehr wichtiger Regler, der eigentlich nie fehlt. Dieser gibt an, in welchem Intervall der Output wiedergegeben werden soll. Das heißt also: Wenn der Sync Regler auf 1/4 gestellt ist und das Input-Signal durch den Delay geht, kommt nach genau einem Viertel-Takt (ja nach BPM [Beats Per Minute] halt schneller oder langsamer) der Output des Delays wieder – und das so lange, bis der Output nicht mehr hörbar ist. Der Sync Regler muss natürlich nicht auf genaue Taktwerte eingestellt werden. Man kann ihn auch über Millisekunden einstellen. Bei manchen Delays geht das auch, aber die meisten haben eine „Sync-with-BPM“-Funktion. Falls nicht, kann man auch einen BPM-in-MS-Rechner verwenden. Wichtig ist hierbei, dass das Output-Signal NICHT nochmals durch den Delay geht. Man kann sich Effekt-Racks gut als Kette vorstellen. Der Output des ersten Kettenglieds geht zu dem Input des nächsten usw. Das bedeutet, dass ein Plugin seinen Output nicht beachtet, den Output der Plugins allerdings schon.

Gain: Meißt wirkt der Gain-Regler für das Output-Signal, aber es kann auch vorkommen, dass es einen für das Input-Signal gibt. Das ist aber meistens beschriftet. Der Gain hebt das Output Signal auf den eingestelten Wert an. Wichtig: Dieser Wert ist NICHT von dem Feedback-Regler beeinflusst. Dieser wirkt nämlich erst auf das Signal nach dem Gain-Regler (zumindest im Normalfall).

Feedback: Wie bereits gesagt, wirkt der Feedback-Regler erst nach dem Gain-Parameter auf das Signal. Der Feedback-Parameter gibt ein Intervall an, in dem das Signal verstummen soll. Ein vereinfachtes Beispiel: Eine Mono-Signal,Snare spielt mit -7 dB FS (Dezibel Full Scale), der Gain habt das Signal auf -1 dB FS. Wenn man jetzt ein Feedback von -10 dB FS eingestellt hat, sind die dB FS Werte folgende: -7dB FS, -1 dB FS, -11 dB FS, -21 dB FS, -31 dB FS usw.

Panorama oder kurz Pan gibt das Verhältnis des Output-Signals auf dem linken und rechten Channel an. Wenn der Regler also ganz rechts steht, kommt auch nur auf dem rechten Ausgang ein Ton heraus  – und umgekehrt.

Ein 1/4 Delay bei 140 BPM KÖNNTE sich dann so anhören:

 

Ich würde zwar noch wirklich gerne auf Vocoder, Chorus, Phaser usw. eingehen, aber der Beitrag ist schon länger als der erste und ich glaube, dass man an dieser Stelle eine „Pause“ machen kann. Im dritten Teil der Reihe werde ich dann wohl noch auch auf besagte Effekt zu sprechen kommen (oder vielleicht auch auf ganz bestimmte, bekannte Plugins). Ich gedenke auch, bald zum Mixing, Mastering und Song-Arrangement gelangen zu können. Jetzt hoffe ich, dass ihr den Beitrag informativ fandet und wünsche euch wie immer viel Spaß und Erfolg beim Musizieren.