Musikproduktion Mini Trick: Sidechain

Einen wunderschönen guten Tag wünsche ich euch und willkommen zum ersten Beitrag von hoffentlich vielen zum Thema Mini Tricks für euren Mix.

Was sind Mini Tricks?

Um es kurz zu fassen: Mini Tricks sind Tricks, die möglichst kurz und bündig erklärt werden, aber trotz aller Kürze sehr hilfreich sein sollen. Diese Tricks werden sich eher an Anfänger richten, aber es kann durchaus auch sein, dass der ein oder andere Profi etwas lernen könnte.

Was ist Sidechaining?

https://upload.wikimedia.org/wikipedia/commons/thumb/0/00/Compressor_Sidechain.svg/500px-Compressor_Sidechain.svg.png

Zunächst muss man klären, was ein Sidechain ist. Das ist einfach eine stumme Weiterleitung eines externen Inputs in einen anderen Channel. Mittlerweile wird der Begriff Sidechaining verwendet, um Sidechain Compressor Processing zu beschreiben. Diesen „Effekt“ habt ihr bestimmt schon einmal gehört.

Was ist da passiert?

Ganz einfach. Jedes mal wenn die Lautstärke des Synths runter gegangen ist, „aktivierte“ sich ein Compressor.

Wozu ist das gut?

Sidechaining ist einer der besten Wege, um „Klarheit“ in einen Mix zu bringen. Der Klassiker ist die 4 on the floor Kick. Kommt euch dieser „Effekt“ bekannt vor?

Dieses „Pumpen“ wird duch einen Kompressor hervorgerufen, der das Sidechain-Signal der Kick Drum empfängt. Jedes mal, wenn jetzt durch den Channel der Kick Drum ein Signal geht, reagiert der Compressor. Das hat zur Folge, das die Lautstärke des Synths jedes mal runter geht, wenn die Kick Drum spielt. Das gibt einem „langweiligem“ Synth nicht nur einen Rhythmus, sondern wird die Kick Drum dadurch auch besser definiert. Ohne Compressor würde sich das Ganze weit nicht so klar anhören.

Wie Sidechaining funktioniert oder benutzt wird, ist von DAW zu DAW unterschiedlich, deshalb werde ich das jetzt erst einmal außen vor lassen. Dazu wird aber wahrscheinlich bald eine Beitragsreihe mit dem Titel „Meine DAW ist besser“ kommen. Ob ihr diesen „Effekt“ überhaupt benutzen wollt, bleibt eure Sache.

Ich wünsche euch weiterhin viel Spaß beim Musizieren!

Moderne Musikproduktion Teil 2

Moderne Musikproduktion Teil 2_Cover

Ich begrüße euch zum zweiten Teil der Beitrags-Reihe „Moderne Musikproduktion“.

Um was geht es?

In diesem Teil geht es um die Funktionen und Benutzung von Plugins, also entweder Virtuellen Instrumenten oder Effekten. Dabei werden wir bei den Instrumenten eher auf die Grundprinzipien eingehen, da ja nicht jedes Plugin gleich ist, und bei den Effekten wollen wir uns den Themenfeldern EQ (Equalizer), Compressor, Multiband Compressoren, Reverb und Delay genauer widmen sowie auf deren Funktionsweise eingehen. Ich hoffe ihr freut euch genau so wie ich, aber bevor wir anfangen, hole ich noch kurz etwas nach, was im letzten Beitrag gefehlt hat.

Welche DAW passt zu mir oder welche ist die beste?

Das ist die wahrscheinlich am häufigsten gestelle Frage in der weiten Welt der Musikproduktion und keiner kann eine genaue Antwort liefern. Allerdings gibt es doch so ein paar Dinge, bei denen man sich einig ist, den Rest muss man für sich selbst entscheiden. Ich hoffe, die folgenden Tipps werden dir in der Wahl deiner DAW helfen.

Welche DAW wofür?

Es gibt drei hauptsächliche Anwendungsbereiche für DAWs. Man kann natürlich jede DAW für alle Bereiche verwenden, aber manche eignen sich halt besser als andere. An dieser Stelle möchte ich auch darauf hinweisen, dass genauere Tutorials zu den einzelnen DAWs in Zukunft kommen werden.

Auftritte Live: Dafür wird fast immer Ableton Live benutzt. Es hat das Live ja schon im Namen. Die beliebte DJ-Software bringt nämlich alles, was man für einen gelungenen Live-Auftritt braucht, hat aber auch alles, was man für Home Recording benötigt. Sie ist sehr bekannt und die meisten Tonstudios haben es auf mindestens einem Rechner laufen. Warum also auf eine andere zurückgreifen? Ganz einfach. Die Steuerung ist gewöhnungsbedürftig und mit 600€ für die „Vollversion“ (Suite) auch nicht gerade günstig. Es gibt auch eine Version für 350€ (Standard). Dieser fehlen allerdings relativ viele gute Sounds und nur 3 von 9 vorinstallieren Instrumenten sind vorhanden. Über die 80€ (Intro)-Version will man gar nicht reden. Soll heißen: eingeschränkte Funktionen, nicht mal ein Drittel aller Sounds und fehlende Effekte raten schon alleine von dieser Version ab. Alternative? Cubase! Niemand geringeres als Skrillex selbst verwendet auch für seine Live-Auftritte Cubase und das, obwohl es hauptsächlich für Home Recording verwendet wird – ein perfektes Beispiel dafür, dass es auf die Verwendung ankommt und nicht auf die DAW.

Home Recording: Cubase, FL Studio, Reaper, Ableton Live, Pro Tools, Logic Pro X, Reason, Studio One und sogar das von mir nicht sehr geschätzte Sonar X3 kann man dafür verwenden. Jede DAW, die es gibt, eignet sich dafür, da das der  Hauptanwendungsbereich ist. Hier hilft nichts als Testen oder sich im Fachhandel erkundigen.

Mixing und Mastering: Ich, der den Beruf des Audio Engineers anstrebt, werde hier einen Mastering-Experten zitieren: „Pro Tools! Punkt!“ Mit diesen weisen Worten wäre alles gesagt. Naja fast. Es ist einfach so, dass eigentlich alle großen Tonstudios Pro Tools verwenden. Das liegt einfach daran, dass es für diesen Bereich (Mixing und Mastering) optimiert ist, beispielsweise durch Funktionen wie den Over-Sampling-Mode. Die Audioverarbeitung ist einfach ideal einstellbar und es bietet alle Funktionen, die man braucht.

Nun aber zurück zum eigentlichen Thema:

Plugins:

Es gibt leider nicht nur „das Plugin“. Es gibt eine Vielzahl von Plugins. Wir schauen uns ganz kurz VST, AAX, AU und RTAS an.

VST: Das ist die Abkürzung für Virtual Studio Technology. Das ist das von Steinberg Media Technologies entwickelte Software-Protokoll. Es gibt eine große Anzahl an VST-Plugins, viel zu viele, um alle zu nennen. Fast alle DAWs können VSTs benutzen. Pro Tools ist eine Ausnahme, aber mit Bridgern (einem Umwandlungsprogramm) geht auch das.

AAX: Avid Audio Extension. Das ist ein speziell für Pro Tools entwickeltes Software-Protokoll. Es wird ausschließlich von Pro Tools verwendet, ist also eher selten anzutreffen. Viele Entwickler müssen ihre Plugins immer noch in das AAX-Format umwandeln, auch wenn die Zahl immer kleiner wird, doch viele machen sich diese Mühe nicht, was Pro Tools aber nicht wirklich schadet, da es schon alles Wichtige hat.

RTAS: Das steht für RealTimeAudioSuite. Das war das erste ausschließlich für Pro Tools entwickelte Software-Protokoll. Seit Version 10.8 wird dieses aber nicht mehr unterstützt, weshalb es eigentlich nicht mehr vorkommt.

AU: Die Abkürzung für Audio Unit ist ein von Apple entwickeltes Format für Plugins. Logic benutzt ausschließlich diese Format, aber die meisten anderen DAWs, die auf einem Mac laufen, verwenden auch VSTs.

Wie verwende ich Plugins?

Die Antwort zu dieser Frage ist natürlich von DAW zu DAW unterschiedlich. Wenn man aber einmal weiß, wie es geht, ist es ganz einfach. Meist reicht es, die Standard-Installation auszuführen, und beim Starten der DAW wird das Plugin automatisch erkannt. Dann muss man nur noch wissen, wie man es in der DAW selbst öffnet.

Instrumente:

Es gibt eine immense Anzahl an Virtuellen Instrumenten in allen möglichen Preisklassen. Aber einige Funktionen sind bei den meisten vertreten.

Sampler: Dabei handelt es sich um die einfache Art der Virtuellen Instrumente. Sampler spielen aufgenommene Töne ab und transponieren diese bei Bedarf. An sich gibt es zwei Arten von Samplern. Die einen benutzen Sounds, die ihnen manuell vorgegeben werden (wie Drum Machines), die anderen arbeiten mit Presets oder Soundfonts. Soundfonts sind in einem Format gespeicherte Samples und Parameter-Beschreibungen, die mit SoundFont-Playern abgespielt werden.

Synthesizer: Diese Instrumente sind wesentlich komplexer. Sie generieren nämlich selbst Sounds. Wie das funktioniert, ist ein Kapitel für sich, aber die Funktionen von einem Synthesizer werde ich euch versuchen näher zu bringen – wobei man nicht ganz an der Erzeugung des Tons vorbeikommt. Ganz kurz: Ein Ton setzt sich zusammen aus Schalldruckpegel (gemessen in Dezibel [dB]) und Frequenzen  (gemessen in Hertz [hZ]). Bei einem synthetisch generierten Ton sind dann noch Parameter wie Bit-Tiefe und Samplerrate wichtig, aber die lasse ich jetzt mal außen vor, da sie für diese Erklärung keine Rolle spielen. Der Schalldruckpegel bestimmt die Lautstärke eines Tons und die Frequenzzahl die Höhe. Hertz ist an sich nur eine Umschreibung für Schwingungen pro Sekunde. Also sind 100 hZ 100 Schwingungen pro Sekunde. Aber Schwingungen von was? Dafür muss man wissen, dass sich Geräusche wie Licht ausbreiten, also in Wellenform. Je schneller diese Welle schwingt, desto höher ist der Ton. Die Lautstärke wird dadurch bestimmt, wie stark die Schallwelle auf einen Körper (zum Messen auf eine Membran) trifft – also wie schnell er sich ausbreitet. Schnelligkeit der Ausbreitung und Schnelligkeit der Schwingung sind zwei unterschiedliche Dinge. Das eine ist eine Bewegung in die Richtung, in die der Schall „geworfen“ wird, das andere die Bewegung der Schallwelle selbst. Jetzt aber genug zum Thema Ton-Generierung. Viel interessanter ist ohnehin, wie ein Synthesizer funktioniert. Er macht nichts anderes, als eine sogenannte Sinus-Welle (Bezeichnung für den reinsten Ton [Eine gleichbleibende Welle ohne Verzerrung im negativen oder positiven Bereich – gezeigt im nachfolgenden Bild]) zu verändern.

welle

Dadurch entstehen, je nach Veränderung, andere Töne (wie genau diese Veränderung funktioniert, werde ich nicht erklären, da ein eigener Beitrag dafür notwendig wäre; das ist ein großer Teil eines Moduls in der Ausbildung zum Tontechniker). Dieser entstandene Ton kann synthetisch klingen:

 

oder auch eine Imitation eines realen Instruments sein:

 

Der ein oder andere „Experte“ wird jetzt sagen, dass man das ja einfach mit Presets machen kann – auswählen und fertig. Das stimmt, aber jeder richtige Experte wird mir zustimmen, wenn ich sage, dass es besser ist, seinen eigenen Sound (oder bei Effekten eigene Einstellungen) zu erstellen. Das wird im Normalfall wesentlich besser in den eigenen Track passen als irgendein Preset. Es ist natürlich nicht einfach, einen gewissen Sound zu erstellen, aber mit Übung klappt das schon. Ich habe z. B. versucht, den Sound von dem Lead Synth aus Martin Garrix` – Poison (dem Drop-Part) nachzuahmen und ich würde sagen, das ist doch relativ gut gelungen. Dabei gab es nur eine Herausforderung: Das, was ihr in folgendem Beispiel hört, ist nicht nur ein Synth, sondern fünf, die gleichzeitig spielen.

 

Diese „Technik“ ist das so genannte Layering. Das bedeutet, dass mehrere Instrumente (der etwa gleichen Art) das Gleiche spielen. Diese Technik findet sich in so ziemlich allen Pop- oder Hand-Up- bzw. allen Songs der EDM wieder, und das nicht nur bei Synths, sondern auch bei Drums, egal ob Snare oder Kick. Dabei gilt aber auch einiges zu beachten – dazu an anderer Stelle mehr.

Was können diese ganzen Regler?

Dieser Frage stellen sich wahrscheinlich alle, die das erste Mal einen Synthesizer sehen. Verständlich, da es wirklich ziemlich viel auf einmal ist. Ich werde versuchen, euch in diesem Teil die wichtigsten Funktionen zu erklären und in späteren Beiträgen vielleicht einmal auf die „versteckten“ oder speziellen Funktionen eingehen. Das Wichtigste zu unserem Thema aber nun hier: der bzw. die OSCs. Das steht für Oszillator. Na gut. Um ehrlich zu sein, steht das für Open Sound Control, aber Oszillatoren (oder auch Operator) werden grundsätzlich die Ton-Generatoren genannt. Diese setzen sich meist aus einem Wave Picker und Tune Controllern zusammen. Bei Multi-OSC-Synths werden auch Volume-Control-Regler bei den einzelnen Oszillatoren angegeben. Die Tune-Controller bestimmen diejenigen, auf welchen Ton der OSC gestimmt ist.

Meist gibt es zwei verschiedene Tune-Controller, den Semitone-Controller und den Detune-Controller. Der Semitone-Controller verschiebt den Input um die ausgewählte Anzahl an Semitönen (Halbtöne) nach oben oder unten. Dieser Kontroller wird auch oft mit Pitch betitelt. Der angegebene Wert muss keiner ganzen Zahl entsprechen, sondern kann auch Dezimalen enthalten. Falls dies nicht der Fall ist, gibt es meist einen so genannten Finetune-Controller. Dieser ist dann für die Dezimal-Werte zuständig. Der Detune-Controller funktioniert etwas anders. Er verstellt nämlich nicht den Unterton (Grundton), sondern fügt Obertöne (Teiltöne des Klangs, die für die Klangfarbe „zuständig“ sind), hinzu. Das führt zu einer Disharmonie, klingt also, als ob der Grundton verstimmt (detuned) wurde.

Im Wave-Picker wird die „Wellenart“ gewählt, die benutzt werden soll (eigentlich eher das „Aussehen“ der Amplitude). Um das zu verstehen, muss man wissen, dass der reinste mögliche Ton aus einer gleich schwingenden Welle besteht, der so genannten „Sinus-Welle“:

Sinus Welle

 

Diese Sinus-Welle wird mit einer gewissen Anzahl an Schwingungen (Frequenz) pro Sekunde erzeugt. Diese Frequenz gibt an, wie hoch bzw. tief der Ton ist. Der Kammerton A4 liegt z.B. bei 440 Hz (Hertz = Die Einheit für Frequenzen) also 440 Schwingungen pro Sekunde. Je höher die Hertz-Anzahl ist, des­to höher ist der Ton und umgekehrt. So liegt C8 (der höhste Ton eines Klaviers) bei 4,186 kHz (1 kHz = 1000 Hz) und A0 (tiefster Ton) bei 27,5 Hz. Natürlich ist das Erzeugen eines absolut reinen, aus nur einem Grundton ohne Obertöne bestehenden Tons unmöglich, aber die Synthesizer tun ihr Bestes. Wie genau jetzt das Verformen der Amplituden-Form funktioniert, ist einen Beitrag für sich wert, aber so viel sei gesagt: Es fügt Obertöne hinzu. Das reicht als Grundwissen. Was mit Wave Shapern und dergleichen gemacht wird, ist vorerst unbedeutend. Die folgenden Bilder samt Tonbeispielen lassen euch die Arten Triangle, Saw, Square sehen bzw. hören.

Triangle:

Triangle

 

Saw:

Saw

 

Square:

Square

 

Beim folgenden Beispiel handelt es sich um die besonderen Wellen des Round Saw, alle gespielt auf dem Kammerton A4. Lasst euch nicht von dem A3 verwirren. Das liegt daran, dass das VST eine andere Skala verwendet, die bei Minus-Noten beginnt.

Round Saw

 

Das waren die Basics eines Synthesizers. Etwas spezieller ist vielleicht Phase Offset, aber das gibt nur den Startwert der Amplitude an, also z. B. nicht am 0 Punkt, sondern schon halb in der Schwingung. Pan oder Panning, also der Panoramapotentiometer, Panpot oder einfach Panoramaregler, gibt die Lautstärkeverteilung eines Audiosignals auf zwei Kanälen an – demnach: wie gut der Ton von links bzw. rechts zu hören ist. Aber nun zu dem etwas schwierigeren Bereich: Envelope, LFO und Filter.

Was ist ein Envelope?

Die beste Übersetzung wäre Hüllkurve, da die Envelope-Kurve den Verlauf eines PARAMETERS angibt:

Envelope

Wenn dieser Parameter nicht fest eingestellt ist, wie beispielsweise bei einem Volume-Envelope, kann man ihm meist einen Parameter zuweisen in einer so genannten FX-Matrix. Das kann sich von Plugin zu Plugin allerdings unterscheiden. Die folgende Abbildung zeigt eine solche Matrix:

FX Matrix

Curve, Type, Mod und Aux (von auxiliary) Source sind recht selten, weswegen ich sie in diesem Beitrag außen vor lassen werde. Dass sie doch sehr nützlich sein können, zeige ich in einem anderen Beitrag, aber zurück zum Envelope. Eine Envelope-Kurve besteht aus vier Bereichen. Der erste wird durch den Attack-Regler bestimmt. Dieser gibt die Zeit an, die der Parameter braucht, um auf 2/3 der 100% (durch Makros verstellbar) zu kommen. Der zweite wird durch den Holdregler bestimmt. Dieser gibt an, wie lange der Paramter auf 100% bleiben soll, bevor er durch den dritten Bereich modelliert wird. Dieser wird durch Decay und Sustain bestimmt. Hierbei ist Decay eine Zeitangabe und Sustain eine „Höhen-“ oder Prozentangabe. Der Decay-Regler gibt an, wie lange der Parameter braucht, um auf den vom Sustain ausgewählten Prozentsatz zu kommen. Sobald der Parameter dort angekommen, ist bleibt er dort so lange, bis die Taste losgelassen wird. Ein Envelope beginnt bei Tastendruck. Sobald die Taste losgelassen wird, geht der Parameter in den vierten Bereich. Dieser wird durch den Release-Regler kontrolliert, welcher wiederum angibt, wie lange der Parameter braucht, um wieder auf 2/3 vor 0% (mit Makros verstellbar) zu gehen. In machen Plugins gibt es auch noch ein Delay-Regler. Dieser bestimmt, wie lange gewartet wird, bis die Envelope-Kurve anfängt zu wirken.

Was ist ein LFO?

LFO steht für „Low Frequency Oscillator“ und er macht genau das, was man von einem Oscillator erwartet. Er erzeugt einen Ton. Zumindest war das so in der analogen Zeit. Dieser Ton war damals aber auch unter 10 Hz, was ihn für das menschliche Gehör nicht hörbar machte, dafür war er auch nicht da. Ein LFO sollte schon damals einen Ton „verändern“. Um etwas genauer zu werden: durch die Schwingungen dieses vom LFO produzierten Tons entstehen im Hörfeld harmonische und unharmonische Teiltöne. Details spare ich aber hier aus, da es ohnehin um digitale LFOs geht. Das sind nicht anderes als wellenförmige Envelopes. Sie stellen also den Wert das Parameters gleichmäßig von einem Prozentsatz auf den anderen und zurück. Klingt zwar langweilig, ist aber aus der EDM nicht mehr weg zu denken.

Was macht die FX Matrix?

Eigentlich nichts anderes als einem Parameter (hier Destination genannt) einen „Verlauf“ anzugeben, so beispielsweise der Cutoff Frequency den zweiten Modulation Envelope. Amount regelt dabei, wie stark dieser Envelope beachtet werden soll. Output regelt, wie laut dieser Modulation wiedergegeben wird.

Mit all diesem Wissen können wir uns endlich einem der wichtigsten Themen der Synthesizer widmen.

Filter

Den Begriff bestimmt jeder schon jeder einmal gehört und sie machen genau das, was der Name vermuten lässt. Sie filtern etwas. Naja nicht ganz. Um genau zu sein, verstärken oder schwächen sie Frequenzen. Es gibt eine Reihe an Filtern mit einschlägigen Bezeichnungen. Ich werde hier die bekanntesten aufzählen:

Es gibt fünf Arten von Filtern, die man kennen sollte: den Peak Filter, den High Pass Filter, den Low Pass Filter, den High Shelf Filter und den Low Shelf Filter.

Peak Filter: Diese Art von Filter kann eine bestimmte Frequenz angeben oder absenken. Der Q-Parameter gibt dabei die sogenannte Flankensteilheit des Filters an. Das heißt, dass er die Breite und somit die Anhebung oder Absenkung der (Kern)Frequenz beeinflusst. Höhere Flankensteilheit vermindert die Breite und niedrige erhöht ihn. Somit werden mehr oder weniger Frequenzen erhöht bzw. gesenkt.

High Pass Filter: Wie der Name schon sagt, lässt der High Pass Filter alle Frequenzen, die oberhalb der Cutoff-Frequenzen liegen, „passieren“. Die leicht darunter liegenden werden geschwächt und die weiter hinten liegenden werden verstummt. Die Weite davon kann mit dem Parameter Q verstellt werden.

Low pass Filter: Dieser Filter bewirkt das genaue Gegenteil des Highpass-Filters. Heißt also, dass er alle Frequenzen über der Cutoff-Frequenz abschneidet und alle darunter frei passieren lässt. Dies folgt dem Muster des High Pass. Knapp dahinter wird leiser gestellt und weiter weg verstummt. Die Weite davon kann ebenfalls mit dem Parameter Q verstellt werden.

High Shelf Filter: Dieser Filter verstärkt alle Frequenzen über der Cutoff-Frequenz leicht bis stark. Der Steigungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.

Low Shelf Filter: Dieser Filter verstärkt alle Frequenzen unterhalb der Cutoff-Frequenz leicht bis stark. Der Steigerungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.

Band Pass: Dieser Filter filtert eine gewisse Frequenzbandbreite, z. B. von 500 Hz bis 15 kHz. Den Rest schwächt er ab oder lässt ihn verstummen. Wie schnell das passiert, kann man mit der Flankensteilheit einstellen.

Wer sich jetzt fragt, wofür man das brauchen könnte, sollte definitiv weiter lesen. Einerseits kann es natürlich verwendet werden, um dem Synth genau den Sound zu geben, den man möchte, und dafür sind auch die Filter in den Plugins gedacht. Auch für spezielle Effekte des Tons können Filter verwendet werden wie z. B. bei einem Wobble Bass der im Dubstep-Genre viel Verwendung findet. Für Build Ups wird auch oft ein Low Pass Filter verwendet.

Mit all diesem Wissen können wir endlich zu einem der interessantesten Punkte kommen. Den Effekten. Zu dieser Kategorie gehören zwar auch die Filter, aber da sie so wichtig sind, habe ich sie hier gesondert erklärt.

Welche Effekte gibt es?

Viele! Zu viele für diesen einzelnen Beitrag. Hier eine kurze Auflistung:

Distortion, Flanger, Phaser, Chorus, Compressor, Delay, Reverb, Equalizer, Stereo Widener, Soft Clipper, Limiter, Vocoder usw.

Ein Paradies, wenn man weiß, was die Effekte (kurz FX) machen, aber eben sehr nervig, wenn man es nicht weiß und den Sounds damit das gewisse Etwas fehlt. Ich werde versuchen, euch in diesem Beitrag die wichtigsten Effekte näher zu bringen und euch ihr Processing zu erklären. Hierbei ist wichtig zu wissen, dass man über jeden dieser Effekte eigentlich einen eigenen Beitrag machen könnte und ich es (damit es nicht zu lang wird) möglichst kurz halten werde.

Compressor

Compressor

Das ist wahrscheinlich der Effekt mit den meisten „Mythen“, die sich über die Zeit eingeschlichen haben. Zwar sind es keine direkten Fehler, aber halt auch nicht volle Wahrheiten. Aber der Reihe nach.

Was macht ein Compressor?

Allgemein wird meist gesagt, dass ein Compressor die dynamische Reichweite verringert. Das ist nicht ganz richtig. Zunächst aber zu den Grundlagen: ein Compressor setzt Töne, die über einem gewissen Schwellenwert sind, nach einer gewissen Rate herunter. Das funktioniert durch folgende Regler: Threshold und Ratio.  Threshold oder zu deutsch Schwellenwert ist die Angabe für den Dezibelwert, ab dem der Compressor anfängt zu wirken und die Lautstärke herunter regelt. Um wie viel das geregelt wird, wird durch den Ratio-Regler bestimmt. Dieser wird in einem Verhältnis von X zu 1 eingestellt (Beispiel: 10:1). Im Fall des Beispiels werden also alle 10 dB über dem Schwellwert auf 1 dB über den Schwellwert runter geregelt. Auch alles unter 10 dB ist betroffen. So werden z. B. 5 dB auf 0,5 herunter geregelt usw. Auch finden sich schon zwei bekannte Regler beim Compressor wieder: Attack und Release – und genau bei diesen Reglern ist der größte Fehler in der Signalverarbeitung versteckt, den man, wenn man aufmerksam war, erkennen kann. Hier die Erklärung: Der Attack regelt, wie lange das Signal über dem Schwellwert sein muss, bevor er reagiert. Fehler gefunden oder erraten? Falls nicht auch nicht schlimm. Die Attack-Zeit ist die Zeitspanne, die der Compressor braucht, um 2/3 des Verhältnisses zu reduzieren. Also genau wie beim Envelope. Man mag es nun glauben oder nicht, aber das gilt gleichsam für den Release. Heißt also, dass der Release nicht regelt, wie lange der Compressor nach Unterschreiten des Schwellwerts noch wirkt, sondern wie lange der Compressor braucht, um zurück auf 2/3 vom Verhältnis der Wirkung zurückzugehen. Klingt schwieriger als es ist. Wichtig ist eigentlich nur zu wissen, dass Attack die Anfangs-Zeit beeinflusst und Release die End-Zeit. Dann wäre da noch ein ganz wichtiger Regler. Der Makeup Gain. Um es kurz zu halten: Das ist der Regler für die Output-Lautstärke des Compressors. Den braucht man, da man ja bei Benutzung eines Compressors die Lautstärke des Input Signals beeinflusst.

Wofür braucht man einen Compressor?

Ein Compressor hat viele Anwendungsbereiche. Um eine zu nennen: Bei der Aufnahme eines Schlagzeugs werden nicht nur die einzelnen Elemente des Schlangzeug mit Mikrophonen versehen, es gibt auch oft ein so genanntes Room Mic. Dieses nimmt das ganze als Allgemeinheit auf. Wofür? Ganz einfach. Wenn der Song in Versen oder Refrain ist, werden natürlich die Spuren der einzelnen Mikrophone verwendet (diese werden übrigens auch meistens mit Compressoren bearbeitet), da der stärkere Sound gebraucht wird, damit man die Drums unter all den anderen Instrumenten oder vielleicht auch Stimmen auch gut hören kann (mehr dazu in der Mix Sektion). Das wäre mit dem „verwischten“ oder „ungenauen“ Sound des Room Mics nicht möglich, da keine eindeutige Definition bzw. Klangdifferenzierung besteht. Geht der Song jetzt aber in einen ruhigeren Teil über (z. B. Bridge)über, kann man das Room Mic sehr gut verwenden, um dem ganzen Song einen „Raum zu geben“. Klingt seltsam, ist aber eine Sache der Wahrnehmung, die beachtet wird, um alles realistischer klingen zu lassen, da ja der gesamte Schall im Raum aufgenommen wurde. Allerdings gibt es ein Problem bei der ganzen Sache. Manche Elemente des Schlagzeugs sind natürlich wesentlich lauter als andere und überdecken so die schwächeren. Ein Kick wird meist wesentlich lauter sein als eine Hi-Hat. Und  was schafft Abhilfe? Richtig. Ein Compressor. Dieser wird so eingestellt, dass er nur das Signal der lauten Elemente bearbeitet. Einfach das Gain hochdrehen und man hat einen wesentlich ausgeglicheneren Mix zwischen Snare, Hi-Hat, Ride, Kick usw. Es gibt natürlich auch Verwendung von Compressoren in digitaler Musik, sogar sehr viele.

Das sollte erst einmal zu Compressoren gewesen sein. Man könnte noch auf Multiband- Compressoren, DeEsser oder Noise Gate eingehen, aber dafür findet sich ein anderes Mal Zeit und Raum.

Equalizer

EQ

Equalizer sind aus der Musik nicht mehr wegzudenken. Der Equalizer sorgt erst dafür, dass ein Sound so klingt, wie er klingen soll, indem er die richtigen Akzente setzt oder dem Mix Platz für gewisse Frequenzen gibt. Zunächst widmen wir uns dem Overlay, wobei man da schon mittem im Themenbereich Equalizer ist. Bei Equalizern gilt es aber zu unterscheiden. Es gibt nämlich zwei Arten:

Was ist der Unterschied zwischen einem Parametrischen und einem Graphischen Equalizer?

Ein Parametrischer EQ (Equalizer) wird im Normalfall immer weniger Bänder (wird später erklärt) haben als ein Graphischer. Zudem hat man bei einem Parametischen EQ noch die Möglichkeit, die Flankensteilheit zu verstellen und die Frequenzen der einzelnen Bänder zu wählen, während bei einem Graphischen EQ diese Werte festgesetzt sind. Wer gut aufgepasst hat, dem wird aufgefallen sein, dass der Begriff Flankensteilheit bereits gefallen ist, und zwar bei den Filtern, ebenso wie der Begriff Frequenzen. Es ist also wahrscheinlich, dass diese etwas miteinander zu tun haben, nicht? Und genau so ist es auch.

Was macht ein Equalizer?

Das er etwas mit Frequenzen zu tun hat ist klar, und dass er sie erhöht oder senkt, ist durch die Erwähnung des Wortes Flankensteilheit auch logisch. Heißt also, Equalizer ist nur ein anderes Wort für Filter? Keineswegs. Ein Filter hat immer eine bestimmte Funktion auf einen Frequenzbereich bezogen. Ein Equalizer kann über mehrere sog. Bänder mehrere Frequenzbereiche gleichzeitig bearbeiten. Natürlich könnte man theoretisch auch mehrere Filter benutzen, aber das wäre viel zu umständlich. Mal davon abgesehen, dass viele EQs eine bessere Verarbeitung des Tons haben als ein Filter, da EQs nun einmal genau dafür gemacht sind, während Filter eher für grobere Soundeinstellungen sind, also um den groben Klang zu bekommen. Equalizer sind wesentlich genauer und haben ein größeres „Funktionen-Feld“. Bevor jemand fragt: Ja, man kann auch einen EQ anstatt eines Filter verwenden, das mache ich persönlich auch sehr oft.

Welche Regler gibt es?

Jeder, der jetzt mit vielen verschiedenen Bezeichnungen gerechnet hat, muss leider enttäuscht werden. An sich gibt es keine anderen Regler als bei Filtern. Im Fall eines Parametischen EQs wären das: Band Level, Band Frequency und Band Width (Flankensteilheit). Das Level ist die Stärke der Erhöhung oder Senkung, also um wie viel dB der Wert verändert werden soll. Die Band Frequency gibt die Grundfrequenz an, die bearbeitet werden soll, und die Band Width die Flankensteilheit. Also eigentlich nur Altbekanntes. Bei einem Graphischen EQ fehlen halt Band Frequency und Width, aber dafür gibt es viele Band Level. Diese sind entweder logarithmisch oder linear angegeben.

Wofür brauche ich einen EQ?

Man will ja nicht den Rahmen sprengen, deshalb alles in möglicher Knappheit, aber lasst mich so viel sagen: Ohne EQ wäre es höchstwahrscheinlich nicht möglich, einen guten Mix hinzukriegen. Ein Equalizer wird nicht nur genutzt, um dem Ton den richtigen Feinschliff zu geben, sondern auch um für den Ton „unwichtige“ Frequenzen herauszuschneiden oder zu senken, um „Platz“ für die anderen Töne im gesamten Mix zu machen. Wenn kein Input mit einem EQ bearbeitet werden würde, würden sich die einzelnen Instrumente, Vocals usw. nur stören und einander überlagern. Das würde sich am Ende einfach nur ungenau anhören und man hätte nicht annährend so viel Freude an der Musik. Das mit der Freude ist natürlich subjektiv, aber ich gehe davon aus, dass mir sehr viele zustimmen werden. Um aber ein praktisches Beispiel zu geben: Nehmen wir an, man macht einen Track für das Genre House. In diesem Genre sind starke, laute Sub Kicks (Focus bei ca. 50 – 100 Hz) nicht ungewöhnlich. Wenn man jetzt zur selben Zeit noch einen tieferen Lead Synth spielen hat, möchte man doch meinen, dass alles in Ordung ist, nicht? Nicht wirklich. Nicht nur kann ein Lead Synth auch mal runter bis 100 Hz (oder tiefer) gehen, auch spielt die Kick nicht ausschließlich im 50 – 100 Hz-Bereich. Der „Punch“ der Kick liegt darüber. Je nachdem, wie hell die Kick ist, kann das durchaus auch einmal in die 5 kHz gehen (oder noch höher). Es kann sein, dass man diesen Sound (im Bereich 5 kHz) bei der Kick will. Das ist auch kein Problem, dann muss man aber Side Chainen. Falls man aber wirklich nur die Sub-Kick will ohne Highs, dann sollte man diese einfach mit einem EQ entfernen. Warum? Ganz einfach. Dadurch kann sich der Lead Synth viel besser ausbreiten, da er keine anderen (in diesem Beispiel) Töne hat, die ihm diese Frequenzen „streitig machen“. Fall man sie nicht entfernen würde, müssten die Lautsprecher beide Frequenzen gleichzeitig abspielen und dann wird eine von beiden nicht mehr so gut hörbar sein. Im Falle einer sehr dominanten Kick (im House Genre nicht unüblich), wäre das wahrscheinlich der Lead Synth. Je weniger Frequenzen ihr für ein Instrument braucht, umso besser für die anderen, die diese sehr wohl brauchen. Macht einfach mal selbst den Vergleich (falls ihr selbst Musik produziert) und entfernt ungebrauchte Frequenzen der einzelnen Spuren. Ihr werdet sicher merken, was ich meinte. Falls man die Frequenzen allerdings auf dem Instrument behalten will, sollte man sich überlegen, Side Chaining zu verwenden, und einen Compressor aushelfen lassen. Was genau das ist, wird in einem anderen Beitrag geklärt.

Auch können wunderbar Störgeräusche entfernt werden. Falls man mit einem Synthesizer (mit dessen Sound man zufrieden ist) eine gute Melodie gefunden hat, aber ein komisches „Pipsen“ zu hören ist, das man einfach im Synth nicht wegbekommt, ohne den Sound komplett zu „zerstören“ (das ist natürlich ein Extremfall), kann man mit einem Peak-EQ mit hoher Flankensteilheit einfach über die Frequenzen gehen und nach diesem Geräusch suchen. Dass man es gefunden hat, merkt man, da es natürlich lauter wird (man muss freilich das Band Level aufdrehen). Wenn man ihn gefunden hat, einfach diesen Frequenzbereich herunterregeln und man hat einen viel sauberen Sound. Entweder dreht man dann noch das Gain hoch, damit der Ton nicht allgemein leiser wird oder man sucht sich eine Frequenzbandbreite, in der der Sound sehr gut definiert wird, und boostet diese. Das bleibt einem selbst überlassen, allerdings bevorzuge ich die zweite Variante.

Um nochmal ganz kurz auf den Feinschliff zurückzukommen: im folgenden Beispiel ist ein unbearbeiteter Synth zu hören:

 

Hier ist die fertige Version, also „im“ Compressor (EQ):

 

Reverb:

Ich kann mich an keine Soul- oder Balladen-Vocals erinnern, auf denen ich keinen Reverb hatte. Der Effekt ist dafür einfach zu gut. Zumindest finde ich das.

Was ist ein Reverb?

Reverb steht für Hall oder Nachhall, der synthetisch erzeugt wird.

Was wird simuliert?

Die Reflektion von Schall, der auf Wände, Menschen, Objekte oder Luft trifft, während Luft eher weniger „reflektiert“. In folgendem Tonbeispiel ist kein Reverb zu hören:

 

So klingt das Ganze mit Reverb:

 

Wie stellt man ein Reverb-Plugin ein?

Das kommt natürlich immer auf das eigene Empfinden an, aber ich kann euch erklären, was die einzelnen Regler machen. Im Gegensatz zum Finden des richtigen Sounds ist das Einstellen eines Reverbs einfach.

Da nicht jedes Reverb-Plugin gleich aufgebaut ist, werde ich hier nur kurz die relevantesten der Plugins erklären. Diese wären: Size/Room Size, Diffusion, Damp und Dry-Wet.

Dry/Wet: Dieser Regler macht nicht anderes als einzustellen, wie viel von dem Original-Input auch wieder zum Output gesendet werden soll. Wenn der Regler also auf 100% wet steht, hört man nur noch das pure Reverb-Signal. Dieser Regler wird manchmal auch Mix genannt oder in zwei einzelne Regler (Dry und Wet) aufgeteilt.

Room Size: Dieser Regler macht genau, was man erwartet. Er stellt die simulierte Größe des Raums, in dem sich die Tonquelle befindet, ein. Die Größe des Raums hat natürlich einen großen Einfluss auf den Sound.

Diffusion: Das ist sicherlich etwas schwerer zu erklären. Am einfachsten ist es, sich das Ganze wieder räumlich vorzustellen. Die beiden Bilder zeigen die räumliche Vorstellung. In folgender Grafik erkennt man einen Reverb mit einer sehr niedrigen Diffusion:

Diff_0

Wie man sieht, „befindet“ man sich in einem Raum mit wenigen Wänden. Die Auswirkung auf den Sound besteht darin, dass der Ton sehr schnell verschallt (um es einfach zu halten).

In folgender Abbildung erkennt man Reverb mit hoher Diffusion. Wie man sieht, ist es ein abgerundeter Raum. Der Sound „verschallt“ wesentlich langsamer:

Diff_1

Damping, zu deutsch dämpfend, ist ein Parameter. Er stellt die Dämpfung der hohen Frequenzen in dem Hallsignal ein. Dämpfung bezieht sich auf die Rate, bei der die hohen Frequenzen verstummen. Darum nennt man diesen Parameter auch High Damping. Ein hoher Damping-Wert lässt den Sound nur allmählich dämpfen, wodurch er wärmer wirkt.

Delay:

Das ist auch einer meiner absoluten Favoriten unter den Effekten. Bei diesem ist es auch wieder sehr wichtig zu beachten, dass es Input und Output gibt, die getrennt von einander gesehen werden müssen. Aber der Reihe nach:

Was ist ein Delay?

Die deutsch Übersetzung wäre Verzögerung und diese passt (oh Wunder) auch zu dem Effekt, denn er macht nichts anderes, als eine Verzögerung des Inputs zu erzeugen. Bei einer richtigen Verzögerung wäre der Original-Input natürlich nicht zu hören, da der Input ja verzögert wäre, aber bei einem Delay Plugin kann man einstellen, ob der Input (das Original-Signal) noch hörbar ist oder nur der Output (das Signal, das durch den Delay verändert wurde). Durch die Tatsache, dass man den Original-Input noch hört, könnte man zu Delay auch Echo sagen, aber die Bezeichnung ist eigentlich egal.

Welche Parameter hat ein Delay?

Wie immer kann man das pauschal nicht sagen, da kein Plugin genau gleich aufgebaut ist. Hier wollen wir uns (vorerst) mit den absoluten Standard-Reglern begnügen, nämlich: Sync, Panorama, Gain und Feedback.

Sync: Für ein gutes Delay ein sehr wichtiger Regler, der eigentlich nie fehlt. Dieser gibt an, in welchem Intervall der Output wiedergegeben werden soll. Das heißt also: Wenn der Sync Regler auf 1/4 gestellt ist und das Input-Signal durch den Delay geht, kommt nach genau einem Viertel-Takt (ja nach BPM [Beats Per Minute] halt schneller oder langsamer) der Output des Delays wieder – und das so lange, bis der Output nicht mehr hörbar ist. Der Sync Regler muss natürlich nicht auf genaue Taktwerte eingestellt werden. Man kann ihn auch über Millisekunden einstellen. Bei manchen Delays geht das auch, aber die meisten haben eine „Sync-with-BPM“-Funktion. Falls nicht, kann man auch einen BPM-in-MS-Rechner verwenden. Wichtig ist hierbei, dass das Output-Signal NICHT nochmals durch den Delay geht. Man kann sich Effekt-Racks gut als Kette vorstellen. Der Output des ersten Kettenglieds geht zu dem Input des nächsten usw. Das bedeutet, dass ein Plugin seinen Output nicht beachtet, den Output der Plugins allerdings schon.

Gain: Meißt wirkt der Gain-Regler für das Output-Signal, aber es kann auch vorkommen, dass es einen für das Input-Signal gibt. Das ist aber meistens beschriftet. Der Gain hebt das Output Signal auf den eingestelten Wert an. Wichtig: Dieser Wert ist NICHT von dem Feedback-Regler beeinflusst. Dieser wirkt nämlich erst auf das Signal nach dem Gain-Regler (zumindest im Normalfall).

Feedback: Wie bereits gesagt, wirkt der Feedback-Regler erst nach dem Gain-Parameter auf das Signal. Der Feedback-Parameter gibt ein Intervall an, in dem das Signal verstummen soll. Ein vereinfachtes Beispiel: Eine Mono-Signal,Snare spielt mit -7 dB FS (Dezibel Full Scale), der Gain habt das Signal auf -1 dB FS. Wenn man jetzt ein Feedback von -10 dB FS eingestellt hat, sind die dB FS Werte folgende: -7dB FS, -1 dB FS, -11 dB FS, -21 dB FS, -31 dB FS usw.

Panorama oder kurz Pan gibt das Verhältnis des Output-Signals auf dem linken und rechten Channel an. Wenn der Regler also ganz rechts steht, kommt auch nur auf dem rechten Ausgang ein Ton heraus  – und umgekehrt.

Ein 1/4 Delay bei 140 BPM KÖNNTE sich dann so anhören:

 

Ich würde zwar noch wirklich gerne auf Vocoder, Chorus, Phaser usw. eingehen, aber der Beitrag ist schon länger als der erste und ich glaube, dass man an dieser Stelle eine „Pause“ machen kann. Im dritten Teil der Reihe werde ich dann wohl noch auch auf besagte Effekt zu sprechen kommen (oder vielleicht auch auf ganz bestimmte, bekannte Plugins). Ich gedenke auch, bald zum Mixing, Mastering und Song-Arrangement gelangen zu können. Jetzt hoffe ich, dass ihr den Beitrag informativ fandet und wünsche euch wie immer viel Spaß und Erfolg beim Musizieren.

It’s a Trap

Der berühmte Ausspruch „It`s a Trap“ („Das ist eine Falle“) dürfte vielen aus der englischsprachigen Version von Star Wars bekannt sein. Dieser Lexikonartikel ist natürlich keine Falle!

Und damit willkommen zu meinem Beitrag über das äußerst interessante musikalische Genre Trap. Noch nie gehört? Das ist gut möglich, da es zu den etwas unbekannteren Genres der EDM (Electronic Dance Music) gehört, das aber meiner Ansicht nach vollkommen zu Unrecht.

Woher kommt Trap?

Trap (was zu deutsch übrigens „Falle“ bedeutet) kommt aus den Südstaaten der USA. Dort erfreute sich nämlich der Hip-Hop schon früh großer Beliebtheit und wurde stets weiterentwickelt. Trap ist somit ein Subgenre des Hip-Hop. Allerding war Trap bis ca. 2010 nicht als das heutige Trap bekannt. In den 1990er Jahren war es noch viel näher an den Original-Genres Down South und Crunk. 2010 wurde Trap dann immer mehr durch die EDM (Electronic Dance Music) geprägt.

Was ist vom Hip-Hop noch übrig?

Im Großen und Ganzen der Beat, zumindest, was die Grundierung angeht. Allgemein ist auch die Atmosphäre das Hip-Hop übernommen, also möglichst düster und nicht selten aggressiv. Das liegt am (leider häufig bestehenden) Zusammenhang von Drogen- und Ghettomilieu zum Hip-Hop. Von diesem Bezug kommt auch der Name Trap. Er bezeichnet in der Drogenszene den Platz, an dem Drogendeals stattfinden. Es ist wichtig zu erwähnen, dass Musik nie ganz losgelöst ist von Menschen, die sie machen. Das muss man kritisch im Hinterkopf behalten, selbst wenn man Fan einer musikalischen Richtung ist! Dieser Beitrag beschränkt sich dennoch auf das Musikalische des Trap und distanziert sich von möglichen fragwürdigen Inhalten.

Was hat die EDM verändert?

Die schnellen Hi-Hats und tiefen Bässe sind aus dem heutigen Trap nicht mehr wegzudenken. Diese kommen aus den für EDM typischen Genres Big Room House und Dubstep. Der klassische Drop von Big Room ist auch vertreten. Wer das Beispiel schlechthin für EDM-Trap-Musik hören bzw. einen Eindruck von der Stilrichtung bekommen möchte, kann sich den Remix von Major Lazers Original Don von Flosstradamus anhören.

 

Trap ist an sich noch ein sehr junges Genre und es wird sicherlich noch einige Veränderungen erleben. Jeder, der jetzt schon ein Fan von Electronic Dance Music ist, wird die Entwicklungen des Trap sicher genauer verfolgen.

Moderne Musikproduktion Teil 1

Moderne Musikproduktion Teil 1_Cover

Das ist wahrscheinlich das Bild schlechthin, das Leute von moderner Musikproduktion haben. Viele Farben, Felder und vor allem sehr viele Regler und Knöpfe mit irgendeiner Aufschrift. Das ist aber nur der Schein. Dahinter steckt ein einheitliches und logisches System, das man halt erst einmal erkennen muss. Ich werde versuchen, euch die moderne Media-Production näher zu bringen. Um genau zu sein: die Musik-Produktion. Auf visuelle Medien werde ich aber bestimmt auch demnächst einmal zusprechen kommen. Aber nun zurück zum Thema.

Wie geht moderne Musikproduktion?

Diese Frage werden sich wahrscheinlich viele Hobby-Musiker stellen. Viele kenne vielleicht auch gerade die Situation: man hat eine tolle Idee für einen Song, aber keine Ahnung, wie man ihn aufnimmt oder ähnliches. Mit einem USB-Mikrofon und einem Freeware-Aufnahmeprogramm ist es nämlich leider nicht getan. Denn nach der Aufnahme wird man meistens merken, dass es sich nicht gut vom Sound her anhört und es gar kein Vergleich zu professioneller Musik ist. Viele denken dann wahrscheinlich, dass es einfach an der Hardware liegt und das Mikrofon einfach nicht so gut ist, wie man es bräuchte, und somit auch keine Chance besteht, eine gute Aufnahme hinzubekommen. Das stimmt aber eher selten. Man kann auch mit „schlechter“ Hardware wirklich gute Sounds hinbekommen. Denn die „Magie“ passiert in der Software. Was genau gemacht wird, will ich euch erklären und euch die „Tricks“ der Profis zeigen.

Was brauche ich?

Die wahrscheinlich wichtigste Frage – und die Antwort wird wahrscheinlich einige überraschen – ist immer die danach, was man überhaupt machen will. Wenn man einen orchestralen Track aufnehmen will, werden andere Sachen benötigt, als wenn man sich auf EDM konzentriert. Aber grob gesagt, wird meist das gleiche benötig. Zunächst zur Software:

Es gibt in der heutigen Zeit natürlich eine Menge Software, die für das Musizieren benutzt werden kann – und dabei natürlich auch ganz unterschiedliche Preisklassen. Von kostenlos bin ca. 1000,- € kann so ziemlich alles vertreten sein. Aber so manche DAW (Digital Audio Workstation) eignet sich besser für das eine als für das andere. Ich werde hier kurz über die bekanntesten sprechen und dann noch auf Freeware eingehen.

Fangen wir mit Pro Tools an. Wenn ein Audio Engineer von einer DAW spricht, meint er in 90% der Fälle Pro Tools.  Es wird so ziemlich in allen großen Studios verwendet aufgrund seiner großartigen Audioverarbeitung. Aber es empfiehlt sich definitiv nicht für Anfänger. Nicht nur ist es in der Aktuellen Version von 12.3 mit 665,- € nicht nur nicht günstig, sondern auch relativ schwer zu bedienen, was vor allem für Anfänger eine große Hürde sein könnte.

Dann wäre da natürlich noch Cubase. Ja, die von viele „verehrte“ Software für EDM aber auch Arbeit mit Samples. Was gibt es zu Cubase zu sagen? Nun ja, zunächst kann man getrost sagen, dass Cubase ein gutes All-Round-Paket an Native-Plugins mitbringt. Einen netten Synth (den HALion Sonic SE) und eine gute Anzahl an Effekten, zumindest wenn man die richtige Version hat, und da ist auch schon das Manko, das aber auch etwas gutes hat. Es gib nicht nur eine Cubase-Version, sondern gleich drei. Wenn man LE AI mitzählt, dann sind es sogar vier, aber die lassen wir außen vor. Diese Versionen haben zwar alle ihren eigenen Preis, aber auch ihre Einschränkungen (außer die „Vollversion“ Pro).  Die Preise wären 99,99 € für die Elemente-Version, bei der alleine schon Side-Chainen nicht möglich ist. 299,- € für die Artist-Version, bei der eine relativ niedrige  Begrenzung für Spuren „eingebaut“ ist und 549,- € für die Pro Version ohne Einschränkungen. Alle sind nicht wirklich günstig und die Elements-Version iihr Geld nicht wirklich wert.

Die einzige DAW, die man auf einem Mac Book oder iMac verwenden sollte, darf man natürlich auch nicht vergessen – nämlich: Logic Pro X. Dieses Programm lässt keine Wünsche offen. Es ist perfekt auf die Benutzung für Apple-Produkte abgestimmt (was auch daran liegt, dass es sie nicht für Windows gibt) und hat eine feste Version ohne Einschränkung. Es kommt mit einer guten Auswahl an Standardsounds und Drum-Samples, aber auch mit tollen Synthesizern daher. Von den Effekten sind auch alle wichtigen und sogar noch mehr dabei. Leider ist der Preis wieder ein eigenes Thema. Mit 199,- € ist das Programm zwar erschwinglich, aber immer noch nicht günstig. Ihr werdet aber noch sehen, dass man gar nicht so viel Geld ausgeben muss.

Das waren die bekanntesten Kommerziellen DAWs. Natürlich gibt es noch Adobe Live, Fl Studio oder Sonar, aber man muss auch irgendwo Grenzen ziehen, damit es nicht unübersichtlich wird. Diese Programme sind alle höchst professionell und außerdem entsprechend teuer, aber für Anfänger gar nicht nötig. Hier eine kurze Auflistung der „besten“ oder eher bekanntesten kostenlosen DAWs:

Audacity: Die Audio Bearbeitung Software 01. Jeder, der sich mit der Materie ein wenig beschäftigt hat, kennt Audacity wahrscheinlich. Es ist nicht schwer zu benutzen und hat ausreichend Bearbeitungsmöglichkeiten für den Anfang. Das einzige wirkliche Manko ist, dass man keine Midi-Events oder Automations in Audacity einstellen kann, aber das ist auch gar nicht nötig, da dieses Programm allein für Audiobearbeitung gedacht ist.

Und das war es leider schon. Naja, nicht wirklich. Man könnte natürlich noch auf Ardour, MusE oder Qtractor usw. eingehen, aber diese Programme sind bei weitem nicht so bekannt wie Audacity und dieses Programm reicht für Anfänger in der Musik – zumindest solange, wie man nur Wav, Mp3 etc. Samples benutzen möchte. Was es sonst noch gibt, wird später noch genauer erläutert.

Audacity_Cover

Die wichtigsten Funktionen hat grundsätzlich so ziemlich jede DAW (für Arbeit mit WAV Dateien). Lass euch also nicht von irgendeinem „Profi“ sagen, dass ihr unbedingt dieses oder jenes VST braucht. Es kann schon sein, dass es gut ist, aber unbedingt benötigt wird es sehr wahrscheinlich nicht. Was zählt, ist der kundige Umgang mit dem, was man hat.

Pro Tools_Cover

Nun zur Hardware. Und dabei müssen wir leider direkt einen wichtigen Begriff klären, der wesentlich schwieriger klingt, als er zu verstehen ist, nämlich

Musical Instrument Digital Interface

oder kurz: MIDI – Was ist MIDI?

Kurz gesagt, ist es der Standard für den Austausch musikalischer Steuerinformationen zwischen elektronischen Instrumenten (z. B. Keyboards oder Synthesizer).

Einfacher: MIDI ist ein Signal, das entweder einer Note aus dem Notensystem  entspricht oder einer „Werteskala“ für + und – Einheiten. (z.B. C5 oder lauter, leiser)

Dieser Begriff wird vor allem für EDM-Musik (electronic dance music) wichtiger und wird deshalb später noch das ein oder andere Mal auftauchen. Aber auch in der Hardware-Sektion wird er vorkommen.

Zunächst widmen wir uns dem Audio Interface oder dem Mischpult, genauer: den Unterschieden. Eigentlich liegen diese hauptsächlich in der Anzahl der Eingänge. Ein Mischpult hat meistens mehr als ein Audio-Interface, um mehrere Inputs gleichzeitig abzumischen. Ein Audio-Interface hat nur wenige Eingänge (meistens). Manchem wird das jetzt vielleicht ein Begriff sein, anderen nicht. Ein Audio-Interface ist kurz gesagt eine Schnittstelle für Sound. Der Ton (z. B. von einem Mikrofon) wird in das Audio-Interface geleitet (über XLR, Cinch oder Klinke) und von dort über meist einen gewählten Output gebündelt weitergeleitet. Die meisten PCs haben mittlerweile ein eingebautes Audio-Interface, die Soundkarte. Aber da die oft von der Qualität nicht so überzeugend ist, werden meistens externe Audio-Interfaces verwendet. Es gibt drei Arten von externen Audio-Interfaces, die sich in ihrer Schnittstelle – oder anders gesagt Verbindungs-Möglichkeiten – unterscheiden. Darunter zählen die vor allem bei Neulingen weit verbreiteten USB-Audio-Interfaces (Unterschieden: USB A und USB B, die bekanntesten Audio Interface mit Firewire Schnittstelle -> Unterschiede: Firewire 400 4-Polig, Firewire 400 6-Polig und Firewire 800 9-Polig) und die speziell für Apple-Produkte hergestellten Thunderbolt-Audio-Interfaces. Jedes davon hat seine Vor- und Nachteile. Thunderbolt werde ich hier auslassen, da es sich dabei – wie gesagt – um spezielle Apple-Schnittstellen handelt.

USB: Zuerst die Vorteile. So ziemlich jeder PC oder auch Laptop hat einen USB-Port, also kann man es auch ohne Zusatzhardware benutzen. Ein Nachteil ist, dass es im Allgemeinen langsamer überträgt als ein Firewire Kabel. Das ist für niedrige Latenzen (dieser Begriff wird später erklärt) störend und dadurch kann es zu Störgeräuschen kommen. Desweiteren können bei FireWire die Geräte auch eigenständig untereinander kommunizieren,  während USB in einer Art Baumstruktur anlegt ist und einen steuernden „Kopf“ (den so genannten Host) benötigt, der in aller Regel vom Computer bereitgestellt wird.

Firewire: Wie bereits erwähnt, können FireWire-Geräte auch ohne Host miteinander verbunden werden und die Übertragungsrate ist höher, was eine niedrigere Latenz zulässt. Das Problem bei FireWire ist, dass nicht jeder PC einen FireWire Port hat und Laptops eigentlich fast nie. Das heißt, man müsste eine extra Steckkarte kaufen, die man über PCI mit dem Computer verbindet, um ein FireWire-Gerät anzuschließen zu können.

Musik, Mischpult, Regler, Sound, Mischer, Musikanlage

Modernes Mischpult

Das Mikrofon: Bei Instrumentabnahmen oder Vocals handelt es sich um das wichtige Stück des Equipments. Ganz wichtig ist es zu verstehen, dass teuer/teurer nicht gleich besser bedeutet. Ein gutes Mikrofon hat natürlich seinen Preis, aber es gibt verschiedene Arten von Mikrofonen, die für Unterschiedliches benutzt werden können. Natürlich kann man mit jedem Mikrofon Aufnahmen machen, aber es sollte am Ende schließlich gut klingen. Ich werde kurz auf die verschiedene Arten von Mikrofonen gehen und erklären, für welche Zwecke sie jeweils (meistens) verwendet werden. Man kann Mikrofone in verschieden Kategorien einteilen, ich werde hier die allgemein gültigen Varianten beschreiben. Aber zuerst muss man ein paar wichtige Begriffe klären. Richtcharakteristik, Frequenzverlauf, Übertragungsbereich und Grenzschalldruckpegel. Das sind alles Details, die beim Kauf eines Mikrofons in Betracht bezogen werden sollten.

Die Richtcharakteristik eines Mikrofons gibt an, in welche Richtung der Schall stark oder weniger stark aufgenommen wird. Wichtig dabei ist, dass diese Angabe bei verschiedenen Frequenzwerten variieren kann. Es gibt verschiedene Arten.

  • Richtcharakteristik Niere: Das bedeutet, dass das Mikrofon „nur“ den Schall, der von vorne auf die Membran auftrifft, aufgenommen wird. Der seitlich auftreffende ist deutlich weniger hörbar, der der Rückseite am wenigsten. Bei Super- oder Hyperniere ist dieser Effekt stärker ausgeprägt.
  • Richtcharakteristik Kugel: Mikrofone mit dieser Richtcharakteristik reagieren auf alle Schallquellen aus allen Richtungen (natürlich abgesehen von der Schnittstellenseite) gleich empfindlich. Eine „Variation“ davon ist die Halbkugelrichtcharakteristik, die meist Ganzflächenmikrofone besitzen.
  • Richtcharakteristik Acht: Hier wird der Schall von Vorder- und Rückseite am besten aufgenommen, von den Seiten dementsprechen schlecht.

Sogenannte Multi-Pattern-Mikrofone besitzen eine verstellbare Richtcharakteristik.

Frequenzverlauf: Das Diagramm oder die Werte für diesen Parameter geben darüber Auskunft, wie empfindlich ein Mikrofon auf eine gewisse Frequenz reagiert. Dann nicht jede Frequenz wird gleich stark aufgenommen. Das wäre zumindest der Idealfall, der bis jetzt mit keinem Mikrofon wirklich erreicht werden konnte. Diese Werte sind vor allem für Toningenieure wichtig, da jene ein unterschiedliche Mikrofone wegen ihrer speziellen Werten verwenden.

Übertragungsbereich: Diese Information über ein Mikrofon ist eine der wichtigsten. Ich habe schon oft genug gehört, dass sich jemand ein spezielles Mikrofon gekauft hat, und sich am Ende darüber beschwert, dass es die Highs (Höhen) nicht richtig aufnimmt oder allgemein eher „unklar“ klingt. Das hätte ganz einfach verhindert werden können, hätten diese Personen einfach auf den Übertragungsbereich geachtet. Diese Werte geben nämlich an, welchen Frequenzbereich das Mikrofon aufnimmt. Zumindest ist das die Laien-Variante, denn ein Mikrofon mit einem Frequenzbereich von 200 Hz bis 20 kHz nimmt immer auch noch 100 Hz und tiefer war. Der Übertragungsbereich wird nämlich gemessen, indem getestet wird, in welchen Frequenzen der Pegel 3 dB unter der Aufnahme bei 1 kHz liegt. Wer keine Lust hat, darauf zu achten (auch wenn das sehr zu empfehlen ist), sollte sich ein Großmenbran-Mikrofon holen. Dieses hat meisten einen Wert von 20 Hz bis 20 kHz.

Grenzschalldruckpegel: Dieser Wert gibt an, ab welchem Pegel ein Mikrofon beginnt, verzehrt zu klingen – genauer gesagt, wann es bei 1 kHz einen Klirrfaktor von 0,5% oder 1% übersteigt. Je höher, umso besser. Dynamische Mikrofone sind in den meisten Fällen darin besser, weshalb sie oft auch für die Aufnahme eines Schlagzeugs benutzt werden.

Nun zu den Arten von Mikrofonen:

Dynamische Mikrofone: Meist wird von Spulen oder Tauchspulenmikrofonen gesprochen, wenn von dynmaischen Mikrofonen die Rede ist, aber auch die Bändchenmikrofone gehören zu dieser Art, da sie auch nach dem Induktionsprinzip funktionieren. Das bedeutet, dass (im Falle eines Tauchspulenmikrofonen) Schall auf eine an einer Spule befestigten Membran auftrifft und diese sich dann in einem Magnetfeld bewegt, und dadurch eine Spannung erzeugt. Diese Methode des Aufnehmens hat Vor- und Nachteile. Auf der einen Seite hat die Membran ein relativ großes Gewicht. Dadurch ist das Impulsverhalten verhältnismäßig schlecht (im Vergleich mir Bändchen- oder Kondensatormikrofonen. Das führt dazu, dass die Töne so ab 10 kHz (ca. A#9) nicht mehr so gut aufgenommen werden, was in Tonstudios eher unerwünscht ist (man kann damit aber wunderbar Bässe abnehmen). Allerdings erlaubt das eine sehr robuste Bauweise, die für Live-Aufführungen definitiv erwünscht ist. Bei Mikrofonen dieser Art ist meist eine Nierencharakteristik vorhanden. Das muss aber nicht zwangsweise so sein.

Bändchen-Mikrofone: Eigentlich gehören diese Mikrofone aufgrund des verwendeten Induktionsprinzips auch zu den Dynamischen Mirkofonen, aber sie werden meistens als in einer eigenen Kategorie zusammengefasst. Das liegt darans dass sie einen für viele „besseren“ oder eher wärmeren/sanfteren Sound hinbekommen als ein Spulenmikrofon. Bändchen-Mikrofone benutzen keine Schwingspule, sondern ein gefaltetes Aluminiumplättchen. Dadurch ist das Mikrofon sehr leicht, was zu einem besseren Impulsverhalten führt. Das Problem ist allerdings, dass eine nur sehr schwache Spannung entsteht und man deshalb einen guten/rauscharmen PreAmp (Vorverstärker) benötigt, um einen guten Sound zu bekommen, der am Ende auch laut genug ist.

Kondensator-Mikrofone: Der Klassiker unter den Mikrofonen, bekannt für seinen natürlichen und naturgetreuen Sound – und das zurecht.  Jeder, der schon einmal das Vergnügen hatte, mit einem Spulen- und einem Kondensatormikrofon (egal ob Röhre oder nicht) einen Tonvergleich zu machen, wird festgestellt haben, dass, wenn es sich um zwei gleichwertige Mikrofone handelt, das Kondensatormikrofon wesentlich realistischer klingt. Das liegt an der Verwendung eines Plattenkondensators (daher kommt auch der Name). Dieser muss statisch aufgeladen werden. Dafür wird die sogenannte Phantomspeisung über XLR Kabel in das Mikrofon geladen.

USB Mikrofone: Diese Art von Mikrofonen ist in den letzten Jahren immer beliebter geworden. Das hat zwei Gründe. Erstens: es besitzt einen eingebauten Pre-Amp. Das bedeutet, dass man keinen externen Verstärker mehr benötigt, was nicht nur gut für den Geldbeutel ist, sondern auch für die Benutzerfreundlichkeit. Zweitens: es besitzt einen eingebauten A/D Wandler. Das hat zu Folge, dass das Signal direkt in ein digitales Signal umgewandelt werden kann und somit über das USB Kabel direkt in den Computer weiter geleitet werden kann. Die Qualität kommt jetzt zwar nicht an die eines Kondensatormikrofons heran, durch seine Vorteile hat das USB-Mic aber natürlich seine Berechtigung.

Spulen_MikrofonSpulenmikrofon

Bändchen_MikrofonBändchenmikrofon

Audio, Kondensatormikrofon, Musik, Tonaufnahme

Kondensatormikrofon

Monitore: Sie dürfen nicht mit Bildschirmen verwechselt werden. Monitor ist im Prinzip ein anderes Wort für Lautsprecher, also eine Wiedergabequelle mit eingebautem Amp. Das ist aber nur bei aktiven Monitoren so. Beim Kauf von Monitoren ist einiges zu beachten und es ist nicht leicht, den richtigen für seine Bedürfnisse zu finden. Nun sollen die zwei Arten von Monitoren erklärt werden:

Aktive Monitore: Das sind – wie bereits erwähnt – das, was am ehesten an den Begriff Lautsprecher heran kommt, eine Wiedergabequelle mit eingebautem Verstärker. Das hat den Vorteil, dass man keinen externen braucht, aber den Nachteil, dass dieser eingebaute Verstärker mitbezahlt werden muss.

Passive Monitore: Wenn man bereits einen guten PreAmp (Vorverstärker) hat oder sich sowieso noch einen kaufen möchte, sollte das die erste Wahl sein. Diese Art von Monitoren besitzt nämlich keinen eingebauten Verstärker. Das heißt, dass, wenn man für den selben Preis den man für Aktive Monitore ausgeben würde, besseres Equipment bekommt, man den internen Verstärker nicht mitbezahlen muss. Das stimmt zumindest, wenn das Produkt an sich preiswert ist.

Nun zu den Fragen, die mir am häufigsten gestellt worden sind, wenn sich jemand Monitore zulegen wollte:

  1. Kannst du mir irgendwelche Monitore empfehlen? Meine Antwort auf diese Frage wird immer „Nein“ sein. Das liegt einfach daran, dass jeder ein anderes, individuelles Empfinden für Ton hat. Für mich könnte so mancher Monitor einen „perfekten“ Sound haben, andere wiederum finden ihn womöglich „schrecklich“. Die einzig sinnvolle „Empfehlung“ sollte sich daher auf passable Marken beschränken.
  2. Wie sollten gute Monitore klingen? Wie bereits erwähnt, kann man das nicht genau sagen. Es gibt aber allgemein anerkannte Meinungen. Monitore sollten möglichst neutral klingen. Das heißt, es sollte eine gute Balance zwischen Bässen, Mitten und Höhen bestehen.
  3. Wo kaufe ich Monitore? Ganz klar im Musik-Shop deines Vertrauens. Das wichtigste beim Kauf von Monitoren ist das Test-Hören. Gehe also in den Laden und nimm dir viel Zeit. Bei guten Monitoren wirst du nur geringe Unterschiede wahrnehmen, aber auch diese sollten beachtet werden. Frage nach, ob du einen eigenen Input (Soundquelle) benutzen darfst und höre dir Songs an, die du gut kennst, und vergleiche sie. Am besten nimmst du Songs von einem Genre, das du selbst „produzieren“ willst und dann höre dir alle Songs so lange an, bis du die Monitore gefunden hast, die deiner Meinung den besten Sound haben.
  4. Ich habe mir kürzlich Monitore zugelegt. Ich habe sie im Laden gekauft und sie haben eigentlich super geklungen. Nun habe ich sie im Homestudio aufgebaut und es klingt komplett anders. Was mache ich falsch? Du hast gar nichts falsch gemacht. Das Problem liegt wahrscheinlich am Raum. Dieser hat nämlich einen sehr großen Einfluss auf den Sound. Das fängt bei der Größe an, geht über das Material der Wände und endet bei der Form. Das Beste, das du dagegen machen kannst, ist es, dich im Laden zu erkundigen, ob der Verkäufer entsprechende Tipps geben kann. In professionellen Läden sollten sich die Verkäufer damit auskennen. Manche Läden haben sogar unterschiedliche Testräume und diese sollte man auf jeden Fall nutzen. Falls es diese Möglichkeit nicht gibt, kann man auch fragen, ob man Monitore „mieten“ kann, um sie zu testen. Das geht nicht immer, aber oft kann man ein gebrauchtes Modell mitnehmen und austesten.
  5. Wie groß sollten gute Monitore sein? Es kommt drauf an, wie groß der Raum ist, in dem du sie aufstellen möchtest. In einem kleinen wirst du keine großen Boxen brauchen. Allerdings spielt auch das Genre, das du abmischen willst, eine Rolle. Für Hip-Hop musst du z. B. schon in Betracht ziehen, dir einen Subwoofer zu holen, da in diesem Genre der Bass eine herausragende Rolle spielt.
  6. Wie viel sollten gute Monitore kosten? Dafür gibt es natürlich keine genaue Antwort, aber da sie ein Schlüsselelement für deine Produktion sind, solltest du einen großen Teil deines Budgets in sie stecken. Man kann mittlerweile wirklich gute Monitore für je 200€ bekommen.
  7. Kann ich nicht einfach Kopfhörer benutzen? Natürlich geht das, bringt aber auch den ein oder anderen Nachteil. Ersten besteht bei Mikrofonen die Gefahr, dass sich der Bass zwar auf den Kopfhörern gut anhört, auf einer Anlage hingegen übersteuert, da Kopfhörer häufig den Bass nicht so stark wiedergeben. Zweitens wird man beim Monitoring mit Kopfhörern schneller müde. Zumindest geht es mir so, und ich weiß leider nicht, warum das so ist. Der Effekt der Müdigkeit ist zwar kein sonderlich problematischer, er sollte aber bedacht werden. Gute Kopfhörer kosten übrigens auch relativ viel Geld (Startpreis zwischen 300€ und 400€).

Monitor_Cover

Monitor

Nun zum Mater-Keyboard oder genauer zum Midi-Master-Keyboard. Jetzt wird es vor allem für Freunde der EDM interessant. Ein Midi-Master-Keyboard sieht vielleicht aus wie ein ganz normales Keyboard, funktioniert aber etwas anders. Denn im Gegensatz zu einem „normalem“ Keyboard hat ein Midi-Master-Keyboard keine eigenen Sounds. Es ist nur dafür, da Plugins zu bedienen. Das funktioniert so: Das Master-Keyboard wird über ein Midi-Kabel mit dem Audio-Interface verbunden, was über FireWire, USB oder Thundebolt mit dem PC oder direkt über USB mit dem PC verbunden wird. Wenn man jetzt eine Taste auf dem Master-Keyboard drückt oder einen Fader bewegt, wird das entsprechende Midi-CC-Signal an den Computer gesendet und dieser leitet es an die DAW weiter, diese wiederum führt den zugewiesenen Befehl aus. Wenn man also ein Plugin offen hat und ein C5 auf dem Master-Keyboard spielt, spielt auch das Plugin ein C5 (soweit möglich). Wichtig bei Kauf eines Master-Keyboards ist nur, dass man sich nicht von vielen Knöpfen oder Reglern täuschen lässt. Diese werden eigentlich nicht benötigt und sparen höchstens nur ein bisschen Zeit. Wichtig ist lediglich, dass du eine Tastenzahl hast, mit der du zufrieden bis. Es gibt 25, 49, 61, 76 und 88. Wenn du bereits ein Keyboard besitzt, das Midi-Ausgänge besitzt, musst du dir nicht extra ein Masterkeyboard holen – vorausgesetzt, du hast ein Audio-Interface mit Midi-Input.

Die restliche Hardware, die man bei Profis sieht (z. B. Chaos Pads oder Loop Stations) sind eher Spielereien und werden vor allem am Anfang gar nicht benötigt.

Software:
Hierzu gibt es eigentlich gar nicht so viel zu sagen. Man wird am Anfang eigentlich nichts anderes als die von der DAW mitgelieferten Plugins brauchen. Natürlich gibt es bessere und schlechtere Software. Beispielsweise schwören viele Musiker auf den EQ von iZotope Ozone 5,6 oder 7, da dieser eine wirklich gute und genaue Verarbeitung hat, aber das sind dann wirklich die genausten Details, die dabei beachtet werden müssen, um einen echten Unterschied zwischen dem und dem parametrischen EQ z. B. von FL Studio erkennen zu können. Entscheidend ist der kundige Umgang mit der Software. Daher gehe ich nun genauer auf die Standards des Mixings ein. Eigentlich würde ich nun zu Pro Tools greifen, aber aus visuellen Gründen sind die Screenshots aus FL Studio. Grundsätzlich „taugt“ aber jede DAW.

Grundaufbau einer DAW: In so ziemlich allen DAWs gib es ein Edit-Fenster und eine Mixer-Konsole. Diese sehen von DAW zu DAW verschieden aus, können aber im Prinzip alle dasselbe. Im Edit-Fenster werden Midi-Events, Audiodatein oder Automation-Clips arrangiert. Dort wird also der Song zusammen gebaut. In der Mixer-Konsole oder im Mix-Fenster werden Effekte hinzugefügt, das Panning angepasst, die Lautstärke eingestellt und die Stereoseparation verstellt. Hier werden also die einzelnen „Bauteile“ des Songs „eingestellt“, damit diese möglichst so zu klingen, wie man es sich wünscht.

Aufbau der Hauptfenster: Dieser ist natürlich auch nicht immer gleich, aber bei den meisten DAWs sehr ähnlich. Nur Reason sticht wirklich aus der Masse raus. Im Edit-Fenster sind meistens oben die wichtigsten Tools angebracht, z. B.  Zoom, Slice, Auswahl, löschen, Stummschalten und Hinzufügen. Diese Tools werden verwendet, um die einzelnen Events (Midi, Audio oder Automation) richtig zu plazieren oder eben anzupassen. Dann ist natürlich noch der Arrangement-Bereich zu erwähnen. In diesem werden alle Events veranschaulicht und dort wird auch mit den eben genannten Tools interagiert. Wenn sie nicht als externes Fenster angebracht sind, werden in diesem Fenster meistens auch die Steuerelemente der DAW angebracht – als Start, Stop, Aufnahme, Metronom und BPM. Die Mixer-Konsole sieht komplett anders aus. Hier werden einem Pegelanzeigen, Knobs und Fader zur Verfügung gestellt, um die einzelnen Channel anzupassen. Des Weiteren sind in diesem Fenster auch die Inserts für Effekte. Die Pegelanzeige gibt Auskunft über die Lautstärke des Channels oder, im Falle des Master-Channels, über die Lautstärke aller gerade spielenden Events. Die Knobs sind meist für Panning und Stereo-Separation da und die Fade für die Kontrolle über die Lautstärke.

DAW_EditDAW edit

DAW_MixDAW Mix

DAW_MainControllDAW Main Control

Tool BarTool Bar

Der Master-Channel oder kurz nur Master ist der wichtigste Channel von allen. Alles, was nicht über den Master geht, hört man nicht. Deshalb ist in jeder DAW standardmäßig bei Erstellen eines neuen Channels das Routing auf den Master gelegt (gegebenenfalls auch auf Send-Channel). Das bedeutet nichts anderes, als dass der Input von einem Channel auf den Master geleitet wird und dieser den Sound dann an die Lautsprecher übermittelt. Wie man sieht, sind die Pegel des Masters und des Piano-Channels absolut gleich, da zu diesem Zeitpunkt nur das Piano spielte. Da beim Zweiten Bild auch ein Paar Strings mitgespielt haben und der Master beide verarbeitet hat, sind die Pegel nicht mehr gleich.

DAW_Mix_Bsp2DAW_Mix_Bsp1

Ein Midi Event: Das ist nichts anderes als eine Reihe von Signalen, die an ein Plugin weitergeleitet werden, in diesem Fall an das Sampler-VST reFX Nexus 2. Nun werden die zugewiesenen „Befehle“ ausgeführt. Da es sich hier um Notensignale handelt, spielt das Plugin die Noten und dadurch die Melodie. Ein Midi Event muss aber nicht unbedingt nur Notensignale beinhalten. Auch Automations gehören zu Midi-Events, obwohl sie meistens einzeln gelistet werden. Das Bild zeigt einen Automation-Clip für die Lautstärke eines String-Synths. Die Linie repräsentiert den Wert des Lautstärke-Faders. Das heißt also, wenn die Linie nach unten geht bewegt, sich auch der Fade nach unten bewegt, und somit der String-Synth leiser wird. Ein Automation-Clip muss aber nicht nur auf den Lautstärke-Fade angewendet werden. Auch Panoramabilder können damit verändert werden, der Cutoff eines Filters oder auch der Parameter Q (die Flankensteilheit) eines EQs kann damit geregelt werden. Fall benötigt, kann auch der On- oder Offwert eines Effekts, also der Bypass bzw. Mute oder auch Solo, entsprechend angepasst werden. Vor allem in der EDM (electronic dance music) werden Automation oft verwendet, um z. B. in Dubstep zum Drop hin zu führen. Aber auch in anderen Genres kommt Automation zum Einsatz, da an manchen Stellen ein Instrument lauter sein soll als ein anderes, um ein entsprechendes „Feeling“ zu erhalten bzw. um einen besseren Klangeffekt zu erzeugen.

Audio Events: Das ist nicht anderes, als beispielsweise eine WAV, Mp3 oder FLAC in die DAW zu ziehen, um sie dort abspielen zu lassen. Das kann ein Drum-Sample sein oder, im Fall von Mashups, auch ein ganzer Song. Es kann theoretisch genau so bearbeitet werden wie ein Midi Event. Das heißt, es kann über einen Mixer-Channel geleitet werden. Auch Effekte mit Automations können hinzugefügt werden. Zudem ist Pitching und Time-Streching ist möglich.

DAW_Event_Midi

DAW_Event_Audio

DAW_Event_Auto

Wie geht eine Aufnahme in einer DAW?

Das ist gar nicht so schwer! In Wirklichkeit ist es sogar richtig einfach, wenn man es einmal verstanden hat. Man muss nämlich nur auf Record drücken. Dann ist aber die Frage, was man aufnehmen will. FL Studio fragt jedes Mal nach, wenn man auf Record drückt, was genau man aufnehmen möchte: Audio, Midi-Noten und Automations oder alles bzw. beides. Was „Audio“ bedeutet, ist logisch, also Ton in Form von Sprache oder Sonstigem über ein Mikrofon (z. B. Instrumente). Midi-Noten und Automations habe ich bereits erklärt, hier aber nochmals eine kurze Erklärung, wie man sie aufnimmt. Um ein allgemeines Beispiel zu nennen, das in jeder DAW funktioniert, habe ich den Modus „Alles“ gewählt. Wenn ich nun das Stück oder das leere Projekt spielen lasse (auf Play drücken) kann ich auf einem Midi-Master-Keyboard Noten spielen. Das sendet Signale an die DAW, welche als Noten erkannt werden, und für die gespielten Noten wird ein Midi-Event erstellt. Sollte ich jetzt, während eine Aufnahme läuft, einen Fader oder einen Knob bewegen bzw. drehen, wird auch hierfür ein Midi-Event erstellt. Das bedeutet, dass jedes Mal, wenn die Stelle erreichtist , an der der Fader bzw. Knob bewegt wurde, es analog und automatisch funktioniert. Das sind die Automations.

Dieser Beitrag ist jetzt schon ausführlich genug und beinhaltet erst einmal genug Informationen, die verarbeitet werden müssen. Das ist der erste von mehreren Teilen (wie viele es genau werden, weiß ich noch nicht) zum Thema „Moderne Musikproduktion“. Im nächsten Teil werde ich dann auf meinen persönlichen Lieblingsbereich eingehen, das Mixing – und vielleicht auch das „Mastern“. Dort werden auch die Funktionen von Synthesizern und die wichtigsten Effekt-Plugins genauer erläutert. Auf verschiedene Genres werde ich auch demnächst eingehen, aber alles der Reihe nach.

Ich wünsche euch noch einen schönen Tag, hoffe, ihr freut euch auch auf den nächsten Teil, und habt viel Spaß und Erfolg beim Musizieren!

Musikprogramme für Profis: Das neue Cubase 8

Cubase 8 ist jetzt schon seit mehr als einem Jahr draußen und ich hatte das Glück, die Vollversion antesten zu dürfen und mir dabei alle neuen Funktionen ansehen zu können. In diesem Beitrag werde ich kurz die interessantesten und besten Neuheiten vorstellen.

soundboard-1209885_960_720

Grundsätzliches: Grundsätzlich ist erst einmal zu sagen, dass das neue Cubase einen Performance Boost erhalten hat. Heißt also: es ist schneller, man kann mehr Spuren hinzufügen und es gibt allgemein kürzere Ladezeiten. Das habe ich vor allem gemerkt, da ich auf einem relativ schwachen Computer beide Versionen von Cubase (7 und 8) benutzt habe und man einen recht guten und positiven Eindruck bekommt. Allein schon die Startfrequenz wurde gut verkürzt  im Gegensatz zu der Vorgängerversion. Das wird vor allem diejenigen freuen, die sich nicht die neueste Hardware leisten können, aber trotzdem gute Performance und Qualität haben wollen.

Weiter Neuerung wären: VCA-Fade, Chord-Pads, ein verbesserter Plugin-Manager, ein Mixer Update, Neue Effekte, eine Render-in-Place Funktion,  der Groove Agent SE 4 Acoustic Agent (der einen Schlagzeuger ersetzen sollen) und verbesserte Fensterverwaltung bei Windows. Es gib natürlich noch vieles mehr, aber das würde etwas zu weit in die Materie gehen. Deshalb belasse ich es bei der Vorstellung dieser Neuheiten.

(Da ich leider bei dem Testen von Cubase 8 vergessen habe, Screenshots zu machen, muss ich mich bei den Bildern auf Cubase 7 und Internet-Quellen beziehen)

ERKLÄRUNG:

-VCA-FADER: Um zu verstehen, was ein VCA-Fader ist, muss man natürlich erst einmal klären, was ein „normaler“ Fader ist. Ein Fader ist nichts anderes als eine Steuereinheit, die eine Eigenschaft (wie Lautstärke oder Stärke) erhöhen (+) oder reduzieren  (-) kann. Fade gibt es nicht nur in DAWs, sondern auch an Mischpulten oder an so manchem Audiointerface. Ein VCA-Fader sieht zwar genauso aus wie ein normaler Fader, hat aber eine etwas andere Funktion. Der VCA-Fader ist eine Art Master-Regler für andere Channel, aber im Gegensatz zu einem normalen Master-Fader verstärkt oder schwächt er nicht nur das allgemeine Output Signal eines Channels der auf den Master geroutet wurde, sondern er bewegt direkt jeden Fader, der an diesen Channel gelinkt ist. Das ist recht praktisch, wenn man weiß, dass man als Beispiel die Drums abgemischt hat und man sie nur noch als Ganzes kontrollieren möchte – aber nicht will, dass das Signal einiger Channel durch den Master Channel läuft, da ein gewisser Effekt auf diesem Channel liegt, der nur auf bestimmte Instrumente angewendet werden  soll. So muss man sich nicht extra einen neuen Master Channel erstellen.

– CHORD-PADS: Die neue und benutzerfreundlichere Begleit-„Automatik“. Automatik steht in Anführungszeichen, da man jetzt die volle Kontrolle über die Akkorde hat – für alle, die nicht wissen, was Begleit-Automatik ist: Es ist die einfache Möglichkeit, Akkorde von (zumeist) Pad-Synthesizern passend zu der Tonart hinzufügen zu lassen. Die neuen Chord-Pads funktionieren auf die gleiche Art und Weise, nur dass die Akkorde selbst gewählt werden können. Das funktioniert so: man wählt ein VST oder Native-Synthesizer und aktiviert auf dieser Spur die Chord-Pad Funktion. Dadurch wird automatisch beim Anspielen einer Note (egal, ob über Midi oder direkt über die Tastatur [wobei das auch Midi Signale speichert]) ein Akkord, der entweder nach einem eigenen Prinzip oder nach einer der Pre-Sets gewählt wurde, angespielt. Dadurch kann man in Echtzeit auf einer oder mehrerer Spuren mehrere Akkorde  aufnehmen, ohne bei eigentlich „unmöglichen“ Passagen eine neue Aufnahme starten zu müssen. Das spart nicht nur Zeit, sondern sorgt auch für ein viel natürlicheres Gefühl der ganzen Begleitung, da man nicht mehr nachträglich Quantisieren muss und vor allem bei Orchesteraufnahmen (in den richtigen Händen) für einen sehr natürlichen Klang sorgt.

Das MIXER UPDATE: Der Mixer in Cubase 7 war schon wirklich gut und ließ in der richtigen Version keine Wünsche offen. Aber trotzdem findet Steinberg immer wieder einen Grund, alle Audioingenieure glücklich zu machen. Eines der einfachsten Updates in der Mixer-Console ist das Direkt-Routing. Es erlaubt einem, einfach, mit nur einem Klick ein Channel-Output in einen anderen zu leiten, was den alten, umständlichen Weg über das Buss-System nutzlos macht. Dann gibt es auch noch verbesserte Channel-EQs. Sie haben jetzt Mouse-Over-Werte für Gain, Frequenz und Tonhöhe, man kann sich anstatt Hz-Werten auch Cent  angeben lassen und er besitzt jetzt eine auswählbare Flankensteilheit (auch Q-Parameter genannt) für High- und Low-Pass-Filter. Zu guter Letzt wäre da noch die neuen Wave-Meters, die sich anstatt der Volume-Angaben einstellen lassen. Die sind praktisch, um nicht immer zwischen Projektfenster und der MixConsole hin- und her wechseln zu müssen, um die aktuelle Songposition oder die als nächstes anstehenden Audio-Events des Projekts zu sehen.

Render in Place: Manche mögen es und andere kennen es nicht. Freezing oder Render-in-Place vergessen viele kleinere Produzenten immer wieder. Das ist nicht schlimm, wenn man mit starken PCs arbeitet, aber ansonsten kann es erheblich zu besserer Performance führen. Wer nicht weiß, was Render-in-Place ist, hier die Erklärung: Bei Render-in-Place werden Midi oder Audio-Parts schnell in eine eigene Date exportiert. Dabei kann sehr genau festgelegt werde, was übernommen werden soll, beispielsweise Spureneffekte. Einfach den Befehl ausführen und eine neue Audiospur wird erstellt.

Plugin-Manager: Ein kleines, aber wichtiges Update. Die Bedienung von Cubase war niemals wirklich einfach und viele, die neu in der Musikproduktion waren, wurden dadurch abgeschreckt. Vor allem VSTs reinladen hat auch mir früher größere Probleme bereitet, obwohl ich der Materie damals schon nicht so fremd war. An dem Hinzufügen hat sich zwar nicht viel verändert, aber jetzt lassen sich Plugins endlich arrangieren, sortieren und gruppieren. Das verbessert die Arbeitsgeschwindigkeit erheblich, und da sich jetzt die MediaBay und das VST-Rack dauerhaft an der Seite anzeigen lassen, muss man nicht immer „umständlich“ eine neue Spur hinzufügen und dann lange nach dem Plugin, das man will, suchen.

Neue Effekte: Mit einer neue Version kommen oft auch neue Effekte oder Synthesizer. In diesem Fall werden vier neue Effekte hinzugefügt und alte Plugins geupdatet. Ich möchte euch kurz die neuen Effekte näherbringen, als Erstes den Quadrafuzz v2: Ein Multiband-Verzerrer mit tollen Delay-, Distortion-, Bit-Crushing- und Crunch-Sounds. Er biete eine ausgezeichnete Kontrolle über die harmonische Verzerrung. Weiterhin wurden VST-Bass-AMPs  hinzugefügt. Nichts wirklich aufregendes, aber E-Bassisten wird es sicherlich freuen. Und zu guter Letzt wären da noch 2 Mutiband-Vsts. Der Multiband-Envelope-Shaper und der Multiband-Expander. Zu erklären, was genau diese Plugins machen, würde zu weit in die Materie der Media-Post-Production gehen. Es reicht zu wissen, dass sie verschiedene (hauptsächlich dynamische) Einstellungen auf vier verschiedenen Frequenzebenen vornehmen.

Verbesserte Fensterverwaltung bei Windows: Die 8. Cubase-Generation hält viele Verbesserungen für die Arbeit mit verschiedenen Programmfenstern und mehreren Monitoren bereit. Neue Tools wie der Workspace-Organizer sorgen für einen noch effizienteren Workflow. Einzelne Fenster können auf jedem angeschlossenen Display frei platziert werden und lassen sich mit Standardbefehlen des Windows-Betriebssystems maximieren, wiederherstellen, minimieren, anordnen und wechseln. Windows gruppiert jetzt auch Cubase-Fenster in der Taskbar und zeigt eine Voransicht des Fensterinhalts sowie Mini-Icons an. Die Einstellung „Immer im Vordergrund“ funktioniert nun auch für kleinere Plugin-Fenster, wenn mit maximierten Fenstern wie etwa der MixConsole gearbeitet wird. 

Zuletzt noch der Groove-Agent-SE-4-Acoustic-Agent, auf den auch ich besonders gespannt war. Er soll einen Schlagzeuger komplett ersetzen, indem er Rhythmik eines gewählten Genres imitiert. Das klappt auch wirklich erstaunlich gut und ist einfach zu verstehen, aber ein Problem hat das Ganze: Es gib zwar wirklich genug Einstellungsmöglichkeiten, aber es sind am Ende doch nur Standard-Beats. Man könnte sie genauso gut selbst machen oder einspielen und hat dabei auch nicht mehr Kontrolle über alles. Es ist zwar ganz nett für einen Hintergrund-Rhythmus, aber einen Schlagzeuger ersetzt es meiner persönlichen Meinung nicht. Aber für Leute, die Probleme mit Schlagzeug-Beats oder einfach keine Möglichkeit haben, ein Schlagzeug aufzunehmen, ist es bestimmt ein willkommenes Plugin.

Das war es so weit mit den Neuerungen von Cubase 8. Man könnte natürlich noch weitere nennen wie z. B. VST-Connect-SE 3 oder den neuen Quintenzirkel und Proximity-Chord-Assistant-Mode, aber die wichtigsten und interessantesten sollten reichen und ich hoffe, ich konnte euch das neue Cubase ein wenig näher bringen.

Das neue iPhone 6s

table-1100248_960_720

Symbolbild

Bei Jugendlichen gehört das Besitzen eines Smartphones schon fast zum guten Ton – und ein neues am besten noch dazu. So sitzen seit der Veröffentlichung des iPhone 6s, wie bei jeder Neuankündigung, wieder Viele vor ihren Bildschirmen und fragen sich, ob sie sich nicht das neueste iPhone holen sollten. Bei aller Begeisterung für die technischen Rafinessen, die das neue iPhone mit sich bringt, scheint natürlich auch ein kritischer Blick auf das Gerät und die Sache „Smartphone“ selbst angebracht. Mit einem Preis von knapp 850€ ohne Vertrag ist das iPhone 6s nicht gerade ein Schnäppchen. Gerade aus dieser Perspektive sollte man den Kaufpreis – sei er auch bei Vertragsabschluss etwas geringer – kritisch im Hinterkopf behalten. Und zu guter Letzt gilt natürlich: Es kann nicht schaden, das Smartphone von Zeit zu Zeit in der Tasche zu lassen, sich nicht abhängig davon zu machen und verantwortungsvoll damit, seiner sozialen Umwelt und dem eigenen Geldbeutel umzugehen!

Dieser Beitrag richtet sich vor allem an die Technikbegeisterten unter euch. Vielen bringen aber technische Informationen gar nichts, da diese manchmal einfach zu verwirrend sind. In diesem Artikel will ich euch kurz die technischen Rafinessen und Neuheiten des iPhone 6s näherbringen. Bei aller Kürze wird man aber trotzdem nicht an etwas technischem Daten-Input vorbei kommen.

Was ist neu am iPhone 6s:

3D Touch: Das ist wohl die größte Neuheit am iPhone 6s. Im Gegensatz zu allen alten iPhones hat es nämlich ein drucksensibles Display, das dem Benutzer erlaubt, verschiedene Funktionen des iPhones zu benutzen, was nur davon abhängig ist, wie stark er auf das Display drückt. Das ist auch in einer anderen Hinsicht neu, da bis jetzt nur (wie bei der Apple Watch oder im Trackpad des neuen MacBooks) die zweidimensionale Force Touch Technologie eingebaut war und der Nutzer hierdurch ein drittes UI (User Interface = Benutzer Oberfläche) zur Verfügung gestellt bekommt.

Design: Auch das ist ein wichtiger Punkt, denn jeder wünscht sich schließlich auch ein ansprechendes Gerät. Alle, die das Design vom íPhone 6 mochten, können sich mit dem Design vom iPhone 6s bestimmt anfreunden. Es hat sich fast gar nichts geändert, abgesehen von 0,1mm Dicke, was an der Verbauung der 3D Touch Technologie liegt. Die für viele lästige herausstehende Kamera ist allerdings auch noch dabei, was bei Vielen zu Kritik führt, da Apple dabei nicht auf die Benutzerwünsche eingegangen ist. Auch wurde ein stärkeres Gehäuse verwendet, damit sich das Smartphone nicht so einfach biegen lässt, was beruhigen dürfte. Die größte Änderung am Aussehen ist wahrscheinlich das Hinzufügen eines neuen Farbdesigns, nämlich Rosé-Gold, aber das kam ja bekanntlich nicht so gut an.

Kamera: Das, wofür das iPhone 6 schon gefeiert wurde, wurde noch einmal stark verbessert. Im iPhone 6s ist, im Gegensatz zum iPhone 6 mit 8 Megapixel, eine 12-Megapixel-Kamera verbaut, die auch 4k-HD-Videos möglich macht. Auch die Frontkamera wurde von 1,2 Megapixel auf 5 verbessert. Wer also gerne fotographiert oder Selfies macht, wird mit dem iPhone 6s auf jeden Fall glücklich. Von den Kamerafunktionen ist aber alles beim Alten.

Arbeitsspeicher, Prozessor & Datenverbindung: Der für Technik-Liebhaber wahrscheinlich wichtigste Punkt. Wer es nicht mehr weiß oder nicht wusste: Das iPhone 6 kam mit dem Apple A8 Prozessor und (wie bei Apple üblich) 1 GB RAM (RAM = Arbeitsspeicher). Das iPhone 6s allerdings wurde mit einem A9 Prozessor ausgestattet, der nicht nur viel schneller, sondern auch energiesparender ist. Auch die 2 GB RAM schaden dem iPhone 6s nicht und machen es damit, zumindest was Leistung angeht, zu einem wahren Sportwagen der Apple Smartphones. Heißt also: ihr könnt länger und schneller euer Smartphone benutzen und Ruckler sind sehr selten. Zu guter Letzt ist im neuen iPhone ein besser WiFi Chip verbaut und kann dank LTE Advanced eine bessere Datenverbindung aufbauen, was vor allem diejenigen sehr freuen wird, die viel im Internet unterwegs sind.

FAZIT: Das iPhone 6s hat ein paar nette Neuerungen, so die Kamera oder die 3D Touch Technologie. Besonders die Leistung kann sich sehen lassen: Das iPhone 6s hängt alle vorherigen iPhones weit ab, kommt allerdings immer noch nicht an die Leistungs-Smartphone von Android heran. Nicht nur ist das größere und schärfere Gerät ein Traum (auch wenn es immer noch die seltsame Auflösung von 1334 x 750 Pixel bei 326 ppi (ppi = Pixel per inch hat), sondern hat auch eine unglaubliche Leistungsfähigkeit.

 

Informationsverbreitung in der modernen Welt

internet-1181586_960_720

Seit 1605 gibt es die Zeitung als Mittel zur Verbreitung von Informationen. Zu dieser Zeit war das auch nicht wirklich anders möglich. Fernseher gab es erst ab ca. 1930 und das Radio auch erst ab 1923. Doch heutzutage kann jeder mit Hilfe des Internets schnell und einfach der Welt – zumindest den 40% der Menschheit, die Zugang zum Internet haben – etwas mitteilen, sei es durch einen Tweet, eine Nachricht auf Facebook, ein Bild auf Instagram oder, wie in unserem Fall, durch das Aktualisieren eines Blogs.

Auch die meisten Zeitungsanbieter stellen ihre Artikel ins Internet, um einen größeren Radius an Lesern zu bekommen. Immerhin sinkt die Zahl der Leser gedruckter Zeitung ja auch stetig. Zwar geschieht dies nicht besonders schnell, nämlich mit aktuell ca. 1% im Jahr, aber mit einem stärkeren Abfall in den nächsten Jahren ist wohl zu rechnen. Der Übergang von gedruckter Zeitung zu im Internet geschriebenen Artikeln hat aber nicht nur den Hintergrund, dass die Firmen sich nur den jungen Lesern anpassen wollen und dementsprechend modern sein möchten. Vielmehr gilt es auch zu beachten, dass die Produktion von Zeitung nicht gerade sehr billig ist und somit viel mehr Geld gespart werden könnte, wenn man komplett auf das Internet umsiedeln würde. Auch der Umwelt würde dies gewiss nicht schaden, da durch den Verbrauch des Papiers vor der Produktion viele Bäume gefällt werden müssen und immens viel Wasser notwendig ist, um Papier überhaupt herstellen zu können. Letztendlich setzt auch Seligenthal als Umweltschule vor diesem Hintergrund auf einen Online-Blog an Stelle einer gedruckten Schülerzeitung.

Abschließend ist Folgendes festzuhalten: Eine komplette Umstellung von gedruckter Zeitung zu Artikeln im Internet wird wohl auch in den nächsten Jahren nicht geschehen, aber die Tendenz geht eindeutig in diese Richtung.  Die Vorteile der schnellen und umweltschonenden Informationsverbreitung über das Internet sind trotz so mancher Gefahren vielfach zu bestechend, um sie einfach zu ignorieren!