Erfindungen: Das moderne Heute

Natürlich muss man in der Welt Fortschritte machen, beispielsweise in der Wissenschaft oder in der Medizin. Aber die meisten der neuen Erfindungen sind häufig ohne echten praktischen Nutzen und im Grunde genommen ein Rückschritt! Dieser Artikel widmet sich besonders den Gefahren, die von der Technisierung unserer modernen Welt ausgehen.

caveman-159359_960_720

Nehmen wir zum Beispiel den selbstfahrenden Staubsauger. Die meisten denken sich, dass das gut ist, aber man kann auch schlichtweg einen gewöhnlichen Staubsauger nehmen, das Kabel in die Steckdose stecken und durchsaugen. Viele eifern mit dem Kauf dieser „Gadgets“ Bekannten nach oder lassen sich von der Werbung beeinflussen. Aber warum sollten solche Erfindungen ein Rückschritt sein? Im Grunde genommen scheint es doch ganz gut, wenn man selbst nicht mehr viel machen muss, oder? Falsch gedacht! Je mehr Produkte auf den Markt kommen, bei denen man zum Beispiel nur klatschen oder schnipsen muss, um sie zu aktivieren, umso weniger bewegt man sich. Das ist besonders problematisch, wenn man bedenkt, dass die heutige Berufswelt ohnehin schon eine ist, in der man zu viel sitzt. Der Mensch bewegt sich also kaum mehr und es ist mittlerweile statistisch erwiesen, dass Fettleibigkeit in modernen Industriegesellschaften immer weiter zum Problem wird.

Ebenso fragwürdig sind selbstfahrende Autos. Beim Autofahren bewegt man sich zwar auch nicht, allerdings gibt man hierbei nicht nur die Kontrolle an eine Maschine ab, sondern in diesem Fall auch das eigene Leben und das anderer, wenn die Maschine einen Fehler macht. Natürlich machen auch Menschen im Straßenverkehr Fehler. Dennoch sollte man sich überlegen, ob wir immer mehr davon aufgeben möchten, was uns als Menschen vor allen anderen Lebewesen auf diesem Planeten derart einzigartig macht: der Verstand, das logische (verantwortungsbewusste!) Denken, kurz: die Fähigkeiten unseres eigenen Gehirns!

robot-148989_960_720

Für viele ist es eine tolle Vorstellung: ein Roboter erledigt die mühsame Hausarbeit, geht für uns einkaufen, tröstet uns oder ist ein Begleiter im Alltag – doch Maschinen können Menschen vor allem im zwischenmenschlichen Bereich niemals ersetzen!

Ein zweites Beispiel ist das „intelligente“ Haus. Darin sind so gut wie alle Dinge „intelligent“. Man schnipst einmal, die Lampe geht an. Zweimal schnipsen – und die Kaffeemaschine macht einen Kaffee. Ich frage mich: wofür braucht  man das? Wenn bei uns  daheim Besuch da ist, und es gibt zum Beispiel Kaffee, finde ich es immer wieder erheiternd und auch spannend, dabei zuzuschauen, wie die Kaffeemaschine arbeitet und wie man sie bedient. Aufstehen und den Kaffee holen muss man ohnehin. Da kann man ihn doch gleich selbst machen. Vielleicht, besser gesagt bestimmt, wird es  irgendwann Roboter geben, die fast alles für uns erledigen. Natürlich wird es wie heute auch in Zukunft Menschen geben, die die oben beschriebene Entwicklung nicht unterstützen oder zumindest nicht gutheißen – vor manchen Dingen kann man sich aber nie ganz „schützen“, weil man Teil der Gesellschaft ist, in der man lebt. Man bedenke die digitale Welt, die es heutzutage von fast allen Bevölkerungsgruppen verlangt, grundlegende IT-Kenntnisse vorweisen zu können, um im Alltag und vor allem im Beruf bestehen und vorankommen zu können.

Vorteile der o.g. Innovationen gibt es natürlich auch, wie zum Beispiel die einfache Bedienung, die gerade für alte Menschen weniger Anstrengung bedeutet.

Auch das Handy ist (eine zugegeben nicht mehr ganz so) moderne Erfindung. Fast überall sieht man immer jüngere Kinder mit dem Handy. Da denke ich mir nur: warum? Ist es nicht viel schöner, als Kind draußen zu spielen, sich zu bewegen oder im gemütlichen Heim etwas zu malen? Wir werden von allen Seiten beschallt, da wäre „abschalten“ durchaus einmal angesagt!

mobile-phone-1917737_960_720

So viele Freunde, so viele Apps: die Zahl von Diensten und potentiellen Verpflichtungen überfordert laut Forschern nicht nur Kinder und Jugendliche, sondern zunehmend auch Erwachsene!

Fazit: Natürlich gehen zu diesem Thema die Meinungen auseinander. Man könnte „ewig“ weiterdiskutieren und immer wieder neue positive oder negative Aspekte finden, die für bzw. gegen moderne technische Innovationen sprechen. Für mich ist die Welt schon modern genug, für andere nicht. Zum Glück haben wir (ja noch) unseren funktionierenden Verstand. Dank ihm können, ja dürfen wir selbst entscheiden, welchen Weg wir gehen wollen. Hoffentlich endet er nicht in einer Sackgasse!

Das Känguru der Mathematik

Bald findet bei uns, wie auch an vielen anderen Schulen, der Känguru-Wettbewerb statt. Es ist ein mathematischer Wettbewerb für rund sechs Millionen Teilnehmer in über 60 Ländern weltweit.

math-1547018_960_720

Beim Känguru-Wettbewerb wird am 3. Donnerstag im März überall fast exakt zur selben Zeit ein Test geschrieben. Dieser Test ist ein freiwilliger Klausurwettbewerb, der unter der Aufsicht an Schulen geschrieben wird. Die freiwillige Teilnahme am Wettbewerb ist für alle Schülerinnen und Schüler der Klassen 3 – 13 aller Schularten möglich . Um teilzunehmen, muss das Einverständnis des Teilnehmers bzw. das des Erziehungsberechtigten vorliegen.

Für jede Klassenstufe gibt es jeweils altersgerechte Aufgaben, für die die Teilnehmer 75 Minuten zum bearbeiten haben. Wenn man dabei sein möchte, kann man auch den  Lehrer oder die zuständige Lehrerin für Mathematik fragen. Diese werden sicher all eure Fragen beantworten.  Wenn das immer noch nicht reicht, kann man sich auch auf der offiziellen Webseite informieren:

http://www.mathe-kaenguru.de/index.html

Nach der Teilnahme am Wettbewerb erhält jeder Teilnehmer eine Urkunde mit der erreichten Punktzahl und dazu eine Broschüre mit den Aufgaben, Lösungen und weiteren mathematischen Knobeleien sowie einen ,,Preis für alle“.

Für die deutschlandweit Besten gibt es erste, zweite und dritte Preise und an jeder Schule erhält der Teilnehmer mit dem weitesten ,,Kängurusprung“ ( d.h. der größten Anzahl an aufeinanderfolgenden Punkten im Test) ein T-Shirt. Es gibt aber auch noch andere tolle Preise zu gewinnen.

Allen Teilnehmern wünschen wir viel Spaß und Erfolg!

kangaroo-1995843_960_720

 

Mit welcher „Neuheit“ feiert Apple sein zehnjähriges iPhone-Jubiläum?

Apple feiert dieses Jahr zehnjähriges iPhone-Jubiläum.

Viele sagen, dass das iPhone 7 einfach nicht viel anders ist als das iPhone 6 und daher braucht Apple schnellstmöglichst eine Lösung. Schwache iPhone-7-Verkäufe werden dafür sorgen, dass Apple in diesem Jahr mit einem stark verbesserten und innovativen iPhone wieder rekordverdächtige Absatzzahlen vorlegen kann, so offenbar die Theorie vieler Business-Insider. Sie gehen davon aus, dass in den kommenden Quartalen der Anteil der iPhone-Nutzer, die ein über zwei Jahre altes Smartphone-Modell besitzen, auf 43 Prozent ansteigt und dass diese Kunden ein Geräte-Upgrade anstreben. Viele Apple-Nutzer würden auf das iPhone 2017 warten und daher auf einen Umstieg auf das im vergangenen September gelaunchten iPhone 7 verzichten.

iphone

Das Iphone – hier in einer früheren Version – ist ein teurer Spaß. Das Gerät der aktuellen Generation kostet etwa 700€ ohne Vertrag!

Dass Apple in diesem Jahr kein iPhone 8, sondern zwei Versionsnummern auslassen und ein iPhone 10 vorstellen wird, erscheint nicht ganz abwegig. Schließlich feiert das Apple-Smartphone dieses Jahr seinen zehnten Geburtstag: am 9. Januar 2007 zeigte der mittlerweile verstorbene damalige Apple-Chef Steve Jobs in San Francisco das erste iPhone als Kombination aus Telefon, Musikplayer und Internetzugang.

jobs

Apple-Gründer Steve Jobs in einer künstlerischen Umsetzung, auch „artwork“ genannt

Das Gerät galt schon bei seinem Erscheinen als revolutionär, weil es eine komfortable Touchscreen-Steuerung, einen vollwertigen Web-Browser sowie ein schnell und flüssig arbeitendes Betriebssystem bot. Das für dieses Jahr erwartete iPhone könnte als neueste Features „kabelloses Laden des Akkus“ und einen „Smart Connector“ zum Anschluss z. B. für das iPad Pro mitbringen. Gerüchten zufolge wird das Gerät zudem ganz in Glas gehüllt sein und Apple zumindest einige Einheiten mit einem OLED- statt mit einem IPS-LCD bestücken. Manche gehen davon aus, dass die Vorderfläche des 2017er-iPhone fast gänzlich vom Bildschirm eingenommen wird und Home-Button und Fingerabdrucksensor in das Display integriert werden. Berichte, denen zufolge Apple auf ein kabelloses Design setzen und sogar den Lightning-Port streichen wird, erscheinen dagegen eher unglaubwürdig.

Bei aller Technikbegeisterung sollte man sich fragen, ob man wirklich ein iPhone braucht oder ob man nicht auf ein anderes Smartphone zurückgreift, das Ähnliches bietet und dennoch viel günstiger ist. Es gilt zu beachten, dass man mit einem Gerät der Marke Apple auch immer die Marke mitbezahlt. Für manche mag das als Statussymbol gelten; ob man das wirklich braucht, ist allerdings fragwürdig.

Kettenbriefe – einfach nur Viren?

Jeder hat schon einmal welche auf WhatsApp bekommen: Kettenbriefe. Aber sind auch wirklich alle nur Viren?

Häufige Kettenbriefe sind solche, die euch neue Emojis versprechen: ,,Willst du einen Emoji mit Herz-Mund? Dann schicke diese Nachricht an 15 Kontakte!“, kann man häufig lesen. Aber stimmt das? Ich selbst habe es versucht und es hat nicht funktioniert.

emoji

Ein typisches Emoji, wie es in einem Kettenbrief versprochen wird. Dabei gibt es genügend Emojis in den Apps selbst, sodass man gar keine neuen braucht.

Zur Halloween-Zeit gab es Kettenbriefe, in denen über die Horror-Clowns berichtet wurde. Wenn man diesen Kettenbrief weitergeschickt hat, übermittelte man den Absendern des Briefes seinen eigenen Standort. Eure ganz persönlichen Daten bzw. eure Privatsphäre sind somit durch sog. Kettenbriefe in Gefahr!

Es gibt auch Kettenbriefe, die euch große Versprechungen machen, z.B.:,, Wenn du jetzt die Fragen beantwortest hast, dann schicke diese Nachricht an 5 Kontakte. So bekommst du in der nächsten Ex oder Schux eine 1! Wenn du es an 10 Kontakte schickst, findest du deine wahre Liebe. Wenn du es an 15 Kontakte schickst, geht beides in Erfüllung.“ Aber ob man eine gute Note schreibt, hängt nur davon ab, ob man gelernt hat oder nicht. Die wahre Liebe findet man durch das Versenden dieser Nachrichten ebenfalls nicht. Deswegen darf man solchen Nachrichten NIE Glauben schenken und muss ganz vorsichtig sein. Die Absender solcher Briefe wollen in erster Linie an eure Daten: Kontakte, Bilder, Standort – die Daten werden teilweise für viel Geld verkauft. Im schlimmsten Fall versteckt sich hinter solchen Kettenbriefen Viren / Trojaner, die sich in euer System einnisten und euch ausspionieren oder eure Daten beschädigen.

Hier sind ein paar Tipps zum Umgang mit Kettenbriefen:

1. Bei der Aufforderung „Bitte an X Leute weiterleiten“ Nachricht sofort löschen!

2. Kettenbriefe – egal ob per Whatsapp oder E-Mail- einfach löschen!

3. Auf keinen Fall Geld überweisen, auch wenn es noch so seriös oder ernst klingt!

4. Niemals persönliche Daten preisgeben!

5. Anhänge nie öffnen – sie können Viren enthalten!

6. Bekommst du einen Kettenbrief von einem Freund oder einer Freundin, dann kläre sie / ihn auf und bitte darum, in Zukunft keine derartigen Dinge mehr an dich zu verschicken.

Falls der Kettenbrief von einer fremden Nummer / einem fremden Absender kommt, lösche zuerst den Brief bzw. die Nachricht und danach den Kontakt! Manche Absender geben vor, offizielle Vertreter z. B. von einer Bank, einem Messaging-Dienst oder eines Gerichts zu sein. Ignoriert und löscht diese Nachrichten sofort und reagiert niemals darauf, auch wenn die Absender hartnäckig sind oder euch sogar drohen!

Kettenbriefe gibt es nicht erst seit gestern. Früher hat man auf Pergament oder Papier Texte geschrieben und sie per Post ausliefern lassen. Heute werden Kettenbriefe aber vor allem dazu genutzt, unbescholtene Internetnutzer auszutricksen und sie somit um ihr Geld oder um ihre Daten zu bringen. Manchmal geht es den „Machern“ von Kettenbriefen auch einfach nur darum, andere Menschen absichtlich zu verängstigen. Das ging so weit, dass sich jemand einen Spaß daraus machte, Grundschüler mit Mord zu bedrohen:

http://www.stern.de/action/7097106/videoembed?video=7061102

Zusammenfassend kann man also sagen: Kettenbriefe sind nicht immer gefährlich, können aber gefährlich werden. Ignoriert sie und löscht Nachricht samt Absender!

Der Flughafen München

munich-airport-2006118_960_720

Der Flughafen München ist der zweitgrößte Flughafen in Deutschland. Hinter dem Flughafen Frankfurt kommt er an zweiter Stelle mit jährlich rund 41 Millionen Passagieren. Am 17.05.1992, also vor etwa 24 Jahren wurde der heute als einer der besten Airports der Welt in Betrieb genommen. Der Betreiber des internationalen Flughafens ist die “Flughafen München GmbH“ (kurz: FMG). Der Freistaat Bayern hat einen 51-prozentigen Anteil, die Bundesrepublik Deutschland einen 26-prozentigen und die Stadt München ist mit 23% an dem Flughafen beteiligt. Der Flughafen befindet sich etwa 28 Kilometer von München entfernt.

Der Flughafen München verfügt über 2 Terminals, dem Terminal 1 und dem Terminal 2, mit dem neuen Terminal 2 Satellit. Das Terminal 1 ist für Passagiere von Lufthansa und andere Star-Alliance-Mitglieder (ein Zusammenschluss von mehreren Fluggesellschaften). Zudem verfügt der Airport über zwei parallele Start- und Landebahnen, die jeweils 4000 Meter lang un 60 Meter breit sind. Die nördliche Start- und Landebahn wird benutzt, um die Flieger, die aus dem Norden kommen, starten starten und landen zu lassen, die Südbahn ist für alle nach Süden startende und von Süden kommende Flugzeuge da. Von 6 bis 22 Uhr ist das Landen ohne besonderen Grund möglich, danach geht das nur mit spezieller Genehmigung.

Derzeit fliegen 97 Airlines zu 247 Destinationen in 70 Ländern, die meisten Flüge werden von Lufthansa, inklusive Lufthansa Cityline, gestartet. An zweiter Stelle liegt airberlin.  Der internationale Flughafen ist durch Buslinen von der Innenstadt Landshut gut zu erreichen.  Auch die MVV verbindet den Flughafen mit Freising und Erding. Ebenso verbinden die S-Bahnen S1 und S8 den Flughafen mit dem Hauptbahnhof und der Innenstadt München. Auch Flix- und Postbusse geben die Möglichkeit, weite Teile Deutschlands sowie die umliegenden Gegenden zu erkunden. Für das neue Jahr wird wieder ein starker Passagieranstieg erwartet.

Air Force One (AFO): Das Flugzeug des amerikanischen Präsidenten

Die Air Force One, das Flugzeug des Präsidenten der USA, ist aus vielen Filmen bekannt, wie beispielsweise dem Film ,, Air Force One“.

air-force-one-583682_960_720

Die Air Force One (kurz : AFO) ist eine 747-200 des amerikanischen Flugzeugherstellers Boeing. Die AFO ist im Besitz der US Air Force und existiert nur einmal. Die “aktuelle“ AFO ist ein Nachfolger von vielen anderen Flugzeugen von verschieden Herstellern. In den nächsten Jahren wird die aktuelle 747-200 durch eine Boeing 747-8 ersetzt . Bei jeder Ankunft, wie zuletzt in Hannover oder dem G7-Gipfel auf Schloss Elmau, kommen viele Luftfahrtbegeisterte zu den Flughäfen, um bei der Ankunft des „hohen Besuchs“ dabei zu sein – und vor allem die Maschine des Präsidenten zu begutachten.

Jede Flüge des Flugzeuges werden drei Tage vorher festgelegt, damit man die Begleitung von Tank- und Frachtflugzeugen planen kann. Neben der Air Force One gibt es auch noch eine kleinere Air Force Two; diese ist eine Boeing 757. In Hannover kam vor kurzem der aktuell amtierende amerikanische Präsident Barack Obama das letzte Mal in seiner Amtszeit an Bord der Air Force One nach Deutschland. Die Nachfolger werden dann mit der brandneuen Boeing 747-8 fliegen.

Fakten übers Fliegen

airplane-145889_960_720

Fliegen ist fast so normal geworden wie Autofahren. Es gibt aber viele interessanteFakten, die die meisten Leute nicht kennen. Hier folgen ein paar wissenswerte, verblüffende und lustige Informationen zum Thema Fliegen und Flugzeuge:

  • gerade befinden sich etwa 70.000 Menschen in der Luft
  • jährlich gibt es mehr als 3.000.000.000 Flugreisende
  • die Zahlen 13, 17 und 666 kommen in keiner Sitzplatzreihe, Flugnummer und an keinem Gate vor (wegen des Aberglaubens)
  • ein Pilot darf jemanden während des Fluges verhaften
  • die Wahrscheinlichkeit, bei einem Flugzeugabsturz zu sterben, liegt bei 0,000012 %
  • theoretisch startet alle 30 Minuten ein Flug von London nach New York
  • der kürzeste Flug der Welt dauert weniger als 2 Minuten, welcher zwei Inseln in Schottland verbindet
  • der längste nonstop verkehrende Flug dauert 18 Stunden und verbindet Singapur mit New York
  • das längste Flugzeug (die Antonov An-225) ist 84 Meter lang
  • ein Kilogramm Übergewicht kostet bei der Lufthansa rund 30 Euro Aufpreis
  • 25.000.000 Gepäckstücke wurden 2009 beschädigt
  • ein schwedischer Pilot ist 13 Jahre ohne Pilotenlizenz geflogen

Der Flugfunk

Die Piloten machen das schon? Von wegen! Ohne die vielen fleißigen Helfer in den Towers auf den Flughäfen am Boden und weiterer Beteiligter könnte der Flugbetrieb nicht sicher gewährleistet werden!

bario-1589516_960_720

Piloten leisten viel und tragen eine große Verantwortung. Für einen reibungslosen Ablauf ohne Zwischenfälle im Flugverkehr sorgen aber vor allem auch die Fluglotsen!

Das Flugzeug ist das einfachste und nach wie vor sicherste Fortbewegungsmittel, um von A nach B zu gelangen. Doch was im Cockpit vor sich geht, weiß kaum einer genau. Bei den Piloten sowie bei den Fluglotsen wird nur Englisch geredet. Allerdings wird vom normalen Englisch abgewichen.  So sagt man beispielsweise statt three (deutsch: drei)  “tri“.

Wenn der Pilot beispielsweise die Fluglotsen fragt, ob er mit seinem Flugzeug die Landebahn überqueren darf, um an das Terminal oder eine bestimmte Position zu gelangen, fragt der Pilot: “ May we cross? “ (deutsch: dürfen wir überqueren?). Der Fluglotse erwidert nicht “No, hold position“ (deutsch: Nein, behalten sie die Position),  sondern entgegnet “Negative, hold  position. Incoming traffic“ (deutsch: Negativ, behalten Sie Ihre Position, einkommender Flugverkehr“). Dies sagt der Fluglotse um Verwechslungen zu vermeiden und wiederum Unfällen vorzubeugen. Er gibt dem Piloten also unmissverständliche Informationen an die Hand.

tower-1379715_960_720

Der Arbeitsplatz der Fluglotsen: die Damen und Herren mit den Ohrschützern und Warnwesten auf den Landebahnen sind, wie viele meinen, keine Fluglotsen, sondern Einweiser.

Doch es gab bereits zahlreiche Unfälle, die durch die falsche Verständigung zwischen Fluglotse und Pilot herbeigeführt wurden.  Beispielsweise war dies auf Teneriffa der Fall, wo am 27.03.1977 eine Boeing 747 der niederländischen Fluggesellschaft KLM startete, obwohl eine Pan Am Boeing 747 die Startbahn noch nicht verlassen hatte. Dabei fuhr die 747 der KLM ohne Erlaubnis zum Start. Die Piloten der KLM verstanden die Antwort des Towers schlichtweg falsch. Nach diesem Unglück wurde der Flugfunk ,,überarbeitet“, sodass heute nicht mehr viel falsch verstanden werden kann.

Nice to know: Das Einstiegsgehalt eines Fluglotsen beträgt 6000 bis 8000 Euro (Brutto), das eines Piloten liegt durchschnittlich bei 15.000 Euro monatlich.

Moderne Musikproduktion Teil 2

Moderne Musikproduktion Teil 2_Cover

Ich begrüße euch zum zweiten Teil der Beitrags-Reihe „Moderne Musikproduktion“.

Um was geht es?

In diesem Teil geht es um die Funktionen und Benutzung von Plugins, also entweder Virtuellen Instrumenten oder Effekten. Dabei werden wir bei den Instrumenten eher auf die Grundprinzipien eingehen, da ja nicht jedes Plugin gleich ist, und bei den Effekten wollen wir uns den Themenfeldern EQ (Equalizer), Compressor, Multiband Compressoren, Reverb und Delay genauer widmen sowie auf deren Funktionsweise eingehen. Ich hoffe ihr freut euch genau so wie ich, aber bevor wir anfangen, hole ich noch kurz etwas nach, was im letzten Beitrag gefehlt hat.

Welche DAW passt zu mir oder welche ist die beste?

Das ist die wahrscheinlich am häufigsten gestelle Frage in der weiten Welt der Musikproduktion und keiner kann eine genaue Antwort liefern. Allerdings gibt es doch so ein paar Dinge, bei denen man sich einig ist, den Rest muss man für sich selbst entscheiden. Ich hoffe, die folgenden Tipps werden dir in der Wahl deiner DAW helfen.

Welche DAW wofür?

Es gibt drei hauptsächliche Anwendungsbereiche für DAWs. Man kann natürlich jede DAW für alle Bereiche verwenden, aber manche eignen sich halt besser als andere. An dieser Stelle möchte ich auch darauf hinweisen, dass genauere Tutorials zu den einzelnen DAWs in Zukunft kommen werden.

Auftritte Live: Dafür wird fast immer Ableton Live benutzt. Es hat das Live ja schon im Namen. Die beliebte DJ-Software bringt nämlich alles, was man für einen gelungenen Live-Auftritt braucht, hat aber auch alles, was man für Home Recording benötigt. Sie ist sehr bekannt und die meisten Tonstudios haben es auf mindestens einem Rechner laufen. Warum also auf eine andere zurückgreifen? Ganz einfach. Die Steuerung ist gewöhnungsbedürftig und mit 600€ für die „Vollversion“ (Suite) auch nicht gerade günstig. Es gibt auch eine Version für 350€ (Standard). Dieser fehlen allerdings relativ viele gute Sounds und nur 3 von 9 vorinstallieren Instrumenten sind vorhanden. Über die 80€ (Intro)-Version will man gar nicht reden. Soll heißen: eingeschränkte Funktionen, nicht mal ein Drittel aller Sounds und fehlende Effekte raten schon alleine von dieser Version ab. Alternative? Cubase! Niemand geringeres als Skrillex selbst verwendet auch für seine Live-Auftritte Cubase und das, obwohl es hauptsächlich für Home Recording verwendet wird – ein perfektes Beispiel dafür, dass es auf die Verwendung ankommt und nicht auf die DAW.

Home Recording: Cubase, FL Studio, Reaper, Ableton Live, Pro Tools, Logic Pro X, Reason, Studio One und sogar das von mir nicht sehr geschätzte Sonar X3 kann man dafür verwenden. Jede DAW, die es gibt, eignet sich dafür, da das der  Hauptanwendungsbereich ist. Hier hilft nichts als Testen oder sich im Fachhandel erkundigen.

Mixing und Mastering: Ich, der den Beruf des Audio Engineers anstrebt, werde hier einen Mastering-Experten zitieren: „Pro Tools! Punkt!“ Mit diesen weisen Worten wäre alles gesagt. Naja fast. Es ist einfach so, dass eigentlich alle großen Tonstudios Pro Tools verwenden. Das liegt einfach daran, dass es für diesen Bereich (Mixing und Mastering) optimiert ist, beispielsweise durch Funktionen wie den Over-Sampling-Mode. Die Audioverarbeitung ist einfach ideal einstellbar und es bietet alle Funktionen, die man braucht.

Nun aber zurück zum eigentlichen Thema:

Plugins:

Es gibt leider nicht nur „das Plugin“. Es gibt eine Vielzahl von Plugins. Wir schauen uns ganz kurz VST, AAX, AU und RTAS an.

VST: Das ist die Abkürzung für Virtual Studio Technology. Das ist das von Steinberg Media Technologies entwickelte Software-Protokoll. Es gibt eine große Anzahl an VST-Plugins, viel zu viele, um alle zu nennen. Fast alle DAWs können VSTs benutzen. Pro Tools ist eine Ausnahme, aber mit Bridgern (einem Umwandlungsprogramm) geht auch das.

AAX: Avid Audio Extension. Das ist ein speziell für Pro Tools entwickeltes Software-Protokoll. Es wird ausschließlich von Pro Tools verwendet, ist also eher selten anzutreffen. Viele Entwickler müssen ihre Plugins immer noch in das AAX-Format umwandeln, auch wenn die Zahl immer kleiner wird, doch viele machen sich diese Mühe nicht, was Pro Tools aber nicht wirklich schadet, da es schon alles Wichtige hat.

RTAS: Das steht für RealTimeAudioSuite. Das war das erste ausschließlich für Pro Tools entwickelte Software-Protokoll. Seit Version 10.8 wird dieses aber nicht mehr unterstützt, weshalb es eigentlich nicht mehr vorkommt.

AU: Die Abkürzung für Audio Unit ist ein von Apple entwickeltes Format für Plugins. Logic benutzt ausschließlich diese Format, aber die meisten anderen DAWs, die auf einem Mac laufen, verwenden auch VSTs.

Wie verwende ich Plugins?

Die Antwort zu dieser Frage ist natürlich von DAW zu DAW unterschiedlich. Wenn man aber einmal weiß, wie es geht, ist es ganz einfach. Meist reicht es, die Standard-Installation auszuführen, und beim Starten der DAW wird das Plugin automatisch erkannt. Dann muss man nur noch wissen, wie man es in der DAW selbst öffnet.

Instrumente:

Es gibt eine immense Anzahl an Virtuellen Instrumenten in allen möglichen Preisklassen. Aber einige Funktionen sind bei den meisten vertreten.

Sampler: Dabei handelt es sich um die einfache Art der Virtuellen Instrumente. Sampler spielen aufgenommene Töne ab und transponieren diese bei Bedarf. An sich gibt es zwei Arten von Samplern. Die einen benutzen Sounds, die ihnen manuell vorgegeben werden (wie Drum Machines), die anderen arbeiten mit Presets oder Soundfonts. Soundfonts sind in einem Format gespeicherte Samples und Parameter-Beschreibungen, die mit SoundFont-Playern abgespielt werden.

Synthesizer: Diese Instrumente sind wesentlich komplexer. Sie generieren nämlich selbst Sounds. Wie das funktioniert, ist ein Kapitel für sich, aber die Funktionen von einem Synthesizer werde ich euch versuchen näher zu bringen – wobei man nicht ganz an der Erzeugung des Tons vorbeikommt. Ganz kurz: Ein Ton setzt sich zusammen aus Schalldruckpegel (gemessen in Dezibel [dB]) und Frequenzen  (gemessen in Hertz [hZ]). Bei einem synthetisch generierten Ton sind dann noch Parameter wie Bit-Tiefe und Samplerrate wichtig, aber die lasse ich jetzt mal außen vor, da sie für diese Erklärung keine Rolle spielen. Der Schalldruckpegel bestimmt die Lautstärke eines Tons und die Frequenzzahl die Höhe. Hertz ist an sich nur eine Umschreibung für Schwingungen pro Sekunde. Also sind 100 hZ 100 Schwingungen pro Sekunde. Aber Schwingungen von was? Dafür muss man wissen, dass sich Geräusche wie Licht ausbreiten, also in Wellenform. Je schneller diese Welle schwingt, desto höher ist der Ton. Die Lautstärke wird dadurch bestimmt, wie stark die Schallwelle auf einen Körper (zum Messen auf eine Membran) trifft – also wie schnell er sich ausbreitet. Schnelligkeit der Ausbreitung und Schnelligkeit der Schwingung sind zwei unterschiedliche Dinge. Das eine ist eine Bewegung in die Richtung, in die der Schall „geworfen“ wird, das andere die Bewegung der Schallwelle selbst. Jetzt aber genug zum Thema Ton-Generierung. Viel interessanter ist ohnehin, wie ein Synthesizer funktioniert. Er macht nichts anderes, als eine sogenannte Sinus-Welle (Bezeichnung für den reinsten Ton [Eine gleichbleibende Welle ohne Verzerrung im negativen oder positiven Bereich – gezeigt im nachfolgenden Bild]) zu verändern.

welle

Dadurch entstehen, je nach Veränderung, andere Töne (wie genau diese Veränderung funktioniert, werde ich nicht erklären, da ein eigener Beitrag dafür notwendig wäre; das ist ein großer Teil eines Moduls in der Ausbildung zum Tontechniker). Dieser entstandene Ton kann synthetisch klingen:

 

oder auch eine Imitation eines realen Instruments sein:

 

Der ein oder andere „Experte“ wird jetzt sagen, dass man das ja einfach mit Presets machen kann – auswählen und fertig. Das stimmt, aber jeder richtige Experte wird mir zustimmen, wenn ich sage, dass es besser ist, seinen eigenen Sound (oder bei Effekten eigene Einstellungen) zu erstellen. Das wird im Normalfall wesentlich besser in den eigenen Track passen als irgendein Preset. Es ist natürlich nicht einfach, einen gewissen Sound zu erstellen, aber mit Übung klappt das schon. Ich habe z. B. versucht, den Sound von dem Lead Synth aus Martin Garrix` – Poison (dem Drop-Part) nachzuahmen und ich würde sagen, das ist doch relativ gut gelungen. Dabei gab es nur eine Herausforderung: Das, was ihr in folgendem Beispiel hört, ist nicht nur ein Synth, sondern fünf, die gleichzeitig spielen.

 

Diese „Technik“ ist das so genannte Layering. Das bedeutet, dass mehrere Instrumente (der etwa gleichen Art) das Gleiche spielen. Diese Technik findet sich in so ziemlich allen Pop- oder Hand-Up- bzw. allen Songs der EDM wieder, und das nicht nur bei Synths, sondern auch bei Drums, egal ob Snare oder Kick. Dabei gilt aber auch einiges zu beachten – dazu an anderer Stelle mehr.

Was können diese ganzen Regler?

Dieser Frage stellen sich wahrscheinlich alle, die das erste Mal einen Synthesizer sehen. Verständlich, da es wirklich ziemlich viel auf einmal ist. Ich werde versuchen, euch in diesem Teil die wichtigsten Funktionen zu erklären und in späteren Beiträgen vielleicht einmal auf die „versteckten“ oder speziellen Funktionen eingehen. Das Wichtigste zu unserem Thema aber nun hier: der bzw. die OSCs. Das steht für Oszillator. Na gut. Um ehrlich zu sein, steht das für Open Sound Control, aber Oszillatoren (oder auch Operator) werden grundsätzlich die Ton-Generatoren genannt. Diese setzen sich meist aus einem Wave Picker und Tune Controllern zusammen. Bei Multi-OSC-Synths werden auch Volume-Control-Regler bei den einzelnen Oszillatoren angegeben. Die Tune-Controller bestimmen diejenigen, auf welchen Ton der OSC gestimmt ist.

Meist gibt es zwei verschiedene Tune-Controller, den Semitone-Controller und den Detune-Controller. Der Semitone-Controller verschiebt den Input um die ausgewählte Anzahl an Semitönen (Halbtöne) nach oben oder unten. Dieser Kontroller wird auch oft mit Pitch betitelt. Der angegebene Wert muss keiner ganzen Zahl entsprechen, sondern kann auch Dezimalen enthalten. Falls dies nicht der Fall ist, gibt es meist einen so genannten Finetune-Controller. Dieser ist dann für die Dezimal-Werte zuständig. Der Detune-Controller funktioniert etwas anders. Er verstellt nämlich nicht den Unterton (Grundton), sondern fügt Obertöne (Teiltöne des Klangs, die für die Klangfarbe „zuständig“ sind), hinzu. Das führt zu einer Disharmonie, klingt also, als ob der Grundton verstimmt (detuned) wurde.

Im Wave-Picker wird die „Wellenart“ gewählt, die benutzt werden soll (eigentlich eher das „Aussehen“ der Amplitude). Um das zu verstehen, muss man wissen, dass der reinste mögliche Ton aus einer gleich schwingenden Welle besteht, der so genannten „Sinus-Welle“:

Sinus Welle

 

Diese Sinus-Welle wird mit einer gewissen Anzahl an Schwingungen (Frequenz) pro Sekunde erzeugt. Diese Frequenz gibt an, wie hoch bzw. tief der Ton ist. Der Kammerton A4 liegt z.B. bei 440 Hz (Hertz = Die Einheit für Frequenzen) also 440 Schwingungen pro Sekunde. Je höher die Hertz-Anzahl ist, des­to höher ist der Ton und umgekehrt. So liegt C8 (der höhste Ton eines Klaviers) bei 4,186 kHz (1 kHz = 1000 Hz) und A0 (tiefster Ton) bei 27,5 Hz. Natürlich ist das Erzeugen eines absolut reinen, aus nur einem Grundton ohne Obertöne bestehenden Tons unmöglich, aber die Synthesizer tun ihr Bestes. Wie genau jetzt das Verformen der Amplituden-Form funktioniert, ist einen Beitrag für sich wert, aber so viel sei gesagt: Es fügt Obertöne hinzu. Das reicht als Grundwissen. Was mit Wave Shapern und dergleichen gemacht wird, ist vorerst unbedeutend. Die folgenden Bilder samt Tonbeispielen lassen euch die Arten Triangle, Saw, Square sehen bzw. hören.

Triangle:

Triangle

 

Saw:

Saw

 

Square:

Square

 

Beim folgenden Beispiel handelt es sich um die besonderen Wellen des Round Saw, alle gespielt auf dem Kammerton A4. Lasst euch nicht von dem A3 verwirren. Das liegt daran, dass das VST eine andere Skala verwendet, die bei Minus-Noten beginnt.

Round Saw

 

Das waren die Basics eines Synthesizers. Etwas spezieller ist vielleicht Phase Offset, aber das gibt nur den Startwert der Amplitude an, also z. B. nicht am 0 Punkt, sondern schon halb in der Schwingung. Pan oder Panning, also der Panoramapotentiometer, Panpot oder einfach Panoramaregler, gibt die Lautstärkeverteilung eines Audiosignals auf zwei Kanälen an – demnach: wie gut der Ton von links bzw. rechts zu hören ist. Aber nun zu dem etwas schwierigeren Bereich: Envelope, LFO und Filter.

Was ist ein Envelope?

Die beste Übersetzung wäre Hüllkurve, da die Envelope-Kurve den Verlauf eines PARAMETERS angibt:

Envelope

Wenn dieser Parameter nicht fest eingestellt ist, wie beispielsweise bei einem Volume-Envelope, kann man ihm meist einen Parameter zuweisen in einer so genannten FX-Matrix. Das kann sich von Plugin zu Plugin allerdings unterscheiden. Die folgende Abbildung zeigt eine solche Matrix:

FX Matrix

Curve, Type, Mod und Aux (von auxiliary) Source sind recht selten, weswegen ich sie in diesem Beitrag außen vor lassen werde. Dass sie doch sehr nützlich sein können, zeige ich in einem anderen Beitrag, aber zurück zum Envelope. Eine Envelope-Kurve besteht aus vier Bereichen. Der erste wird durch den Attack-Regler bestimmt. Dieser gibt die Zeit an, die der Parameter braucht, um auf 2/3 der 100% (durch Makros verstellbar) zu kommen. Der zweite wird durch den Holdregler bestimmt. Dieser gibt an, wie lange der Paramter auf 100% bleiben soll, bevor er durch den dritten Bereich modelliert wird. Dieser wird durch Decay und Sustain bestimmt. Hierbei ist Decay eine Zeitangabe und Sustain eine „Höhen-“ oder Prozentangabe. Der Decay-Regler gibt an, wie lange der Parameter braucht, um auf den vom Sustain ausgewählten Prozentsatz zu kommen. Sobald der Parameter dort angekommen, ist bleibt er dort so lange, bis die Taste losgelassen wird. Ein Envelope beginnt bei Tastendruck. Sobald die Taste losgelassen wird, geht der Parameter in den vierten Bereich. Dieser wird durch den Release-Regler kontrolliert, welcher wiederum angibt, wie lange der Parameter braucht, um wieder auf 2/3 vor 0% (mit Makros verstellbar) zu gehen. In machen Plugins gibt es auch noch ein Delay-Regler. Dieser bestimmt, wie lange gewartet wird, bis die Envelope-Kurve anfängt zu wirken.

Was ist ein LFO?

LFO steht für „Low Frequency Oscillator“ und er macht genau das, was man von einem Oscillator erwartet. Er erzeugt einen Ton. Zumindest war das so in der analogen Zeit. Dieser Ton war damals aber auch unter 10 Hz, was ihn für das menschliche Gehör nicht hörbar machte, dafür war er auch nicht da. Ein LFO sollte schon damals einen Ton „verändern“. Um etwas genauer zu werden: durch die Schwingungen dieses vom LFO produzierten Tons entstehen im Hörfeld harmonische und unharmonische Teiltöne. Details spare ich aber hier aus, da es ohnehin um digitale LFOs geht. Das sind nicht anderes als wellenförmige Envelopes. Sie stellen also den Wert das Parameters gleichmäßig von einem Prozentsatz auf den anderen und zurück. Klingt zwar langweilig, ist aber aus der EDM nicht mehr weg zu denken.

Was macht die FX Matrix?

Eigentlich nichts anderes als einem Parameter (hier Destination genannt) einen „Verlauf“ anzugeben, so beispielsweise der Cutoff Frequency den zweiten Modulation Envelope. Amount regelt dabei, wie stark dieser Envelope beachtet werden soll. Output regelt, wie laut dieser Modulation wiedergegeben wird.

Mit all diesem Wissen können wir uns endlich einem der wichtigsten Themen der Synthesizer widmen.

Filter

Den Begriff bestimmt jeder schon jeder einmal gehört und sie machen genau das, was der Name vermuten lässt. Sie filtern etwas. Naja nicht ganz. Um genau zu sein, verstärken oder schwächen sie Frequenzen. Es gibt eine Reihe an Filtern mit einschlägigen Bezeichnungen. Ich werde hier die bekanntesten aufzählen:

Es gibt fünf Arten von Filtern, die man kennen sollte: den Peak Filter, den High Pass Filter, den Low Pass Filter, den High Shelf Filter und den Low Shelf Filter.

Peak Filter: Diese Art von Filter kann eine bestimmte Frequenz angeben oder absenken. Der Q-Parameter gibt dabei die sogenannte Flankensteilheit des Filters an. Das heißt, dass er die Breite und somit die Anhebung oder Absenkung der (Kern)Frequenz beeinflusst. Höhere Flankensteilheit vermindert die Breite und niedrige erhöht ihn. Somit werden mehr oder weniger Frequenzen erhöht bzw. gesenkt.

High Pass Filter: Wie der Name schon sagt, lässt der High Pass Filter alle Frequenzen, die oberhalb der Cutoff-Frequenzen liegen, „passieren“. Die leicht darunter liegenden werden geschwächt und die weiter hinten liegenden werden verstummt. Die Weite davon kann mit dem Parameter Q verstellt werden.

Low pass Filter: Dieser Filter bewirkt das genaue Gegenteil des Highpass-Filters. Heißt also, dass er alle Frequenzen über der Cutoff-Frequenz abschneidet und alle darunter frei passieren lässt. Dies folgt dem Muster des High Pass. Knapp dahinter wird leiser gestellt und weiter weg verstummt. Die Weite davon kann ebenfalls mit dem Parameter Q verstellt werden.

High Shelf Filter: Dieser Filter verstärkt alle Frequenzen über der Cutoff-Frequenz leicht bis stark. Der Steigungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.

Low Shelf Filter: Dieser Filter verstärkt alle Frequenzen unterhalb der Cutoff-Frequenz leicht bis stark. Der Steigerungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.

Band Pass: Dieser Filter filtert eine gewisse Frequenzbandbreite, z. B. von 500 Hz bis 15 kHz. Den Rest schwächt er ab oder lässt ihn verstummen. Wie schnell das passiert, kann man mit der Flankensteilheit einstellen.

Wer sich jetzt fragt, wofür man das brauchen könnte, sollte definitiv weiter lesen. Einerseits kann es natürlich verwendet werden, um dem Synth genau den Sound zu geben, den man möchte, und dafür sind auch die Filter in den Plugins gedacht. Auch für spezielle Effekte des Tons können Filter verwendet werden wie z. B. bei einem Wobble Bass der im Dubstep-Genre viel Verwendung findet. Für Build Ups wird auch oft ein Low Pass Filter verwendet.

Mit all diesem Wissen können wir endlich zu einem der interessantesten Punkte kommen. Den Effekten. Zu dieser Kategorie gehören zwar auch die Filter, aber da sie so wichtig sind, habe ich sie hier gesondert erklärt.

Welche Effekte gibt es?

Viele! Zu viele für diesen einzelnen Beitrag. Hier eine kurze Auflistung:

Distortion, Flanger, Phaser, Chorus, Compressor, Delay, Reverb, Equalizer, Stereo Widener, Soft Clipper, Limiter, Vocoder usw.

Ein Paradies, wenn man weiß, was die Effekte (kurz FX) machen, aber eben sehr nervig, wenn man es nicht weiß und den Sounds damit das gewisse Etwas fehlt. Ich werde versuchen, euch in diesem Beitrag die wichtigsten Effekte näher zu bringen und euch ihr Processing zu erklären. Hierbei ist wichtig zu wissen, dass man über jeden dieser Effekte eigentlich einen eigenen Beitrag machen könnte und ich es (damit es nicht zu lang wird) möglichst kurz halten werde.

Compressor

Compressor

Das ist wahrscheinlich der Effekt mit den meisten „Mythen“, die sich über die Zeit eingeschlichen haben. Zwar sind es keine direkten Fehler, aber halt auch nicht volle Wahrheiten. Aber der Reihe nach.

Was macht ein Compressor?

Allgemein wird meist gesagt, dass ein Compressor die dynamische Reichweite verringert. Das ist nicht ganz richtig. Zunächst aber zu den Grundlagen: ein Compressor setzt Töne, die über einem gewissen Schwellenwert sind, nach einer gewissen Rate herunter. Das funktioniert durch folgende Regler: Threshold und Ratio.  Threshold oder zu deutsch Schwellenwert ist die Angabe für den Dezibelwert, ab dem der Compressor anfängt zu wirken und die Lautstärke herunter regelt. Um wie viel das geregelt wird, wird durch den Ratio-Regler bestimmt. Dieser wird in einem Verhältnis von X zu 1 eingestellt (Beispiel: 10:1). Im Fall des Beispiels werden also alle 10 dB über dem Schwellwert auf 1 dB über den Schwellwert runter geregelt. Auch alles unter 10 dB ist betroffen. So werden z. B. 5 dB auf 0,5 herunter geregelt usw. Auch finden sich schon zwei bekannte Regler beim Compressor wieder: Attack und Release – und genau bei diesen Reglern ist der größte Fehler in der Signalverarbeitung versteckt, den man, wenn man aufmerksam war, erkennen kann. Hier die Erklärung: Der Attack regelt, wie lange das Signal über dem Schwellwert sein muss, bevor er reagiert. Fehler gefunden oder erraten? Falls nicht auch nicht schlimm. Die Attack-Zeit ist die Zeitspanne, die der Compressor braucht, um 2/3 des Verhältnisses zu reduzieren. Also genau wie beim Envelope. Man mag es nun glauben oder nicht, aber das gilt gleichsam für den Release. Heißt also, dass der Release nicht regelt, wie lange der Compressor nach Unterschreiten des Schwellwerts noch wirkt, sondern wie lange der Compressor braucht, um zurück auf 2/3 vom Verhältnis der Wirkung zurückzugehen. Klingt schwieriger als es ist. Wichtig ist eigentlich nur zu wissen, dass Attack die Anfangs-Zeit beeinflusst und Release die End-Zeit. Dann wäre da noch ein ganz wichtiger Regler. Der Makeup Gain. Um es kurz zu halten: Das ist der Regler für die Output-Lautstärke des Compressors. Den braucht man, da man ja bei Benutzung eines Compressors die Lautstärke des Input Signals beeinflusst.

Wofür braucht man einen Compressor?

Ein Compressor hat viele Anwendungsbereiche. Um eine zu nennen: Bei der Aufnahme eines Schlagzeugs werden nicht nur die einzelnen Elemente des Schlangzeug mit Mikrophonen versehen, es gibt auch oft ein so genanntes Room Mic. Dieses nimmt das ganze als Allgemeinheit auf. Wofür? Ganz einfach. Wenn der Song in Versen oder Refrain ist, werden natürlich die Spuren der einzelnen Mikrophone verwendet (diese werden übrigens auch meistens mit Compressoren bearbeitet), da der stärkere Sound gebraucht wird, damit man die Drums unter all den anderen Instrumenten oder vielleicht auch Stimmen auch gut hören kann (mehr dazu in der Mix Sektion). Das wäre mit dem „verwischten“ oder „ungenauen“ Sound des Room Mics nicht möglich, da keine eindeutige Definition bzw. Klangdifferenzierung besteht. Geht der Song jetzt aber in einen ruhigeren Teil über (z. B. Bridge)über, kann man das Room Mic sehr gut verwenden, um dem ganzen Song einen „Raum zu geben“. Klingt seltsam, ist aber eine Sache der Wahrnehmung, die beachtet wird, um alles realistischer klingen zu lassen, da ja der gesamte Schall im Raum aufgenommen wurde. Allerdings gibt es ein Problem bei der ganzen Sache. Manche Elemente des Schlagzeugs sind natürlich wesentlich lauter als andere und überdecken so die schwächeren. Ein Kick wird meist wesentlich lauter sein als eine Hi-Hat. Und  was schafft Abhilfe? Richtig. Ein Compressor. Dieser wird so eingestellt, dass er nur das Signal der lauten Elemente bearbeitet. Einfach das Gain hochdrehen und man hat einen wesentlich ausgeglicheneren Mix zwischen Snare, Hi-Hat, Ride, Kick usw. Es gibt natürlich auch Verwendung von Compressoren in digitaler Musik, sogar sehr viele.

Das sollte erst einmal zu Compressoren gewesen sein. Man könnte noch auf Multiband- Compressoren, DeEsser oder Noise Gate eingehen, aber dafür findet sich ein anderes Mal Zeit und Raum.

Equalizer

EQ

Equalizer sind aus der Musik nicht mehr wegzudenken. Der Equalizer sorgt erst dafür, dass ein Sound so klingt, wie er klingen soll, indem er die richtigen Akzente setzt oder dem Mix Platz für gewisse Frequenzen gibt. Zunächst widmen wir uns dem Overlay, wobei man da schon mittem im Themenbereich Equalizer ist. Bei Equalizern gilt es aber zu unterscheiden. Es gibt nämlich zwei Arten:

Was ist der Unterschied zwischen einem Parametrischen und einem Graphischen Equalizer?

Ein Parametrischer EQ (Equalizer) wird im Normalfall immer weniger Bänder (wird später erklärt) haben als ein Graphischer. Zudem hat man bei einem Parametischen EQ noch die Möglichkeit, die Flankensteilheit zu verstellen und die Frequenzen der einzelnen Bänder zu wählen, während bei einem Graphischen EQ diese Werte festgesetzt sind. Wer gut aufgepasst hat, dem wird aufgefallen sein, dass der Begriff Flankensteilheit bereits gefallen ist, und zwar bei den Filtern, ebenso wie der Begriff Frequenzen. Es ist also wahrscheinlich, dass diese etwas miteinander zu tun haben, nicht? Und genau so ist es auch.

Was macht ein Equalizer?

Das er etwas mit Frequenzen zu tun hat ist klar, und dass er sie erhöht oder senkt, ist durch die Erwähnung des Wortes Flankensteilheit auch logisch. Heißt also, Equalizer ist nur ein anderes Wort für Filter? Keineswegs. Ein Filter hat immer eine bestimmte Funktion auf einen Frequenzbereich bezogen. Ein Equalizer kann über mehrere sog. Bänder mehrere Frequenzbereiche gleichzeitig bearbeiten. Natürlich könnte man theoretisch auch mehrere Filter benutzen, aber das wäre viel zu umständlich. Mal davon abgesehen, dass viele EQs eine bessere Verarbeitung des Tons haben als ein Filter, da EQs nun einmal genau dafür gemacht sind, während Filter eher für grobere Soundeinstellungen sind, also um den groben Klang zu bekommen. Equalizer sind wesentlich genauer und haben ein größeres „Funktionen-Feld“. Bevor jemand fragt: Ja, man kann auch einen EQ anstatt eines Filter verwenden, das mache ich persönlich auch sehr oft.

Welche Regler gibt es?

Jeder, der jetzt mit vielen verschiedenen Bezeichnungen gerechnet hat, muss leider enttäuscht werden. An sich gibt es keine anderen Regler als bei Filtern. Im Fall eines Parametischen EQs wären das: Band Level, Band Frequency und Band Width (Flankensteilheit). Das Level ist die Stärke der Erhöhung oder Senkung, also um wie viel dB der Wert verändert werden soll. Die Band Frequency gibt die Grundfrequenz an, die bearbeitet werden soll, und die Band Width die Flankensteilheit. Also eigentlich nur Altbekanntes. Bei einem Graphischen EQ fehlen halt Band Frequency und Width, aber dafür gibt es viele Band Level. Diese sind entweder logarithmisch oder linear angegeben.

Wofür brauche ich einen EQ?

Man will ja nicht den Rahmen sprengen, deshalb alles in möglicher Knappheit, aber lasst mich so viel sagen: Ohne EQ wäre es höchstwahrscheinlich nicht möglich, einen guten Mix hinzukriegen. Ein Equalizer wird nicht nur genutzt, um dem Ton den richtigen Feinschliff zu geben, sondern auch um für den Ton „unwichtige“ Frequenzen herauszuschneiden oder zu senken, um „Platz“ für die anderen Töne im gesamten Mix zu machen. Wenn kein Input mit einem EQ bearbeitet werden würde, würden sich die einzelnen Instrumente, Vocals usw. nur stören und einander überlagern. Das würde sich am Ende einfach nur ungenau anhören und man hätte nicht annährend so viel Freude an der Musik. Das mit der Freude ist natürlich subjektiv, aber ich gehe davon aus, dass mir sehr viele zustimmen werden. Um aber ein praktisches Beispiel zu geben: Nehmen wir an, man macht einen Track für das Genre House. In diesem Genre sind starke, laute Sub Kicks (Focus bei ca. 50 – 100 Hz) nicht ungewöhnlich. Wenn man jetzt zur selben Zeit noch einen tieferen Lead Synth spielen hat, möchte man doch meinen, dass alles in Ordung ist, nicht? Nicht wirklich. Nicht nur kann ein Lead Synth auch mal runter bis 100 Hz (oder tiefer) gehen, auch spielt die Kick nicht ausschließlich im 50 – 100 Hz-Bereich. Der „Punch“ der Kick liegt darüber. Je nachdem, wie hell die Kick ist, kann das durchaus auch einmal in die 5 kHz gehen (oder noch höher). Es kann sein, dass man diesen Sound (im Bereich 5 kHz) bei der Kick will. Das ist auch kein Problem, dann muss man aber Side Chainen. Falls man aber wirklich nur die Sub-Kick will ohne Highs, dann sollte man diese einfach mit einem EQ entfernen. Warum? Ganz einfach. Dadurch kann sich der Lead Synth viel besser ausbreiten, da er keine anderen (in diesem Beispiel) Töne hat, die ihm diese Frequenzen „streitig machen“. Fall man sie nicht entfernen würde, müssten die Lautsprecher beide Frequenzen gleichzeitig abspielen und dann wird eine von beiden nicht mehr so gut hörbar sein. Im Falle einer sehr dominanten Kick (im House Genre nicht unüblich), wäre das wahrscheinlich der Lead Synth. Je weniger Frequenzen ihr für ein Instrument braucht, umso besser für die anderen, die diese sehr wohl brauchen. Macht einfach mal selbst den Vergleich (falls ihr selbst Musik produziert) und entfernt ungebrauchte Frequenzen der einzelnen Spuren. Ihr werdet sicher merken, was ich meinte. Falls man die Frequenzen allerdings auf dem Instrument behalten will, sollte man sich überlegen, Side Chaining zu verwenden, und einen Compressor aushelfen lassen. Was genau das ist, wird in einem anderen Beitrag geklärt.

Auch können wunderbar Störgeräusche entfernt werden. Falls man mit einem Synthesizer (mit dessen Sound man zufrieden ist) eine gute Melodie gefunden hat, aber ein komisches „Pipsen“ zu hören ist, das man einfach im Synth nicht wegbekommt, ohne den Sound komplett zu „zerstören“ (das ist natürlich ein Extremfall), kann man mit einem Peak-EQ mit hoher Flankensteilheit einfach über die Frequenzen gehen und nach diesem Geräusch suchen. Dass man es gefunden hat, merkt man, da es natürlich lauter wird (man muss freilich das Band Level aufdrehen). Wenn man ihn gefunden hat, einfach diesen Frequenzbereich herunterregeln und man hat einen viel sauberen Sound. Entweder dreht man dann noch das Gain hoch, damit der Ton nicht allgemein leiser wird oder man sucht sich eine Frequenzbandbreite, in der der Sound sehr gut definiert wird, und boostet diese. Das bleibt einem selbst überlassen, allerdings bevorzuge ich die zweite Variante.

Um nochmal ganz kurz auf den Feinschliff zurückzukommen: im folgenden Beispiel ist ein unbearbeiteter Synth zu hören:

 

Hier ist die fertige Version, also „im“ Compressor (EQ):

 

Reverb:

Ich kann mich an keine Soul- oder Balladen-Vocals erinnern, auf denen ich keinen Reverb hatte. Der Effekt ist dafür einfach zu gut. Zumindest finde ich das.

Was ist ein Reverb?

Reverb steht für Hall oder Nachhall, der synthetisch erzeugt wird.

Was wird simuliert?

Die Reflektion von Schall, der auf Wände, Menschen, Objekte oder Luft trifft, während Luft eher weniger „reflektiert“. In folgendem Tonbeispiel ist kein Reverb zu hören:

 

So klingt das Ganze mit Reverb:

 

Wie stellt man ein Reverb-Plugin ein?

Das kommt natürlich immer auf das eigene Empfinden an, aber ich kann euch erklären, was die einzelnen Regler machen. Im Gegensatz zum Finden des richtigen Sounds ist das Einstellen eines Reverbs einfach.

Da nicht jedes Reverb-Plugin gleich aufgebaut ist, werde ich hier nur kurz die relevantesten der Plugins erklären. Diese wären: Size/Room Size, Diffusion, Damp und Dry-Wet.

Dry/Wet: Dieser Regler macht nicht anderes als einzustellen, wie viel von dem Original-Input auch wieder zum Output gesendet werden soll. Wenn der Regler also auf 100% wet steht, hört man nur noch das pure Reverb-Signal. Dieser Regler wird manchmal auch Mix genannt oder in zwei einzelne Regler (Dry und Wet) aufgeteilt.

Room Size: Dieser Regler macht genau, was man erwartet. Er stellt die simulierte Größe des Raums, in dem sich die Tonquelle befindet, ein. Die Größe des Raums hat natürlich einen großen Einfluss auf den Sound.

Diffusion: Das ist sicherlich etwas schwerer zu erklären. Am einfachsten ist es, sich das Ganze wieder räumlich vorzustellen. Die beiden Bilder zeigen die räumliche Vorstellung. In folgender Grafik erkennt man einen Reverb mit einer sehr niedrigen Diffusion:

Diff_0

Wie man sieht, „befindet“ man sich in einem Raum mit wenigen Wänden. Die Auswirkung auf den Sound besteht darin, dass der Ton sehr schnell verschallt (um es einfach zu halten).

In folgender Abbildung erkennt man Reverb mit hoher Diffusion. Wie man sieht, ist es ein abgerundeter Raum. Der Sound „verschallt“ wesentlich langsamer:

Diff_1

Damping, zu deutsch dämpfend, ist ein Parameter. Er stellt die Dämpfung der hohen Frequenzen in dem Hallsignal ein. Dämpfung bezieht sich auf die Rate, bei der die hohen Frequenzen verstummen. Darum nennt man diesen Parameter auch High Damping. Ein hoher Damping-Wert lässt den Sound nur allmählich dämpfen, wodurch er wärmer wirkt.

Delay:

Das ist auch einer meiner absoluten Favoriten unter den Effekten. Bei diesem ist es auch wieder sehr wichtig zu beachten, dass es Input und Output gibt, die getrennt von einander gesehen werden müssen. Aber der Reihe nach:

Was ist ein Delay?

Die deutsch Übersetzung wäre Verzögerung und diese passt (oh Wunder) auch zu dem Effekt, denn er macht nichts anderes, als eine Verzögerung des Inputs zu erzeugen. Bei einer richtigen Verzögerung wäre der Original-Input natürlich nicht zu hören, da der Input ja verzögert wäre, aber bei einem Delay Plugin kann man einstellen, ob der Input (das Original-Signal) noch hörbar ist oder nur der Output (das Signal, das durch den Delay verändert wurde). Durch die Tatsache, dass man den Original-Input noch hört, könnte man zu Delay auch Echo sagen, aber die Bezeichnung ist eigentlich egal.

Welche Parameter hat ein Delay?

Wie immer kann man das pauschal nicht sagen, da kein Plugin genau gleich aufgebaut ist. Hier wollen wir uns (vorerst) mit den absoluten Standard-Reglern begnügen, nämlich: Sync, Panorama, Gain und Feedback.

Sync: Für ein gutes Delay ein sehr wichtiger Regler, der eigentlich nie fehlt. Dieser gibt an, in welchem Intervall der Output wiedergegeben werden soll. Das heißt also: Wenn der Sync Regler auf 1/4 gestellt ist und das Input-Signal durch den Delay geht, kommt nach genau einem Viertel-Takt (ja nach BPM [Beats Per Minute] halt schneller oder langsamer) der Output des Delays wieder – und das so lange, bis der Output nicht mehr hörbar ist. Der Sync Regler muss natürlich nicht auf genaue Taktwerte eingestellt werden. Man kann ihn auch über Millisekunden einstellen. Bei manchen Delays geht das auch, aber die meisten haben eine „Sync-with-BPM“-Funktion. Falls nicht, kann man auch einen BPM-in-MS-Rechner verwenden. Wichtig ist hierbei, dass das Output-Signal NICHT nochmals durch den Delay geht. Man kann sich Effekt-Racks gut als Kette vorstellen. Der Output des ersten Kettenglieds geht zu dem Input des nächsten usw. Das bedeutet, dass ein Plugin seinen Output nicht beachtet, den Output der Plugins allerdings schon.

Gain: Meißt wirkt der Gain-Regler für das Output-Signal, aber es kann auch vorkommen, dass es einen für das Input-Signal gibt. Das ist aber meistens beschriftet. Der Gain hebt das Output Signal auf den eingestelten Wert an. Wichtig: Dieser Wert ist NICHT von dem Feedback-Regler beeinflusst. Dieser wirkt nämlich erst auf das Signal nach dem Gain-Regler (zumindest im Normalfall).

Feedback: Wie bereits gesagt, wirkt der Feedback-Regler erst nach dem Gain-Parameter auf das Signal. Der Feedback-Parameter gibt ein Intervall an, in dem das Signal verstummen soll. Ein vereinfachtes Beispiel: Eine Mono-Signal,Snare spielt mit -7 dB FS (Dezibel Full Scale), der Gain habt das Signal auf -1 dB FS. Wenn man jetzt ein Feedback von -10 dB FS eingestellt hat, sind die dB FS Werte folgende: -7dB FS, -1 dB FS, -11 dB FS, -21 dB FS, -31 dB FS usw.

Panorama oder kurz Pan gibt das Verhältnis des Output-Signals auf dem linken und rechten Channel an. Wenn der Regler also ganz rechts steht, kommt auch nur auf dem rechten Ausgang ein Ton heraus  – und umgekehrt.

Ein 1/4 Delay bei 140 BPM KÖNNTE sich dann so anhören:

 

Ich würde zwar noch wirklich gerne auf Vocoder, Chorus, Phaser usw. eingehen, aber der Beitrag ist schon länger als der erste und ich glaube, dass man an dieser Stelle eine „Pause“ machen kann. Im dritten Teil der Reihe werde ich dann wohl noch auch auf besagte Effekt zu sprechen kommen (oder vielleicht auch auf ganz bestimmte, bekannte Plugins). Ich gedenke auch, bald zum Mixing, Mastering und Song-Arrangement gelangen zu können. Jetzt hoffe ich, dass ihr den Beitrag informativ fandet und wünsche euch wie immer viel Spaß und Erfolg beim Musizieren.

Moderne Musikproduktion Teil 1

Moderne Musikproduktion Teil 1_Cover

Das ist wahrscheinlich das Bild schlechthin, das Leute von moderner Musikproduktion haben. Viele Farben, Felder und vor allem sehr viele Regler und Knöpfe mit irgendeiner Aufschrift. Das ist aber nur der Schein. Dahinter steckt ein einheitliches und logisches System, das man halt erst einmal erkennen muss. Ich werde versuchen, euch die moderne Media-Production näher zu bringen. Um genau zu sein: die Musik-Produktion. Auf visuelle Medien werde ich aber bestimmt auch demnächst einmal zusprechen kommen. Aber nun zurück zum Thema.

Wie geht moderne Musikproduktion?

Diese Frage werden sich wahrscheinlich viele Hobby-Musiker stellen. Viele kenne vielleicht auch gerade die Situation: man hat eine tolle Idee für einen Song, aber keine Ahnung, wie man ihn aufnimmt oder ähnliches. Mit einem USB-Mikrofon und einem Freeware-Aufnahmeprogramm ist es nämlich leider nicht getan. Denn nach der Aufnahme wird man meistens merken, dass es sich nicht gut vom Sound her anhört und es gar kein Vergleich zu professioneller Musik ist. Viele denken dann wahrscheinlich, dass es einfach an der Hardware liegt und das Mikrofon einfach nicht so gut ist, wie man es bräuchte, und somit auch keine Chance besteht, eine gute Aufnahme hinzubekommen. Das stimmt aber eher selten. Man kann auch mit „schlechter“ Hardware wirklich gute Sounds hinbekommen. Denn die „Magie“ passiert in der Software. Was genau gemacht wird, will ich euch erklären und euch die „Tricks“ der Profis zeigen.

Was brauche ich?

Die wahrscheinlich wichtigste Frage – und die Antwort wird wahrscheinlich einige überraschen – ist immer die danach, was man überhaupt machen will. Wenn man einen orchestralen Track aufnehmen will, werden andere Sachen benötigt, als wenn man sich auf EDM konzentriert. Aber grob gesagt, wird meist das gleiche benötig. Zunächst zur Software:

Es gibt in der heutigen Zeit natürlich eine Menge Software, die für das Musizieren benutzt werden kann – und dabei natürlich auch ganz unterschiedliche Preisklassen. Von kostenlos bin ca. 1000,- € kann so ziemlich alles vertreten sein. Aber so manche DAW (Digital Audio Workstation) eignet sich besser für das eine als für das andere. Ich werde hier kurz über die bekanntesten sprechen und dann noch auf Freeware eingehen.

Fangen wir mit Pro Tools an. Wenn ein Audio Engineer von einer DAW spricht, meint er in 90% der Fälle Pro Tools.  Es wird so ziemlich in allen großen Studios verwendet aufgrund seiner großartigen Audioverarbeitung. Aber es empfiehlt sich definitiv nicht für Anfänger. Nicht nur ist es in der Aktuellen Version von 12.3 mit 665,- € nicht nur nicht günstig, sondern auch relativ schwer zu bedienen, was vor allem für Anfänger eine große Hürde sein könnte.

Dann wäre da natürlich noch Cubase. Ja, die von viele „verehrte“ Software für EDM aber auch Arbeit mit Samples. Was gibt es zu Cubase zu sagen? Nun ja, zunächst kann man getrost sagen, dass Cubase ein gutes All-Round-Paket an Native-Plugins mitbringt. Einen netten Synth (den HALion Sonic SE) und eine gute Anzahl an Effekten, zumindest wenn man die richtige Version hat, und da ist auch schon das Manko, das aber auch etwas gutes hat. Es gib nicht nur eine Cubase-Version, sondern gleich drei. Wenn man LE AI mitzählt, dann sind es sogar vier, aber die lassen wir außen vor. Diese Versionen haben zwar alle ihren eigenen Preis, aber auch ihre Einschränkungen (außer die „Vollversion“ Pro).  Die Preise wären 99,99 € für die Elemente-Version, bei der alleine schon Side-Chainen nicht möglich ist. 299,- € für die Artist-Version, bei der eine relativ niedrige  Begrenzung für Spuren „eingebaut“ ist und 549,- € für die Pro Version ohne Einschränkungen. Alle sind nicht wirklich günstig und die Elements-Version iihr Geld nicht wirklich wert.

Die einzige DAW, die man auf einem Mac Book oder iMac verwenden sollte, darf man natürlich auch nicht vergessen – nämlich: Logic Pro X. Dieses Programm lässt keine Wünsche offen. Es ist perfekt auf die Benutzung für Apple-Produkte abgestimmt (was auch daran liegt, dass es sie nicht für Windows gibt) und hat eine feste Version ohne Einschränkung. Es kommt mit einer guten Auswahl an Standardsounds und Drum-Samples, aber auch mit tollen Synthesizern daher. Von den Effekten sind auch alle wichtigen und sogar noch mehr dabei. Leider ist der Preis wieder ein eigenes Thema. Mit 199,- € ist das Programm zwar erschwinglich, aber immer noch nicht günstig. Ihr werdet aber noch sehen, dass man gar nicht so viel Geld ausgeben muss.

Das waren die bekanntesten Kommerziellen DAWs. Natürlich gibt es noch Adobe Live, Fl Studio oder Sonar, aber man muss auch irgendwo Grenzen ziehen, damit es nicht unübersichtlich wird. Diese Programme sind alle höchst professionell und außerdem entsprechend teuer, aber für Anfänger gar nicht nötig. Hier eine kurze Auflistung der „besten“ oder eher bekanntesten kostenlosen DAWs:

Audacity: Die Audio Bearbeitung Software 01. Jeder, der sich mit der Materie ein wenig beschäftigt hat, kennt Audacity wahrscheinlich. Es ist nicht schwer zu benutzen und hat ausreichend Bearbeitungsmöglichkeiten für den Anfang. Das einzige wirkliche Manko ist, dass man keine Midi-Events oder Automations in Audacity einstellen kann, aber das ist auch gar nicht nötig, da dieses Programm allein für Audiobearbeitung gedacht ist.

Und das war es leider schon. Naja, nicht wirklich. Man könnte natürlich noch auf Ardour, MusE oder Qtractor usw. eingehen, aber diese Programme sind bei weitem nicht so bekannt wie Audacity und dieses Programm reicht für Anfänger in der Musik – zumindest solange, wie man nur Wav, Mp3 etc. Samples benutzen möchte. Was es sonst noch gibt, wird später noch genauer erläutert.

Audacity_Cover

Die wichtigsten Funktionen hat grundsätzlich so ziemlich jede DAW (für Arbeit mit WAV Dateien). Lass euch also nicht von irgendeinem „Profi“ sagen, dass ihr unbedingt dieses oder jenes VST braucht. Es kann schon sein, dass es gut ist, aber unbedingt benötigt wird es sehr wahrscheinlich nicht. Was zählt, ist der kundige Umgang mit dem, was man hat.

Pro Tools_Cover

Nun zur Hardware. Und dabei müssen wir leider direkt einen wichtigen Begriff klären, der wesentlich schwieriger klingt, als er zu verstehen ist, nämlich

Musical Instrument Digital Interface

oder kurz: MIDI – Was ist MIDI?

Kurz gesagt, ist es der Standard für den Austausch musikalischer Steuerinformationen zwischen elektronischen Instrumenten (z. B. Keyboards oder Synthesizer).

Einfacher: MIDI ist ein Signal, das entweder einer Note aus dem Notensystem  entspricht oder einer „Werteskala“ für + und – Einheiten. (z.B. C5 oder lauter, leiser)

Dieser Begriff wird vor allem für EDM-Musik (electronic dance music) wichtiger und wird deshalb später noch das ein oder andere Mal auftauchen. Aber auch in der Hardware-Sektion wird er vorkommen.

Zunächst widmen wir uns dem Audio Interface oder dem Mischpult, genauer: den Unterschieden. Eigentlich liegen diese hauptsächlich in der Anzahl der Eingänge. Ein Mischpult hat meistens mehr als ein Audio-Interface, um mehrere Inputs gleichzeitig abzumischen. Ein Audio-Interface hat nur wenige Eingänge (meistens). Manchem wird das jetzt vielleicht ein Begriff sein, anderen nicht. Ein Audio-Interface ist kurz gesagt eine Schnittstelle für Sound. Der Ton (z. B. von einem Mikrofon) wird in das Audio-Interface geleitet (über XLR, Cinch oder Klinke) und von dort über meist einen gewählten Output gebündelt weitergeleitet. Die meisten PCs haben mittlerweile ein eingebautes Audio-Interface, die Soundkarte. Aber da die oft von der Qualität nicht so überzeugend ist, werden meistens externe Audio-Interfaces verwendet. Es gibt drei Arten von externen Audio-Interfaces, die sich in ihrer Schnittstelle – oder anders gesagt Verbindungs-Möglichkeiten – unterscheiden. Darunter zählen die vor allem bei Neulingen weit verbreiteten USB-Audio-Interfaces (Unterschieden: USB A und USB B, die bekanntesten Audio Interface mit Firewire Schnittstelle -> Unterschiede: Firewire 400 4-Polig, Firewire 400 6-Polig und Firewire 800 9-Polig) und die speziell für Apple-Produkte hergestellten Thunderbolt-Audio-Interfaces. Jedes davon hat seine Vor- und Nachteile. Thunderbolt werde ich hier auslassen, da es sich dabei – wie gesagt – um spezielle Apple-Schnittstellen handelt.

USB: Zuerst die Vorteile. So ziemlich jeder PC oder auch Laptop hat einen USB-Port, also kann man es auch ohne Zusatzhardware benutzen. Ein Nachteil ist, dass es im Allgemeinen langsamer überträgt als ein Firewire Kabel. Das ist für niedrige Latenzen (dieser Begriff wird später erklärt) störend und dadurch kann es zu Störgeräuschen kommen. Desweiteren können bei FireWire die Geräte auch eigenständig untereinander kommunizieren,  während USB in einer Art Baumstruktur anlegt ist und einen steuernden „Kopf“ (den so genannten Host) benötigt, der in aller Regel vom Computer bereitgestellt wird.

Firewire: Wie bereits erwähnt, können FireWire-Geräte auch ohne Host miteinander verbunden werden und die Übertragungsrate ist höher, was eine niedrigere Latenz zulässt. Das Problem bei FireWire ist, dass nicht jeder PC einen FireWire Port hat und Laptops eigentlich fast nie. Das heißt, man müsste eine extra Steckkarte kaufen, die man über PCI mit dem Computer verbindet, um ein FireWire-Gerät anzuschließen zu können.

Musik, Mischpult, Regler, Sound, Mischer, Musikanlage

Modernes Mischpult

Das Mikrofon: Bei Instrumentabnahmen oder Vocals handelt es sich um das wichtige Stück des Equipments. Ganz wichtig ist es zu verstehen, dass teuer/teurer nicht gleich besser bedeutet. Ein gutes Mikrofon hat natürlich seinen Preis, aber es gibt verschiedene Arten von Mikrofonen, die für Unterschiedliches benutzt werden können. Natürlich kann man mit jedem Mikrofon Aufnahmen machen, aber es sollte am Ende schließlich gut klingen. Ich werde kurz auf die verschiedene Arten von Mikrofonen gehen und erklären, für welche Zwecke sie jeweils (meistens) verwendet werden. Man kann Mikrofone in verschieden Kategorien einteilen, ich werde hier die allgemein gültigen Varianten beschreiben. Aber zuerst muss man ein paar wichtige Begriffe klären. Richtcharakteristik, Frequenzverlauf, Übertragungsbereich und Grenzschalldruckpegel. Das sind alles Details, die beim Kauf eines Mikrofons in Betracht bezogen werden sollten.

Die Richtcharakteristik eines Mikrofons gibt an, in welche Richtung der Schall stark oder weniger stark aufgenommen wird. Wichtig dabei ist, dass diese Angabe bei verschiedenen Frequenzwerten variieren kann. Es gibt verschiedene Arten.

  • Richtcharakteristik Niere: Das bedeutet, dass das Mikrofon „nur“ den Schall, der von vorne auf die Membran auftrifft, aufgenommen wird. Der seitlich auftreffende ist deutlich weniger hörbar, der der Rückseite am wenigsten. Bei Super- oder Hyperniere ist dieser Effekt stärker ausgeprägt.
  • Richtcharakteristik Kugel: Mikrofone mit dieser Richtcharakteristik reagieren auf alle Schallquellen aus allen Richtungen (natürlich abgesehen von der Schnittstellenseite) gleich empfindlich. Eine „Variation“ davon ist die Halbkugelrichtcharakteristik, die meist Ganzflächenmikrofone besitzen.
  • Richtcharakteristik Acht: Hier wird der Schall von Vorder- und Rückseite am besten aufgenommen, von den Seiten dementsprechen schlecht.

Sogenannte Multi-Pattern-Mikrofone besitzen eine verstellbare Richtcharakteristik.

Frequenzverlauf: Das Diagramm oder die Werte für diesen Parameter geben darüber Auskunft, wie empfindlich ein Mikrofon auf eine gewisse Frequenz reagiert. Dann nicht jede Frequenz wird gleich stark aufgenommen. Das wäre zumindest der Idealfall, der bis jetzt mit keinem Mikrofon wirklich erreicht werden konnte. Diese Werte sind vor allem für Toningenieure wichtig, da jene ein unterschiedliche Mikrofone wegen ihrer speziellen Werten verwenden.

Übertragungsbereich: Diese Information über ein Mikrofon ist eine der wichtigsten. Ich habe schon oft genug gehört, dass sich jemand ein spezielles Mikrofon gekauft hat, und sich am Ende darüber beschwert, dass es die Highs (Höhen) nicht richtig aufnimmt oder allgemein eher „unklar“ klingt. Das hätte ganz einfach verhindert werden können, hätten diese Personen einfach auf den Übertragungsbereich geachtet. Diese Werte geben nämlich an, welchen Frequenzbereich das Mikrofon aufnimmt. Zumindest ist das die Laien-Variante, denn ein Mikrofon mit einem Frequenzbereich von 200 Hz bis 20 kHz nimmt immer auch noch 100 Hz und tiefer war. Der Übertragungsbereich wird nämlich gemessen, indem getestet wird, in welchen Frequenzen der Pegel 3 dB unter der Aufnahme bei 1 kHz liegt. Wer keine Lust hat, darauf zu achten (auch wenn das sehr zu empfehlen ist), sollte sich ein Großmenbran-Mikrofon holen. Dieses hat meisten einen Wert von 20 Hz bis 20 kHz.

Grenzschalldruckpegel: Dieser Wert gibt an, ab welchem Pegel ein Mikrofon beginnt, verzehrt zu klingen – genauer gesagt, wann es bei 1 kHz einen Klirrfaktor von 0,5% oder 1% übersteigt. Je höher, umso besser. Dynamische Mikrofone sind in den meisten Fällen darin besser, weshalb sie oft auch für die Aufnahme eines Schlagzeugs benutzt werden.

Nun zu den Arten von Mikrofonen:

Dynamische Mikrofone: Meist wird von Spulen oder Tauchspulenmikrofonen gesprochen, wenn von dynmaischen Mikrofonen die Rede ist, aber auch die Bändchenmikrofone gehören zu dieser Art, da sie auch nach dem Induktionsprinzip funktionieren. Das bedeutet, dass (im Falle eines Tauchspulenmikrofonen) Schall auf eine an einer Spule befestigten Membran auftrifft und diese sich dann in einem Magnetfeld bewegt, und dadurch eine Spannung erzeugt. Diese Methode des Aufnehmens hat Vor- und Nachteile. Auf der einen Seite hat die Membran ein relativ großes Gewicht. Dadurch ist das Impulsverhalten verhältnismäßig schlecht (im Vergleich mir Bändchen- oder Kondensatormikrofonen. Das führt dazu, dass die Töne so ab 10 kHz (ca. A#9) nicht mehr so gut aufgenommen werden, was in Tonstudios eher unerwünscht ist (man kann damit aber wunderbar Bässe abnehmen). Allerdings erlaubt das eine sehr robuste Bauweise, die für Live-Aufführungen definitiv erwünscht ist. Bei Mikrofonen dieser Art ist meist eine Nierencharakteristik vorhanden. Das muss aber nicht zwangsweise so sein.

Bändchen-Mikrofone: Eigentlich gehören diese Mikrofone aufgrund des verwendeten Induktionsprinzips auch zu den Dynamischen Mirkofonen, aber sie werden meistens als in einer eigenen Kategorie zusammengefasst. Das liegt darans dass sie einen für viele „besseren“ oder eher wärmeren/sanfteren Sound hinbekommen als ein Spulenmikrofon. Bändchen-Mikrofone benutzen keine Schwingspule, sondern ein gefaltetes Aluminiumplättchen. Dadurch ist das Mikrofon sehr leicht, was zu einem besseren Impulsverhalten führt. Das Problem ist allerdings, dass eine nur sehr schwache Spannung entsteht und man deshalb einen guten/rauscharmen PreAmp (Vorverstärker) benötigt, um einen guten Sound zu bekommen, der am Ende auch laut genug ist.

Kondensator-Mikrofone: Der Klassiker unter den Mikrofonen, bekannt für seinen natürlichen und naturgetreuen Sound – und das zurecht.  Jeder, der schon einmal das Vergnügen hatte, mit einem Spulen- und einem Kondensatormikrofon (egal ob Röhre oder nicht) einen Tonvergleich zu machen, wird festgestellt haben, dass, wenn es sich um zwei gleichwertige Mikrofone handelt, das Kondensatormikrofon wesentlich realistischer klingt. Das liegt an der Verwendung eines Plattenkondensators (daher kommt auch der Name). Dieser muss statisch aufgeladen werden. Dafür wird die sogenannte Phantomspeisung über XLR Kabel in das Mikrofon geladen.

USB Mikrofone: Diese Art von Mikrofonen ist in den letzten Jahren immer beliebter geworden. Das hat zwei Gründe. Erstens: es besitzt einen eingebauten Pre-Amp. Das bedeutet, dass man keinen externen Verstärker mehr benötigt, was nicht nur gut für den Geldbeutel ist, sondern auch für die Benutzerfreundlichkeit. Zweitens: es besitzt einen eingebauten A/D Wandler. Das hat zu Folge, dass das Signal direkt in ein digitales Signal umgewandelt werden kann und somit über das USB Kabel direkt in den Computer weiter geleitet werden kann. Die Qualität kommt jetzt zwar nicht an die eines Kondensatormikrofons heran, durch seine Vorteile hat das USB-Mic aber natürlich seine Berechtigung.

Spulen_MikrofonSpulenmikrofon

Bändchen_MikrofonBändchenmikrofon

Audio, Kondensatormikrofon, Musik, Tonaufnahme

Kondensatormikrofon

Monitore: Sie dürfen nicht mit Bildschirmen verwechselt werden. Monitor ist im Prinzip ein anderes Wort für Lautsprecher, also eine Wiedergabequelle mit eingebautem Amp. Das ist aber nur bei aktiven Monitoren so. Beim Kauf von Monitoren ist einiges zu beachten und es ist nicht leicht, den richtigen für seine Bedürfnisse zu finden. Nun sollen die zwei Arten von Monitoren erklärt werden:

Aktive Monitore: Das sind – wie bereits erwähnt – das, was am ehesten an den Begriff Lautsprecher heran kommt, eine Wiedergabequelle mit eingebautem Verstärker. Das hat den Vorteil, dass man keinen externen braucht, aber den Nachteil, dass dieser eingebaute Verstärker mitbezahlt werden muss.

Passive Monitore: Wenn man bereits einen guten PreAmp (Vorverstärker) hat oder sich sowieso noch einen kaufen möchte, sollte das die erste Wahl sein. Diese Art von Monitoren besitzt nämlich keinen eingebauten Verstärker. Das heißt, dass, wenn man für den selben Preis den man für Aktive Monitore ausgeben würde, besseres Equipment bekommt, man den internen Verstärker nicht mitbezahlen muss. Das stimmt zumindest, wenn das Produkt an sich preiswert ist.

Nun zu den Fragen, die mir am häufigsten gestellt worden sind, wenn sich jemand Monitore zulegen wollte:

  1. Kannst du mir irgendwelche Monitore empfehlen? Meine Antwort auf diese Frage wird immer „Nein“ sein. Das liegt einfach daran, dass jeder ein anderes, individuelles Empfinden für Ton hat. Für mich könnte so mancher Monitor einen „perfekten“ Sound haben, andere wiederum finden ihn womöglich „schrecklich“. Die einzig sinnvolle „Empfehlung“ sollte sich daher auf passable Marken beschränken.
  2. Wie sollten gute Monitore klingen? Wie bereits erwähnt, kann man das nicht genau sagen. Es gibt aber allgemein anerkannte Meinungen. Monitore sollten möglichst neutral klingen. Das heißt, es sollte eine gute Balance zwischen Bässen, Mitten und Höhen bestehen.
  3. Wo kaufe ich Monitore? Ganz klar im Musik-Shop deines Vertrauens. Das wichtigste beim Kauf von Monitoren ist das Test-Hören. Gehe also in den Laden und nimm dir viel Zeit. Bei guten Monitoren wirst du nur geringe Unterschiede wahrnehmen, aber auch diese sollten beachtet werden. Frage nach, ob du einen eigenen Input (Soundquelle) benutzen darfst und höre dir Songs an, die du gut kennst, und vergleiche sie. Am besten nimmst du Songs von einem Genre, das du selbst „produzieren“ willst und dann höre dir alle Songs so lange an, bis du die Monitore gefunden hast, die deiner Meinung den besten Sound haben.
  4. Ich habe mir kürzlich Monitore zugelegt. Ich habe sie im Laden gekauft und sie haben eigentlich super geklungen. Nun habe ich sie im Homestudio aufgebaut und es klingt komplett anders. Was mache ich falsch? Du hast gar nichts falsch gemacht. Das Problem liegt wahrscheinlich am Raum. Dieser hat nämlich einen sehr großen Einfluss auf den Sound. Das fängt bei der Größe an, geht über das Material der Wände und endet bei der Form. Das Beste, das du dagegen machen kannst, ist es, dich im Laden zu erkundigen, ob der Verkäufer entsprechende Tipps geben kann. In professionellen Läden sollten sich die Verkäufer damit auskennen. Manche Läden haben sogar unterschiedliche Testräume und diese sollte man auf jeden Fall nutzen. Falls es diese Möglichkeit nicht gibt, kann man auch fragen, ob man Monitore „mieten“ kann, um sie zu testen. Das geht nicht immer, aber oft kann man ein gebrauchtes Modell mitnehmen und austesten.
  5. Wie groß sollten gute Monitore sein? Es kommt drauf an, wie groß der Raum ist, in dem du sie aufstellen möchtest. In einem kleinen wirst du keine großen Boxen brauchen. Allerdings spielt auch das Genre, das du abmischen willst, eine Rolle. Für Hip-Hop musst du z. B. schon in Betracht ziehen, dir einen Subwoofer zu holen, da in diesem Genre der Bass eine herausragende Rolle spielt.
  6. Wie viel sollten gute Monitore kosten? Dafür gibt es natürlich keine genaue Antwort, aber da sie ein Schlüsselelement für deine Produktion sind, solltest du einen großen Teil deines Budgets in sie stecken. Man kann mittlerweile wirklich gute Monitore für je 200€ bekommen.
  7. Kann ich nicht einfach Kopfhörer benutzen? Natürlich geht das, bringt aber auch den ein oder anderen Nachteil. Ersten besteht bei Mikrofonen die Gefahr, dass sich der Bass zwar auf den Kopfhörern gut anhört, auf einer Anlage hingegen übersteuert, da Kopfhörer häufig den Bass nicht so stark wiedergeben. Zweitens wird man beim Monitoring mit Kopfhörern schneller müde. Zumindest geht es mir so, und ich weiß leider nicht, warum das so ist. Der Effekt der Müdigkeit ist zwar kein sonderlich problematischer, er sollte aber bedacht werden. Gute Kopfhörer kosten übrigens auch relativ viel Geld (Startpreis zwischen 300€ und 400€).

Monitor_Cover

Monitor

Nun zum Mater-Keyboard oder genauer zum Midi-Master-Keyboard. Jetzt wird es vor allem für Freunde der EDM interessant. Ein Midi-Master-Keyboard sieht vielleicht aus wie ein ganz normales Keyboard, funktioniert aber etwas anders. Denn im Gegensatz zu einem „normalem“ Keyboard hat ein Midi-Master-Keyboard keine eigenen Sounds. Es ist nur dafür, da Plugins zu bedienen. Das funktioniert so: Das Master-Keyboard wird über ein Midi-Kabel mit dem Audio-Interface verbunden, was über FireWire, USB oder Thundebolt mit dem PC oder direkt über USB mit dem PC verbunden wird. Wenn man jetzt eine Taste auf dem Master-Keyboard drückt oder einen Fader bewegt, wird das entsprechende Midi-CC-Signal an den Computer gesendet und dieser leitet es an die DAW weiter, diese wiederum führt den zugewiesenen Befehl aus. Wenn man also ein Plugin offen hat und ein C5 auf dem Master-Keyboard spielt, spielt auch das Plugin ein C5 (soweit möglich). Wichtig bei Kauf eines Master-Keyboards ist nur, dass man sich nicht von vielen Knöpfen oder Reglern täuschen lässt. Diese werden eigentlich nicht benötigt und sparen höchstens nur ein bisschen Zeit. Wichtig ist lediglich, dass du eine Tastenzahl hast, mit der du zufrieden bis. Es gibt 25, 49, 61, 76 und 88. Wenn du bereits ein Keyboard besitzt, das Midi-Ausgänge besitzt, musst du dir nicht extra ein Masterkeyboard holen – vorausgesetzt, du hast ein Audio-Interface mit Midi-Input.

Die restliche Hardware, die man bei Profis sieht (z. B. Chaos Pads oder Loop Stations) sind eher Spielereien und werden vor allem am Anfang gar nicht benötigt.

Software:
Hierzu gibt es eigentlich gar nicht so viel zu sagen. Man wird am Anfang eigentlich nichts anderes als die von der DAW mitgelieferten Plugins brauchen. Natürlich gibt es bessere und schlechtere Software. Beispielsweise schwören viele Musiker auf den EQ von iZotope Ozone 5,6 oder 7, da dieser eine wirklich gute und genaue Verarbeitung hat, aber das sind dann wirklich die genausten Details, die dabei beachtet werden müssen, um einen echten Unterschied zwischen dem und dem parametrischen EQ z. B. von FL Studio erkennen zu können. Entscheidend ist der kundige Umgang mit der Software. Daher gehe ich nun genauer auf die Standards des Mixings ein. Eigentlich würde ich nun zu Pro Tools greifen, aber aus visuellen Gründen sind die Screenshots aus FL Studio. Grundsätzlich „taugt“ aber jede DAW.

Grundaufbau einer DAW: In so ziemlich allen DAWs gib es ein Edit-Fenster und eine Mixer-Konsole. Diese sehen von DAW zu DAW verschieden aus, können aber im Prinzip alle dasselbe. Im Edit-Fenster werden Midi-Events, Audiodatein oder Automation-Clips arrangiert. Dort wird also der Song zusammen gebaut. In der Mixer-Konsole oder im Mix-Fenster werden Effekte hinzugefügt, das Panning angepasst, die Lautstärke eingestellt und die Stereoseparation verstellt. Hier werden also die einzelnen „Bauteile“ des Songs „eingestellt“, damit diese möglichst so zu klingen, wie man es sich wünscht.

Aufbau der Hauptfenster: Dieser ist natürlich auch nicht immer gleich, aber bei den meisten DAWs sehr ähnlich. Nur Reason sticht wirklich aus der Masse raus. Im Edit-Fenster sind meistens oben die wichtigsten Tools angebracht, z. B.  Zoom, Slice, Auswahl, löschen, Stummschalten und Hinzufügen. Diese Tools werden verwendet, um die einzelnen Events (Midi, Audio oder Automation) richtig zu plazieren oder eben anzupassen. Dann ist natürlich noch der Arrangement-Bereich zu erwähnen. In diesem werden alle Events veranschaulicht und dort wird auch mit den eben genannten Tools interagiert. Wenn sie nicht als externes Fenster angebracht sind, werden in diesem Fenster meistens auch die Steuerelemente der DAW angebracht – als Start, Stop, Aufnahme, Metronom und BPM. Die Mixer-Konsole sieht komplett anders aus. Hier werden einem Pegelanzeigen, Knobs und Fader zur Verfügung gestellt, um die einzelnen Channel anzupassen. Des Weiteren sind in diesem Fenster auch die Inserts für Effekte. Die Pegelanzeige gibt Auskunft über die Lautstärke des Channels oder, im Falle des Master-Channels, über die Lautstärke aller gerade spielenden Events. Die Knobs sind meist für Panning und Stereo-Separation da und die Fade für die Kontrolle über die Lautstärke.

DAW_EditDAW edit

DAW_MixDAW Mix

DAW_MainControllDAW Main Control

Tool BarTool Bar

Der Master-Channel oder kurz nur Master ist der wichtigste Channel von allen. Alles, was nicht über den Master geht, hört man nicht. Deshalb ist in jeder DAW standardmäßig bei Erstellen eines neuen Channels das Routing auf den Master gelegt (gegebenenfalls auch auf Send-Channel). Das bedeutet nichts anderes, als dass der Input von einem Channel auf den Master geleitet wird und dieser den Sound dann an die Lautsprecher übermittelt. Wie man sieht, sind die Pegel des Masters und des Piano-Channels absolut gleich, da zu diesem Zeitpunkt nur das Piano spielte. Da beim Zweiten Bild auch ein Paar Strings mitgespielt haben und der Master beide verarbeitet hat, sind die Pegel nicht mehr gleich.

DAW_Mix_Bsp2DAW_Mix_Bsp1

Ein Midi Event: Das ist nichts anderes als eine Reihe von Signalen, die an ein Plugin weitergeleitet werden, in diesem Fall an das Sampler-VST reFX Nexus 2. Nun werden die zugewiesenen „Befehle“ ausgeführt. Da es sich hier um Notensignale handelt, spielt das Plugin die Noten und dadurch die Melodie. Ein Midi Event muss aber nicht unbedingt nur Notensignale beinhalten. Auch Automations gehören zu Midi-Events, obwohl sie meistens einzeln gelistet werden. Das Bild zeigt einen Automation-Clip für die Lautstärke eines String-Synths. Die Linie repräsentiert den Wert des Lautstärke-Faders. Das heißt also, wenn die Linie nach unten geht bewegt, sich auch der Fade nach unten bewegt, und somit der String-Synth leiser wird. Ein Automation-Clip muss aber nicht nur auf den Lautstärke-Fade angewendet werden. Auch Panoramabilder können damit verändert werden, der Cutoff eines Filters oder auch der Parameter Q (die Flankensteilheit) eines EQs kann damit geregelt werden. Fall benötigt, kann auch der On- oder Offwert eines Effekts, also der Bypass bzw. Mute oder auch Solo, entsprechend angepasst werden. Vor allem in der EDM (electronic dance music) werden Automation oft verwendet, um z. B. in Dubstep zum Drop hin zu führen. Aber auch in anderen Genres kommt Automation zum Einsatz, da an manchen Stellen ein Instrument lauter sein soll als ein anderes, um ein entsprechendes „Feeling“ zu erhalten bzw. um einen besseren Klangeffekt zu erzeugen.

Audio Events: Das ist nicht anderes, als beispielsweise eine WAV, Mp3 oder FLAC in die DAW zu ziehen, um sie dort abspielen zu lassen. Das kann ein Drum-Sample sein oder, im Fall von Mashups, auch ein ganzer Song. Es kann theoretisch genau so bearbeitet werden wie ein Midi Event. Das heißt, es kann über einen Mixer-Channel geleitet werden. Auch Effekte mit Automations können hinzugefügt werden. Zudem ist Pitching und Time-Streching ist möglich.

DAW_Event_Midi

DAW_Event_Audio

DAW_Event_Auto

Wie geht eine Aufnahme in einer DAW?

Das ist gar nicht so schwer! In Wirklichkeit ist es sogar richtig einfach, wenn man es einmal verstanden hat. Man muss nämlich nur auf Record drücken. Dann ist aber die Frage, was man aufnehmen will. FL Studio fragt jedes Mal nach, wenn man auf Record drückt, was genau man aufnehmen möchte: Audio, Midi-Noten und Automations oder alles bzw. beides. Was „Audio“ bedeutet, ist logisch, also Ton in Form von Sprache oder Sonstigem über ein Mikrofon (z. B. Instrumente). Midi-Noten und Automations habe ich bereits erklärt, hier aber nochmals eine kurze Erklärung, wie man sie aufnimmt. Um ein allgemeines Beispiel zu nennen, das in jeder DAW funktioniert, habe ich den Modus „Alles“ gewählt. Wenn ich nun das Stück oder das leere Projekt spielen lasse (auf Play drücken) kann ich auf einem Midi-Master-Keyboard Noten spielen. Das sendet Signale an die DAW, welche als Noten erkannt werden, und für die gespielten Noten wird ein Midi-Event erstellt. Sollte ich jetzt, während eine Aufnahme läuft, einen Fader oder einen Knob bewegen bzw. drehen, wird auch hierfür ein Midi-Event erstellt. Das bedeutet, dass jedes Mal, wenn die Stelle erreichtist , an der der Fader bzw. Knob bewegt wurde, es analog und automatisch funktioniert. Das sind die Automations.

Dieser Beitrag ist jetzt schon ausführlich genug und beinhaltet erst einmal genug Informationen, die verarbeitet werden müssen. Das ist der erste von mehreren Teilen (wie viele es genau werden, weiß ich noch nicht) zum Thema „Moderne Musikproduktion“. Im nächsten Teil werde ich dann auf meinen persönlichen Lieblingsbereich eingehen, das Mixing – und vielleicht auch das „Mastern“. Dort werden auch die Funktionen von Synthesizern und die wichtigsten Effekt-Plugins genauer erläutert. Auf verschiedene Genres werde ich auch demnächst eingehen, aber alles der Reihe nach.

Ich wünsche euch noch einen schönen Tag, hoffe, ihr freut euch auch auf den nächsten Teil, und habt viel Spaß und Erfolg beim Musizieren!