Alle wissen, dass es ein Problem ist und es wird zum Glück auch etwas dagegen getan, z. B. im Rahmen der Initiative WHITE WAVES. Aber das genügt nicht. Das Problem lautet: Die Verschmutzung der Meere, besonders durch Plastikmüll!
Die Fakten sind schockierend: Anfang 2015 erschien eine Studie, die besagte, dass im Jahr 2010 etwa 8 Millionen Tonnen Plastikmüll in die Ozeane gelangten, das Konfidenzintervall (ein als realistisch angenommener, statistischer Schätzwert) lag dabei zwischen 4,8 und 12,7 Millionen Tonnen pro Jahr. Mitte 2014 wurde gemeldet, dass an der Küste der Insel Hawaii Gebilde aus geschmolzenen Kunststoffen, Vulkangestein, Korallenfragmenten und Sandkörnern gefunden wurden. Dies sei so fest, dass es als eigenes Gestein, und zwar als „Plastiglomerat“ gilt – und den Meeren massiv zusetzt.
In den Meeren werden die Plastikteilchen durch dass UV-Licht und Wellenbewegungen Stück für Stück verkleinert und pulverisiert. Statt der üblichen Nahrung wird der „Müll“ von Meeresbewohnern (z. B. dem Plankton) aufgenommen.
In diesen Plastikpartikeln können giftige und krebsverursachende Chemikalien enthalten sein. Diese Chemikalien gelangen in die Nahrungskette. Der Plankton wird mit den giftigen Chemikalien in sich z. B. von Krebsen gefressen. Diese wiederum werden von Fischen gefressen und … haben nicht die meisten von uns immer wieder Fischstäbchen oder sogar ein saftiges Seelachsfilet auf dem Teller?! Das ist damit gemeint, wenn von Nahrungskette in diesem Zusammenhang die Rede ist – es betrifft auch uns Menschen, die wir Meeresfrüchte und Fisch essen. So landen also diese giftigen Chemikalien des Plastikmülls, die vielleicht wir sogar bei unserem letzten Strandurlaub liegen gelassen haben und die dann ins Meer geweht wurde, in unserem Magen.
Fazit: Gerade weil ein Teil der Menschheit zu egoistisch und bequem ist, um auf die Umwelt zu achten, sollten wir – auch in unserem gesundheitlichen Interesse – auf die Sauberkeit der Meere achten und keinen Müll liegen lassen. Das gilt nicht nur für Urlaubsstrände!
Es wäre so schön, wenn der Müll und Unrat an diesem Strand nicht wären
Lange Mäntel, viele Tattoos, Piercings, lange Haare, Nieten, laute, aggressive Musik und vor allem ganz viel schwarz. Das sind die gängigen Klischees über Metal oder die von vielen so genannten ,Grufties‘. Doch Metal ist viel tiefgründiger und lässt sich nicht so einfach in ein paar oberflächlichen Beobachtungen beschreiben.
Zunächst zur Musik
Metal fand seinen Ursprung im Blues- und Hard Rock Anfang der 1970er Jahre in England. Zu Beginn gab es Bands z. B. wie Blue Cheer, Iron Butterfly, MC5 oder Steppenwolf. Ende der 60er Jahre agierten dann auch schon die ersten, richtigen Heavy-Metal Bands, Led Zeppelin und Black Sabbath. Nach und nach, bis heute, entwickelten sich immer mehr Unterarten, z. B. der Gothic Metal, der Industrial Metal, der Hairspraymetal, der Nu Metal, der Grind- und der Metalcore.
Die Standardbesetzung einer Metal-Band besteht aus einem Schlagzeug, einem E-Bass, einer Rhythmus-E-Gitarre , einer Leadgitarre und Gesang, der häufig von einem der Instrumentalisten übernommen wird. Die wichtigste Instrumental-Rolle hat dabei die E-Gitarre, die elektronisch stark verstärkt und verzerrt wird, um die typische, druckvolle Klangfarbe zu erzeugen. Ein gutes Beispiel dafür ist die weltbekannte Band Metallica. Metal-Bands sind in der Regel laut, zeichnen sich aber auch dadurch aus, dass sie gefühlvolle Songs mit Tiefgang produzieren. Ein Beispiel ist das folgende Stück der bereits genannten Band Metallica:
Metal ist aber auch eine Lebensweise, die sehr häufig mit Gothic verwechselt wird. Zwar werden in beiden Kulturen gerne lange, schwarze Mäntel getragen und auch lange Haare sind bei Anhängern beider Richtungen sehr beliebt, doch es gibt deutliche Unterschiede. Metal ist von beiden die „aufgebrachtere“ Gruppierung, während der Gothic nur einen eigenen, individuellen Lebensstil finden möchte. Es gibt auch weitere äußere Unterschiede , wie z. B. die sehr beliebte „Metal-Kutte“, die häufig auf Konzerten oder Festivals zu sehen ist. Einige Metalbands passen sich aber immer mehr der Mainstream-Musik an (vlg. Bring me the horizon, die mit ihrem neuen Album endgültig ihren alten Stil hinter sich gelassen haben) und machen somit immer mehr „ruhige“ und massentauglichere Musik, was viele Fans verärgert. Aber auch durch Zusammenarbeit mit Mainstream-Bands werden diese weiter in die populärere Musikszene gezogen. Es gibt natürlich noch diverse Bands, die dem herkömmlichen Stil treu bleiben, was aber nichts an der Tatsache ändert, dass dieses Genre immer weniger Zulauf von neuen Fans bekommt, da es unter anderem nicht so „angesagt“ ist wie z. B. RnB oder Hip-Hop. Auch sind viele Eltern junger Metal-Begeisterter skeptisch, da das aggressive, von Unwissenden häufig als satanisch und „böse“ vorverurteilte Image häufig keinen guten Eindruck macht. Für viele Menschen ist es auch schwer bis gar nicht verständlich, was andere an dieser verrufenen Musik reizt.
Für viele ist Metal aber auch mehr eine Art Bewegung als ein Musik-Genre. Dabei geht es den meisten um Ästhetik, die sich aus vielen, auch alten Musikkulturen oder neuen Ideen zusammen setzt. Der Stil ist von Unterart zu Unterart und von Mensch zu Mensch, je nach Geschmack, unterschiedlich, auch wenn es grobe Gemeinsamkeiten wie z. B silber- oder Leder-Schmuck, (oben bereits erwähnt) Metalkutten oder Lederkleidung, die meistens schwarz ist, gibt. Generell ist „Optik“ im Metal sehr wichtig, so passen sich zum Beispiel Alben-Cover, Konzerte oder Bandmitglieder optisch der Musik, die gespielt wird, an, um auf mehreren Eben die Bedeutung auszudrücken.
„Metal“ ist für gewöhnlich nicht einer „politischen Gruppe“ zuzuordnen, auch wenn viele Bands eigene politische Meinungen vertreten. Natürlich gibt es – wie im massentauglichen Chartbereich – immer „schwarze Schafe“, die einer Musikkultur einen schlechten Ruf geben. Das darf auch nicht wegdiskutiert werden. Wie bei allen Dingen gilt: die Personen, die Musik machen, sind nie ganz losgelöst von ihrer Musik zu sehen; vor allem dann nicht, wenn sie viele Menschen erreicht!
Fast jeder kennt es, fast jeder hat es, fast jeder liebt es. Doch zu selten hinterfragt man den Dienst, den man tagtäglich nutzt. Das wollen wir heute ändern und schauen hinter die Kulissen des allseits bekannten Messengers!
Entstehung
WhatsApp wurde 2009 von dem ukrainisch-US-amerikanischen Unternehmer Jan Koum und dem US-amerikanischen Unternehmer und Programmierer Brian Acton gegründet. WhatsApp hatte bereits im Februar 2014 mehr als 450 Millionen Nutzer, die mindestens einmal pro Monat aktiv waren. Am 19. Februar 2014 kaufte Facebook Whatsapp für umgerechnet 13,81 Milliarden Dollar. Diese Summe gilt auch in Fachkreisen als extrem hoch. WhatsApp hat nun bereits 700 Millionen Nutzer, heruntergeladen wurde die Anwendung mehr als eine Milliarde Mal.
Sicherheit und Kritik
Warum war WhatsApp so günstig und kostet nun gar nichts mehr? Ganz einfach: WhatsApp finanziert sich wie Facebook durch Werbeeinnahmen. Manche munkeln, dass der Messengerdienst, der nun also seit geraumer Zeit Facebook gehört, auch eure Daten (z. B. Kontakte aus dem Adressbuch) verkauft, obwohl offiziell das Gegenteil behauptet wird.
Wie macht man damit Geld? Firmen sind daran interessiert, Persönlichkeitsprofile von Menschen anzulegen, um möglichst genau Angebote auf deren Bedürfnisse zuschneiden zu können. Dabei geht es in erster Linie um Geld, nicht darum, dass man euch so mag und möchte, dass ihr kostenlos etwas bekommt. Interessen, Wünsche und Bedürfnisse teilen die User sich gegenseitig ebenso mit wie Informationen darüber, wie der Arbeitstag war. Daraus lassen sich schnell direkt oder indirekt Bedürfnisse ableiten. Hier ein Chat-Beispiel, wie es tausendfach in WhatsApp täglich vorkommen dürfte.
„Mein Tag war stressig. So wie immer im Marketing. Die Frau XY vom Kunden XY hat mich heute wieder total genervt. Meine Firma ist total blöd und zahlt mir wenig. Dabei würde ich so gerne shoppen gehen. Das neue Kleid bei XY in der Fußgängerzone in XY gefällt mir super. Die haben noch andere Marken von XY. Vielleicht kündige ich ja bald und finde einen besseren Job. Ich glaube, dass mein Kollege Franz Xaver Bierbichler auf mich steht. Ich mag ihn eigentlich auch ganz gern. Mal schaun, vielleicht bahnt sich ja eine Romanze an – dann ginge ich wieder gerne zur Arbeit!“
Was erfährt WhatsApp nun über die Person? Es weiß nun(,)
dass man unzufrieden mit seinem Job ist
dass man im Marketing-Bereich arbeitet
dass es einen Konflikt mit Frau XY von Firma XY gibt
den Namen der Firma / des Arbeitgebers (wenn man ihn nennt)
wo man seinen Lebensmittelpunkt hat
dass man mit dem Gehalt unzufrieden ist
dass man womöglich den Job wechseln möchte
dass man Mode der Marke XY mag
wo man shoppen geht
dass man mit einem Kollegen liebäugelt (Liebesleben, Namen anderer!)
Das und noch vieles mehr verrät man von sich mit nur einer Nachricht. Man meint, dass es nur das Gegenüber, z. B. die beste Freundin liest. WhatsApp verspricht zwar, Daten nur kurz auf dem Server zu „loggen“. Immer wieder aber ist der Anbieter in der Kritik, da Experten die Verschlüsselung als zu schwach einschätzen und somit auch Daten abgegriffen werden können. Die Realität sieht in der Regel anders aus als blanke Werbeversprechen. Durch eine Vielzahl an gesendeten Nachrichten (manche haben über 100.000!!! pro Kalenderjahr) ermöglicht man dem Messenger, ein Persönlichkeitsprofil von sich anzufertigen. Man möchte sich nicht ausmalen, was diese Informationen anrichten können – nicht nur für einen selbst.
Schon heute speichern sog. Cookies unsere Vorlieben, Wünsche oder Probleme, wenn wir z. B. auf Amazon surfen und ein bestimmtes Produkt kaufen. Jeder hat es schon einmal erlebt, dass man auf einer ganz anderen Seite im Internet unterwegs ist und plötzlich bekommt man Werbung eingeblendet, die genau unseren Wünschen entspricht. Nach diesem Prinzip funktioniert auch WhatsApp, nur gibt es der Datenriese bisher offiziell so nicht zu. Unser digitaler Fingerabdruck bei Amazon ist relativ schwach, da man zwar etwas bestellt, dabei aber den Hintergrund selten nennt (außer man schreibt eine Rezension, also eine Produktbeurteilung). In WhatsApp offenbaren wir anderen unsere Gefühle, Träume, Ängste. Das ist also schon ein ganz anderes „Kaliber“. Das machen wir, weil wir uns geschützt fühlen – wir und unser Handy, ganz privat also. Doch so ist es nicht!
WhatsApp wird vor allem für seine allgemeinen Nutzungsbedingungen kritisiert, die dem Unternehmen erlauben, Medien der Nutzer für eigene Zwecke zu verwenden. Ich persönlich wusste das nicht, bevor wir darüber in der Sozialpraktischen Grundbildung (SoG) in der Schule gesprochen haben. WhatsApp kann z. B. ein Bild, das man an jemanden verschickt, verwenden. Konkret heißt das: ihr verschickt ein Bild, auf dem womöglich ein Markenprodukt (Kleidung, Getränke) oder Personen zu sehen sind. WhatsApp kann dieses Bild zu Werbezwecken verkaufen oder zumindest weitergeben. Die Rechte an den Bildern tretet ihr zwar ab, verantwortlich seid ihr aber weiterhin für dessen Inhalt. So kann es sein, dass irgendwo auf der Welt eine Firma ein von euch gemachtes Bild von WhatsApp abkauft und in einer Zeitschrift oder einem Plakat abdruckt. Sollte nun z. B. ein Markenlogo zu sehen sein, haftet nicht WhatsApp, sondern ihr. Die Firma, dessen Logo (z. B. einer Kleidermarke) man auf dem Bild sieht, kann euch verklagen, da ihr unerlaubterweise das unter Copyright stehende Logo verwendet. Bisher sind keine solcher Klagen in der Öffentlichkeit bekannt geworden. Dennoch besteht eine gewisse Gefahr. Und schon allein das Wissen darum, dass womöglich persönliche Fotos von sich und anderen an die Öffentlichkeit gelangen können, sollte einen aufhorchen und das eigene Chat-Verhalten überdenken lassen. WhatsApp hat übrigens Zugriff auf dein komplettes Adressbuch, deine Identität, deinen Standort und vieles mehr. Immer wieder gibt es auch Hinweise auf gravierende Sicherheitslücken, die beispielsweise Unbefugten Zugriff auf Nachrichten ermöglichen. Alleine die Tatsache, dass sich WhatsApp lange dagegen gewehrt hat, seine AGBs ins Deutsche zu übersetzen, sollte jeden Nutzer aufhorchen lassen. Schließlich ist nicht jeder des Englischen mächtig, geschweige denn dem nicht leicht zu durchdringenden Rechtstext, durch den sich Allgemeine Geschäftsbedingungen auszeichnen. Das fällt schon schwer, wenn der Text in der Muttersprache verfasst ist. Aber auch dann machen sich nur wenige die Mühe, ihn zu lesen!
Ein weiteres Problem in Zusammenhang mit WhatsApp ist die ständige Erreichbarkeit und der Zwang, häufig auf das Handy schauen zu müssen, um vermeintlich nichts zu versäumen – oder einfach, um dazuzugehören. Auch verlagert sich nicht selten das soziale Leben teilweise auf interaktive Netzwerke, in denen echte Emotionen durch sog. Emojis ersetzt werden, was zu Missverständnissen und Streitereien führen kann, wenn man sein Gegenüber in der Kommunikation nicht sieht. Schulen, Eltern, Erzieher und vor allem Betroffene selbst haben auch verstärkt mit Mobbing, Ausgrenzung und Hassnachrichten, dem sog. „Dissen“, zu kämpfen.
Fazit
Wer mit WhatsApp Nachrichten versendet, sollte darauf achten, dass diese keine oder nur wenige private Informationen enthalten. Vom Versenden von Fotos und Sprachmemos ist dringend abzuraten. Grundsätzlich scheint der Dienst in Ordnung, wenn man nur oberflächliche Gespräche führt, in denen man weder etwas über sich noch über andere verrät. Dennoch ist WhatsApp nicht automatisch vorab zu verurteilen. Aber die Frage bleibt: muss WhatsApp wissen, wann ich mich wo mit meinen Freunden zu einem Treffen verabrede und welchen Film man sich im Kino ansieht?
Der Schutz unserer Privatsphäre wird durch unsere Verfassung, das Grundgesetz, und somit durch die Demokratie gewährleistet. Es wäre schlimm, wenn wir uns selbst dieses Recht nehmen, indem wir zu wenig achtsam mit unseren Daten und denen anderer umgehen. Deshalb ist WhatsApp auch erst ab 16 Jahren offiziell erlaubt. Dahinter steht die Idee, dass man erst ab einem gewissen Alter selbstverantwortlich und reif mit gewissen Dingen verantwortlich umgehen kann. Und da WhatsApp auch immer andere betrifft, nämlich die, mit denen man chattet, ist es das auch: eine Verantwortung!
Ich begrüße euch zum zweiten Teil der Beitrags-Reihe „Moderne Musikproduktion“.
Um was geht es?
In diesem Teil geht es um die Funktionen und Benutzung von Plugins, also entweder Virtuellen Instrumenten oder Effekten. Dabei werden wir bei den Instrumenten eher auf die Grundprinzipien eingehen, da ja nicht jedes Plugin gleich ist, und bei den Effekten wollen wir uns den Themenfeldern EQ (Equalizer), Compressor, Multiband Compressoren, Reverb und Delay genauer widmen sowie auf deren Funktionsweise eingehen. Ich hoffe ihr freut euch genau so wie ich, aber bevor wir anfangen, hole ich noch kurz etwas nach, was im letzten Beitrag gefehlt hat.
Welche DAW passt zu mir oder welche ist die beste?
Das ist die wahrscheinlich am häufigsten gestelle Frage in der weiten Welt der Musikproduktion und keiner kann eine genaue Antwort liefern. Allerdings gibt es doch so ein paar Dinge, bei denen man sich einig ist, den Rest muss man für sich selbst entscheiden. Ich hoffe, die folgenden Tipps werden dir in der Wahl deiner DAW helfen.
Welche DAW wofür?
Es gibt drei hauptsächliche Anwendungsbereiche für DAWs. Man kann natürlich jede DAW für alle Bereiche verwenden, aber manche eignen sich halt besser als andere. An dieser Stelle möchte ich auch darauf hinweisen, dass genauere Tutorials zu den einzelnen DAWs in Zukunft kommen werden.
Auftritte Live: Dafür wird fast immer Ableton Live benutzt. Es hat das Live ja schon im Namen. Die beliebte DJ-Software bringt nämlich alles, was man für einen gelungenen Live-Auftritt braucht, hat aber auch alles, was man für Home Recording benötigt. Sie ist sehr bekannt und die meisten Tonstudios haben es auf mindestens einem Rechner laufen. Warum also auf eine andere zurückgreifen? Ganz einfach. Die Steuerung ist gewöhnungsbedürftig und mit 600€ für die „Vollversion“ (Suite) auch nicht gerade günstig. Es gibt auch eine Version für 350€ (Standard). Dieser fehlen allerdings relativ viele gute Sounds und nur 3 von 9 vorinstallieren Instrumenten sind vorhanden. Über die 80€ (Intro)-Version will man gar nicht reden. Soll heißen: eingeschränkte Funktionen, nicht mal ein Drittel aller Sounds und fehlende Effekte raten schon alleine von dieser Version ab. Alternative? Cubase! Niemand geringeres als Skrillex selbst verwendet auch für seine Live-Auftritte Cubase und das, obwohl es hauptsächlich für Home Recording verwendet wird – ein perfektes Beispiel dafür, dass es auf die Verwendung ankommt und nicht auf die DAW.
Home Recording: Cubase, FL Studio, Reaper, Ableton Live, Pro Tools, Logic Pro X, Reason, Studio One und sogar das von mir nicht sehr geschätzte Sonar X3 kann man dafür verwenden. Jede DAW, die es gibt, eignet sich dafür, da das der Hauptanwendungsbereich ist. Hier hilft nichts als Testen oder sich im Fachhandel erkundigen.
Mixing und Mastering: Ich, der den Beruf des Audio Engineers anstrebt, werde hier einen Mastering-Experten zitieren: „Pro Tools! Punkt!“ Mit diesen weisen Worten wäre alles gesagt. Naja fast. Es ist einfach so, dass eigentlich alle großen Tonstudios Pro Tools verwenden. Das liegt einfach daran, dass es für diesen Bereich (Mixing und Mastering) optimiert ist, beispielsweise durch Funktionen wie den Over-Sampling-Mode. Die Audioverarbeitung ist einfach ideal einstellbar und es bietet alle Funktionen, die man braucht.
Nun aber zurück zum eigentlichen Thema:
Plugins:
Es gibt leider nicht nur „das Plugin“. Es gibt eine Vielzahl von Plugins. Wir schauen uns ganz kurz VST, AAX, AU und RTAS an.
VST: Das ist die Abkürzung für Virtual Studio Technology. Das ist das von Steinberg Media Technologies entwickelte Software-Protokoll. Es gibt eine große Anzahl an VST-Plugins, viel zu viele, um alle zu nennen. Fast alle DAWs können VSTs benutzen. Pro Tools ist eine Ausnahme, aber mit Bridgern (einem Umwandlungsprogramm) geht auch das.
AAX: Avid Audio Extension. Das ist ein speziell für Pro Tools entwickeltes Software-Protokoll. Es wird ausschließlich von Pro Tools verwendet, ist also eher selten anzutreffen. Viele Entwickler müssen ihre Plugins immer noch in das AAX-Format umwandeln, auch wenn die Zahl immer kleiner wird, doch viele machen sich diese Mühe nicht, was Pro Tools aber nicht wirklich schadet, da es schon alles Wichtige hat.
RTAS: Das steht für RealTimeAudioSuite. Das war das erste ausschließlich für Pro Tools entwickelte Software-Protokoll. Seit Version 10.8 wird dieses aber nicht mehr unterstützt, weshalb es eigentlich nicht mehr vorkommt.
AU: Die Abkürzung für Audio Unit ist ein von Apple entwickeltes Format für Plugins. Logic benutzt ausschließlich diese Format, aber die meisten anderen DAWs, die auf einem Mac laufen, verwenden auch VSTs.
Wie verwende ich Plugins?
Die Antwort zu dieser Frage ist natürlich von DAW zu DAW unterschiedlich. Wenn man aber einmal weiß, wie es geht, ist es ganz einfach. Meist reicht es, die Standard-Installation auszuführen, und beim Starten der DAW wird das Plugin automatisch erkannt. Dann muss man nur noch wissen, wie man es in der DAW selbst öffnet.
Instrumente:
Es gibt eine immense Anzahl an Virtuellen Instrumenten in allen möglichen Preisklassen. Aber einige Funktionen sind bei den meisten vertreten.
Sampler: Dabei handelt es sich um die einfache Art der Virtuellen Instrumente. Sampler spielen aufgenommene Töne ab und transponieren diese bei Bedarf. An sich gibt es zwei Arten von Samplern. Die einen benutzen Sounds, die ihnen manuell vorgegeben werden (wie Drum Machines), die anderen arbeiten mit Presets oder Soundfonts. Soundfonts sind in einem Format gespeicherte Samples und Parameter-Beschreibungen, die mit SoundFont-Playern abgespielt werden.
Synthesizer: Diese Instrumente sind wesentlich komplexer. Sie generieren nämlich selbst Sounds. Wie das funktioniert, ist ein Kapitel für sich, aber die Funktionen von einem Synthesizer werde ich euch versuchen näher zu bringen – wobei man nicht ganz an der Erzeugung des Tons vorbeikommt. Ganz kurz: Ein Ton setzt sich zusammen aus Schalldruckpegel (gemessen in Dezibel [dB]) und Frequenzen (gemessen in Hertz [hZ]). Bei einem synthetisch generierten Ton sind dann noch Parameter wie Bit-Tiefe und Samplerrate wichtig, aber die lasse ich jetzt mal außen vor, da sie für diese Erklärung keine Rolle spielen. Der Schalldruckpegel bestimmt die Lautstärke eines Tons und die Frequenzzahl die Höhe. Hertz ist an sich nur eine Umschreibung für Schwingungen pro Sekunde. Also sind 100 hZ 100 Schwingungen pro Sekunde. Aber Schwingungen von was? Dafür muss man wissen, dass sich Geräusche wie Licht ausbreiten, also in Wellenform. Je schneller diese Welle schwingt, desto höher ist der Ton. Die Lautstärke wird dadurch bestimmt, wie stark die Schallwelle auf einen Körper (zum Messen auf eine Membran) trifft – also wie schnell er sich ausbreitet. Schnelligkeit der Ausbreitung und Schnelligkeit der Schwingung sind zwei unterschiedliche Dinge. Das eine ist eine Bewegung in die Richtung, in die der Schall „geworfen“ wird, das andere die Bewegung der Schallwelle selbst. Jetzt aber genug zum Thema Ton-Generierung. Viel interessanter ist ohnehin, wie ein Synthesizer funktioniert. Er macht nichts anderes, als eine sogenannte Sinus-Welle (Bezeichnung für den reinsten Ton [Eine gleichbleibende Welle ohne Verzerrung im negativen oder positiven Bereich – gezeigt im nachfolgenden Bild]) zu verändern.
Dadurch entstehen, je nach Veränderung, andere Töne (wie genau diese Veränderung funktioniert, werde ich nicht erklären, da ein eigener Beitrag dafür notwendig wäre; das ist ein großer Teil eines Moduls in der Ausbildung zum Tontechniker). Dieser entstandene Ton kann synthetisch klingen:
oder auch eine Imitation eines realen Instruments sein:
Der ein oder andere „Experte“ wird jetzt sagen, dass man das ja einfach mit Presets machen kann – auswählen und fertig. Das stimmt, aber jeder richtige Experte wird mir zustimmen, wenn ich sage, dass es besser ist, seinen eigenen Sound (oder bei Effekten eigene Einstellungen) zu erstellen. Das wird im Normalfall wesentlich besser in den eigenen Track passen als irgendein Preset. Es ist natürlich nicht einfach, einen gewissen Sound zu erstellen, aber mit Übung klappt das schon. Ich habe z. B. versucht, den Sound von dem Lead Synth aus Martin Garrix` – Poison (dem Drop-Part) nachzuahmen und ich würde sagen, das ist doch relativ gut gelungen. Dabei gab es nur eine Herausforderung: Das, was ihr in folgendem Beispiel hört, ist nicht nur ein Synth, sondern fünf, die gleichzeitig spielen.
Diese „Technik“ ist das so genannte Layering. Das bedeutet, dass mehrere Instrumente (der etwa gleichen Art) das Gleiche spielen. Diese Technik findet sich in so ziemlich allen Pop- oder Hand-Up- bzw. allen Songs der EDM wieder, und das nicht nur bei Synths, sondern auch bei Drums, egal ob Snare oder Kick. Dabei gilt aber auch einiges zu beachten – dazu an anderer Stelle mehr.
Was können diese ganzen Regler?
Dieser Frage stellen sich wahrscheinlich alle, die das erste Mal einen Synthesizer sehen. Verständlich, da es wirklich ziemlich viel auf einmal ist. Ich werde versuchen, euch in diesem Teil die wichtigsten Funktionen zu erklären und in späteren Beiträgen vielleicht einmal auf die „versteckten“ oder speziellen Funktionen eingehen. Das Wichtigste zu unserem Thema aber nun hier: der bzw. die OSCs. Das steht für Oszillator. Na gut. Um ehrlich zu sein, steht das für Open Sound Control, aber Oszillatoren (oder auch Operator) werden grundsätzlich die Ton-Generatoren genannt. Diese setzen sich meist aus einem Wave Picker und Tune Controllern zusammen. Bei Multi-OSC-Synths werden auch Volume-Control-Regler bei den einzelnen Oszillatoren angegeben. Die Tune-Controller bestimmen diejenigen, auf welchen Ton der OSC gestimmt ist.
Meist gibt es zwei verschiedene Tune-Controller, den Semitone-Controller und den Detune-Controller. Der Semitone-Controller verschiebt den Input um die ausgewählte Anzahl an Semitönen (Halbtöne) nach oben oder unten. Dieser Kontroller wird auch oft mit Pitch betitelt. Der angegebene Wert muss keiner ganzen Zahl entsprechen, sondern kann auch Dezimalen enthalten. Falls dies nicht der Fall ist, gibt es meist einen so genannten Finetune-Controller. Dieser ist dann für die Dezimal-Werte zuständig. Der Detune-Controller funktioniert etwas anders. Er verstellt nämlich nicht den Unterton (Grundton), sondern fügt Obertöne (Teiltöne des Klangs, die für die Klangfarbe „zuständig“ sind), hinzu. Das führt zu einer Disharmonie, klingt also, als ob der Grundton verstimmt (detuned) wurde.
Im Wave-Picker wird die „Wellenart“ gewählt, die benutzt werden soll (eigentlich eher das „Aussehen“ der Amplitude). Um das zu verstehen, muss man wissen, dass der reinste mögliche Ton aus einer gleich schwingenden Welle besteht, der so genannten „Sinus-Welle“:
Diese Sinus-Welle wird mit einer gewissen Anzahl an Schwingungen (Frequenz) pro Sekunde erzeugt. Diese Frequenz gibt an, wie hoch bzw. tief der Ton ist. Der Kammerton A4 liegt z.B. bei 440 Hz (Hertz = Die Einheit für Frequenzen) also 440 Schwingungen pro Sekunde. Je höher die Hertz-Anzahl ist, desto höher ist der Ton und umgekehrt. So liegt C8 (der höhste Ton eines Klaviers) bei 4,186 kHz (1 kHz = 1000 Hz) und A0 (tiefster Ton) bei 27,5 Hz. Natürlich ist das Erzeugen eines absolut reinen, aus nur einem Grundton ohne Obertöne bestehenden Tons unmöglich, aber die Synthesizer tun ihr Bestes. Wie genau jetzt das Verformen der Amplituden-Form funktioniert, ist einen Beitrag für sich wert, aber so viel sei gesagt: Es fügt Obertöne hinzu. Das reicht als Grundwissen. Was mit Wave Shapern und dergleichen gemacht wird, ist vorerst unbedeutend. Die folgenden Bilder samt Tonbeispielen lassen euch die Arten Triangle, Saw, Square sehen bzw. hören.
Triangle:
Saw:
Square:
Beim folgenden Beispiel handelt es sich um die besonderen Wellen des Round Saw, alle gespielt auf dem Kammerton A4. Lasst euch nicht von dem A3 verwirren. Das liegt daran, dass das VST eine andere Skala verwendet, die bei Minus-Noten beginnt.
Das waren die Basics eines Synthesizers. Etwas spezieller ist vielleicht Phase Offset, aber das gibt nur den Startwert der Amplitude an, also z. B. nicht am 0 Punkt, sondern schon halb in der Schwingung. Pan oder Panning, also der Panoramapotentiometer, Panpot oder einfach Panoramaregler, gibt die Lautstärkeverteilung eines Audiosignals auf zwei Kanälen an – demnach: wie gut der Ton von links bzw. rechts zu hören ist. Aber nun zu dem etwas schwierigeren Bereich: Envelope, LFO und Filter.
Was ist ein Envelope?
Die beste Übersetzung wäre Hüllkurve, da die Envelope-Kurve den Verlauf eines PARAMETERS angibt:
Wenn dieser Parameter nicht fest eingestellt ist, wie beispielsweise bei einem Volume-Envelope, kann man ihm meist einen Parameter zuweisen in einer so genannten FX-Matrix. Das kann sich von Plugin zu Plugin allerdings unterscheiden. Die folgende Abbildung zeigt eine solche Matrix:
Curve, Type, Mod und Aux (von auxiliary) Source sind recht selten, weswegen ich sie in diesem Beitrag außen vor lassen werde. Dass sie doch sehr nützlich sein können, zeige ich in einem anderen Beitrag, aber zurück zum Envelope. Eine Envelope-Kurve besteht aus vier Bereichen. Der erste wird durch den Attack-Regler bestimmt. Dieser gibt die Zeit an, die der Parameter braucht, um auf 2/3 der 100% (durch Makros verstellbar) zu kommen. Der zweite wird durch den Holdregler bestimmt. Dieser gibt an, wie lange der Paramter auf 100% bleiben soll, bevor er durch den dritten Bereich modelliert wird. Dieser wird durch Decay und Sustain bestimmt. Hierbei ist Decay eine Zeitangabe und Sustain eine „Höhen-“ oder Prozentangabe. Der Decay-Regler gibt an, wie lange der Parameter braucht, um auf den vom Sustain ausgewählten Prozentsatz zu kommen. Sobald der Parameter dort angekommen, ist bleibt er dort so lange, bis die Taste losgelassen wird. Ein Envelope beginnt bei Tastendruck. Sobald die Taste losgelassen wird, geht der Parameter in den vierten Bereich. Dieser wird durch den Release-Regler kontrolliert, welcher wiederum angibt, wie lange der Parameter braucht, um wieder auf 2/3 vor 0% (mit Makros verstellbar) zu gehen. In machen Plugins gibt es auch noch ein Delay-Regler. Dieser bestimmt, wie lange gewartet wird, bis die Envelope-Kurve anfängt zu wirken.
Was ist ein LFO?
LFO steht für „Low Frequency Oscillator“ und er macht genau das, was man von einem Oscillator erwartet. Er erzeugt einen Ton. Zumindest war das so in der analogen Zeit. Dieser Ton war damals aber auch unter 10 Hz, was ihn für das menschliche Gehör nicht hörbar machte, dafür war er auch nicht da. Ein LFO sollte schon damals einen Ton „verändern“. Um etwas genauer zu werden: durch die Schwingungen dieses vom LFO produzierten Tons entstehen im Hörfeld harmonische und unharmonische Teiltöne. Details spare ich aber hier aus, da es ohnehin um digitale LFOs geht. Das sind nicht anderes als wellenförmige Envelopes. Sie stellen also den Wert das Parameters gleichmäßig von einem Prozentsatz auf den anderen und zurück. Klingt zwar langweilig, ist aber aus der EDM nicht mehr weg zu denken.
Was macht die FX Matrix?
Eigentlich nichts anderes als einem Parameter (hier Destination genannt) einen „Verlauf“ anzugeben, so beispielsweise der Cutoff Frequency den zweiten Modulation Envelope. Amount regelt dabei, wie stark dieser Envelope beachtet werden soll. Output regelt, wie laut dieser Modulation wiedergegeben wird.
Mit all diesem Wissen können wir uns endlich einem der wichtigsten Themen der Synthesizer widmen.
Filter
Den Begriff bestimmt jeder schon jeder einmal gehört und sie machen genau das, was der Name vermuten lässt. Sie filtern etwas. Naja nicht ganz. Um genau zu sein, verstärken oder schwächen sie Frequenzen. Es gibt eine Reihe an Filtern mit einschlägigen Bezeichnungen. Ich werde hier die bekanntesten aufzählen:
Es gibt fünf Arten von Filtern, die man kennen sollte: den Peak Filter, den High Pass Filter, den Low Pass Filter, den High Shelf Filter und den Low Shelf Filter.
Peak Filter: Diese Art von Filter kann eine bestimmte Frequenz angeben oder absenken. Der Q-Parameter gibt dabei die sogenannte Flankensteilheit des Filters an. Das heißt, dass er die Breite und somit die Anhebung oder Absenkung der (Kern)Frequenz beeinflusst. Höhere Flankensteilheit vermindert die Breite und niedrige erhöht ihn. Somit werden mehr oder weniger Frequenzen erhöht bzw. gesenkt.
High Pass Filter: Wie der Name schon sagt, lässt der High Pass Filter alle Frequenzen, die oberhalb der Cutoff-Frequenzen liegen, „passieren“. Die leicht darunter liegenden werden geschwächt und die weiter hinten liegenden werden verstummt. Die Weite davon kann mit dem Parameter Q verstellt werden.
Low pass Filter: Dieser Filter bewirkt das genaue Gegenteil des Highpass-Filters. Heißt also, dass er alle Frequenzen über der Cutoff-Frequenz abschneidet und alle darunter frei passieren lässt. Dies folgt dem Muster des High Pass. Knapp dahinter wird leiser gestellt und weiter weg verstummt. Die Weite davon kann ebenfalls mit dem Parameter Q verstellt werden.
High Shelf Filter: Dieser Filter verstärkt alle Frequenzen über der Cutoff-Frequenz leicht bis stark. Der Steigungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.
Low Shelf Filter: Dieser Filter verstärkt alle Frequenzen unterhalb der Cutoff-Frequenz leicht bis stark. Der Steigerungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.
Band Pass: Dieser Filter filtert eine gewisse Frequenzbandbreite, z. B. von 500 Hz bis 15 kHz. Den Rest schwächt er ab oder lässt ihn verstummen. Wie schnell das passiert, kann man mit der Flankensteilheit einstellen.
Wer sich jetzt fragt, wofür man das brauchen könnte, sollte definitiv weiter lesen. Einerseits kann es natürlich verwendet werden, um dem Synth genau den Sound zu geben, den man möchte, und dafür sind auch die Filter in den Plugins gedacht. Auch für spezielle Effekte des Tons können Filter verwendet werden wie z. B. bei einem Wobble Bass der im Dubstep-Genre viel Verwendung findet. Für Build Ups wird auch oft ein Low Pass Filter verwendet.
Mit all diesem Wissen können wir endlich zu einem der interessantesten Punkte kommen. Den Effekten. Zu dieser Kategorie gehören zwar auch die Filter, aber da sie so wichtig sind, habe ich sie hier gesondert erklärt.
Welche Effekte gibt es?
Viele! Zu viele für diesen einzelnen Beitrag. Hier eine kurze Auflistung:
Ein Paradies, wenn man weiß, was die Effekte (kurz FX) machen, aber eben sehr nervig, wenn man es nicht weiß und den Sounds damit das gewisse Etwas fehlt. Ich werde versuchen, euch in diesem Beitrag die wichtigsten Effekte näher zu bringen und euch ihr Processing zu erklären. Hierbei ist wichtig zu wissen, dass man über jeden dieser Effekte eigentlich einen eigenen Beitrag machen könnte und ich es (damit es nicht zu lang wird) möglichst kurz halten werde.
Compressor
Das ist wahrscheinlich der Effekt mit den meisten „Mythen“, die sich über die Zeit eingeschlichen haben. Zwar sind es keine direkten Fehler, aber halt auch nicht volle Wahrheiten. Aber der Reihe nach.
Was macht ein Compressor?
Allgemein wird meist gesagt, dass ein Compressor die dynamische Reichweite verringert. Das ist nicht ganz richtig. Zunächst aber zu den Grundlagen: ein Compressor setzt Töne, die über einem gewissen Schwellenwert sind, nach einer gewissen Rate herunter. Das funktioniert durch folgende Regler: Threshold und Ratio. Threshold oder zu deutsch Schwellenwert ist die Angabe für den Dezibelwert, ab dem der Compressor anfängt zu wirken und die Lautstärke herunter regelt. Um wie viel das geregelt wird, wird durch den Ratio-Regler bestimmt. Dieser wird in einem Verhältnis von X zu 1 eingestellt (Beispiel: 10:1). Im Fall des Beispiels werden also alle 10 dB über dem Schwellwert auf 1 dB über den Schwellwert runter geregelt. Auch alles unter 10 dB ist betroffen. So werden z. B. 5 dB auf 0,5 herunter geregelt usw. Auch finden sich schon zwei bekannte Regler beim Compressor wieder: Attack und Release – und genau bei diesen Reglern ist der größte Fehler in der Signalverarbeitung versteckt, den man, wenn man aufmerksam war, erkennen kann. Hier die Erklärung: Der Attack regelt, wie lange das Signal über dem Schwellwert sein muss, bevor er reagiert. Fehler gefunden oder erraten? Falls nicht auch nicht schlimm. Die Attack-Zeit ist die Zeitspanne, die der Compressor braucht, um 2/3 des Verhältnisses zu reduzieren. Also genau wie beim Envelope. Man mag es nun glauben oder nicht, aber das gilt gleichsam für den Release. Heißt also, dass der Release nicht regelt, wie lange der Compressor nach Unterschreiten des Schwellwerts noch wirkt, sondern wie lange der Compressor braucht, um zurück auf 2/3 vom Verhältnis der Wirkung zurückzugehen. Klingt schwieriger als es ist. Wichtig ist eigentlich nur zu wissen, dass Attack die Anfangs-Zeit beeinflusst und Release die End-Zeit. Dann wäre da noch ein ganz wichtiger Regler. Der Makeup Gain. Um es kurz zu halten: Das ist der Regler für die Output-Lautstärke des Compressors. Den braucht man, da man ja bei Benutzung eines Compressors die Lautstärke des Input Signals beeinflusst.
Wofür braucht man einen Compressor?
Ein Compressor hat viele Anwendungsbereiche. Um eine zu nennen: Bei der Aufnahme eines Schlagzeugs werden nicht nur die einzelnen Elemente des Schlangzeug mit Mikrophonen versehen, es gibt auch oft ein so genanntes Room Mic. Dieses nimmt das ganze als Allgemeinheit auf. Wofür? Ganz einfach. Wenn der Song in Versen oder Refrain ist, werden natürlich die Spuren der einzelnen Mikrophone verwendet (diese werden übrigens auch meistens mit Compressoren bearbeitet), da der stärkere Sound gebraucht wird, damit man die Drums unter all den anderen Instrumenten oder vielleicht auch Stimmen auch gut hören kann (mehr dazu in der Mix Sektion). Das wäre mit dem „verwischten“ oder „ungenauen“ Sound des Room Mics nicht möglich, da keine eindeutige Definition bzw. Klangdifferenzierung besteht. Geht der Song jetzt aber in einen ruhigeren Teil über (z. B. Bridge)über, kann man das Room Mic sehr gut verwenden, um dem ganzen Song einen „Raum zu geben“. Klingt seltsam, ist aber eine Sache der Wahrnehmung, die beachtet wird, um alles realistischer klingen zu lassen, da ja der gesamte Schall im Raum aufgenommen wurde. Allerdings gibt es ein Problem bei der ganzen Sache. Manche Elemente des Schlagzeugs sind natürlich wesentlich lauter als andere und überdecken so die schwächeren. Ein Kick wird meist wesentlich lauter sein als eine Hi-Hat. Und was schafft Abhilfe? Richtig. Ein Compressor. Dieser wird so eingestellt, dass er nur das Signal der lauten Elemente bearbeitet. Einfach das Gain hochdrehen und man hat einen wesentlich ausgeglicheneren Mix zwischen Snare, Hi-Hat, Ride, Kick usw. Es gibt natürlich auch Verwendung von Compressoren in digitaler Musik, sogar sehr viele.
Das sollte erst einmal zu Compressoren gewesen sein. Man könnte noch auf Multiband- Compressoren, DeEsser oder Noise Gate eingehen, aber dafür findet sich ein anderes Mal Zeit und Raum.
Equalizer
Equalizer sind aus der Musik nicht mehr wegzudenken. Der Equalizer sorgt erst dafür, dass ein Sound so klingt, wie er klingen soll, indem er die richtigen Akzente setzt oder dem Mix Platz für gewisse Frequenzen gibt. Zunächst widmen wir uns dem Overlay, wobei man da schon mittem im Themenbereich Equalizer ist. Bei Equalizern gilt es aber zu unterscheiden. Es gibt nämlich zwei Arten:
Was ist der Unterschied zwischen einem Parametrischen und einem Graphischen Equalizer?
Ein Parametrischer EQ (Equalizer) wird im Normalfall immer weniger Bänder (wird später erklärt) haben als ein Graphischer. Zudem hat man bei einem Parametischen EQ noch die Möglichkeit, die Flankensteilheit zu verstellen und die Frequenzen der einzelnen Bänder zu wählen, während bei einem Graphischen EQ diese Werte festgesetzt sind. Wer gut aufgepasst hat, dem wird aufgefallen sein, dass der Begriff Flankensteilheit bereits gefallen ist, und zwar bei den Filtern, ebenso wie der Begriff Frequenzen. Es ist also wahrscheinlich, dass diese etwas miteinander zu tun haben, nicht? Und genau so ist es auch.
Was macht ein Equalizer?
Das er etwas mit Frequenzen zu tun hat ist klar, und dass er sie erhöht oder senkt, ist durch die Erwähnung des Wortes Flankensteilheit auch logisch. Heißt also, Equalizer ist nur ein anderes Wort für Filter? Keineswegs. Ein Filter hat immer eine bestimmte Funktion auf einen Frequenzbereich bezogen. Ein Equalizer kann über mehrere sog. Bänder mehrere Frequenzbereiche gleichzeitig bearbeiten. Natürlich könnte man theoretisch auch mehrere Filter benutzen, aber das wäre viel zu umständlich. Mal davon abgesehen, dass viele EQs eine bessere Verarbeitung des Tons haben als ein Filter, da EQs nun einmal genau dafür gemacht sind, während Filter eher für grobere Soundeinstellungen sind, also um den groben Klang zu bekommen. Equalizer sind wesentlich genauer und haben ein größeres „Funktionen-Feld“. Bevor jemand fragt: Ja, man kann auch einen EQ anstatt eines Filter verwenden, das mache ich persönlich auch sehr oft.
Welche Regler gibt es?
Jeder, der jetzt mit vielen verschiedenen Bezeichnungen gerechnet hat, muss leider enttäuscht werden. An sich gibt es keine anderen Regler als bei Filtern. Im Fall eines Parametischen EQs wären das: Band Level, Band Frequency und Band Width (Flankensteilheit). Das Level ist die Stärke der Erhöhung oder Senkung, also um wie viel dB der Wert verändert werden soll. Die Band Frequency gibt die Grundfrequenz an, die bearbeitet werden soll, und die Band Width die Flankensteilheit. Also eigentlich nur Altbekanntes. Bei einem Graphischen EQ fehlen halt Band Frequency und Width, aber dafür gibt es viele Band Level. Diese sind entweder logarithmisch oder linear angegeben.
Wofür brauche ich einen EQ?
Man will ja nicht den Rahmen sprengen, deshalb alles in möglicher Knappheit, aber lasst mich so viel sagen: Ohne EQ wäre es höchstwahrscheinlich nicht möglich, einen guten Mix hinzukriegen. Ein Equalizer wird nicht nur genutzt, um dem Ton den richtigen Feinschliff zu geben, sondern auch um für den Ton „unwichtige“ Frequenzen herauszuschneiden oder zu senken, um „Platz“ für die anderen Töne im gesamten Mix zu machen. Wenn kein Input mit einem EQ bearbeitet werden würde, würden sich die einzelnen Instrumente, Vocals usw. nur stören und einander überlagern. Das würde sich am Ende einfach nur ungenau anhören und man hätte nicht annährend so viel Freude an der Musik. Das mit der Freude ist natürlich subjektiv, aber ich gehe davon aus, dass mir sehr viele zustimmen werden. Um aber ein praktisches Beispiel zu geben: Nehmen wir an, man macht einen Track für das Genre House. In diesem Genre sind starke, laute Sub Kicks (Focus bei ca. 50 – 100 Hz) nicht ungewöhnlich. Wenn man jetzt zur selben Zeit noch einen tieferen Lead Synth spielen hat, möchte man doch meinen, dass alles in Ordung ist, nicht? Nicht wirklich. Nicht nur kann ein Lead Synth auch mal runter bis 100 Hz (oder tiefer) gehen, auch spielt die Kick nicht ausschließlich im 50 – 100 Hz-Bereich. Der „Punch“ der Kick liegt darüber. Je nachdem, wie hell die Kick ist, kann das durchaus auch einmal in die 5 kHz gehen (oder noch höher). Es kann sein, dass man diesen Sound (im Bereich 5 kHz) bei der Kick will. Das ist auch kein Problem, dann muss man aber Side Chainen. Falls man aber wirklich nur die Sub-Kick will ohne Highs, dann sollte man diese einfach mit einem EQ entfernen. Warum? Ganz einfach. Dadurch kann sich der Lead Synth viel besser ausbreiten, da er keine anderen (in diesem Beispiel) Töne hat, die ihm diese Frequenzen „streitig machen“. Fall man sie nicht entfernen würde, müssten die Lautsprecher beide Frequenzen gleichzeitig abspielen und dann wird eine von beiden nicht mehr so gut hörbar sein. Im Falle einer sehr dominanten Kick (im House Genre nicht unüblich), wäre das wahrscheinlich der Lead Synth. Je weniger Frequenzen ihr für ein Instrument braucht, umso besser für die anderen, die diese sehr wohl brauchen. Macht einfach mal selbst den Vergleich (falls ihr selbst Musik produziert) und entfernt ungebrauchte Frequenzen der einzelnen Spuren. Ihr werdet sicher merken, was ich meinte. Falls man die Frequenzen allerdings auf dem Instrument behalten will, sollte man sich überlegen, Side Chaining zu verwenden, und einen Compressor aushelfen lassen. Was genau das ist, wird in einem anderen Beitrag geklärt.
Auch können wunderbar Störgeräusche entfernt werden. Falls man mit einem Synthesizer (mit dessen Sound man zufrieden ist) eine gute Melodie gefunden hat, aber ein komisches „Pipsen“ zu hören ist, das man einfach im Synth nicht wegbekommt, ohne den Sound komplett zu „zerstören“ (das ist natürlich ein Extremfall), kann man mit einem Peak-EQ mit hoher Flankensteilheit einfach über die Frequenzen gehen und nach diesem Geräusch suchen. Dass man es gefunden hat, merkt man, da es natürlich lauter wird (man muss freilich das Band Level aufdrehen). Wenn man ihn gefunden hat, einfach diesen Frequenzbereich herunterregeln und man hat einen viel sauberen Sound. Entweder dreht man dann noch das Gain hoch, damit der Ton nicht allgemein leiser wird oder man sucht sich eine Frequenzbandbreite, in der der Sound sehr gut definiert wird, und boostet diese. Das bleibt einem selbst überlassen, allerdings bevorzuge ich die zweite Variante.
Um nochmal ganz kurz auf den Feinschliff zurückzukommen: im folgenden Beispiel ist ein unbearbeiteter Synth zu hören:
Hier ist die fertige Version, also „im“ Compressor (EQ):
Reverb:
Ich kann mich an keine Soul- oder Balladen-Vocals erinnern, auf denen ich keinen Reverb hatte. Der Effekt ist dafür einfach zu gut. Zumindest finde ich das.
Was ist ein Reverb?
Reverb steht für Hall oder Nachhall, der synthetisch erzeugt wird.
Was wird simuliert?
Die Reflektion von Schall, der auf Wände, Menschen, Objekte oder Luft trifft, während Luft eher weniger „reflektiert“. In folgendem Tonbeispiel ist kein Reverb zu hören:
So klingt das Ganze mit Reverb:
Wie stellt man ein Reverb-Plugin ein?
Das kommt natürlich immer auf das eigene Empfinden an, aber ich kann euch erklären, was die einzelnen Regler machen. Im Gegensatz zum Finden des richtigen Sounds ist das Einstellen eines Reverbs einfach.
Da nicht jedes Reverb-Plugin gleich aufgebaut ist, werde ich hier nur kurz die relevantesten der Plugins erklären. Diese wären: Size/Room Size, Diffusion, Damp und Dry-Wet.
Dry/Wet: Dieser Regler macht nicht anderes als einzustellen, wie viel von dem Original-Input auch wieder zum Output gesendet werden soll. Wenn der Regler also auf 100% wet steht, hört man nur noch das pure Reverb-Signal. Dieser Regler wird manchmal auch Mix genannt oder in zwei einzelne Regler (Dry und Wet) aufgeteilt.
Room Size: Dieser Regler macht genau, was man erwartet. Er stellt die simulierte Größe des Raums, in dem sich die Tonquelle befindet, ein. Die Größe des Raums hat natürlich einen großen Einfluss auf den Sound.
Diffusion: Das ist sicherlich etwas schwerer zu erklären. Am einfachsten ist es, sich das Ganze wieder räumlich vorzustellen. Die beiden Bilder zeigen die räumliche Vorstellung. In folgender Grafik erkennt man einen Reverb mit einer sehr niedrigen Diffusion:
Wie man sieht, „befindet“ man sich in einem Raum mit wenigen Wänden. Die Auswirkung auf den Sound besteht darin, dass der Ton sehr schnell verschallt (um es einfach zu halten).
In folgender Abbildung erkennt man Reverb mit hoher Diffusion. Wie man sieht, ist es ein abgerundeter Raum. Der Sound „verschallt“ wesentlich langsamer:
Damping, zu deutsch dämpfend, ist ein Parameter. Er stellt die Dämpfung der hohen Frequenzen in dem Hallsignal ein. Dämpfung bezieht sich auf die Rate, bei der die hohen Frequenzen verstummen. Darum nennt man diesen Parameter auch High Damping. Ein hoher Damping-Wert lässt den Sound nur allmählich dämpfen, wodurch er wärmer wirkt.
Delay:
Das ist auch einer meiner absoluten Favoriten unter den Effekten. Bei diesem ist es auch wieder sehr wichtig zu beachten, dass es Input und Output gibt, die getrennt von einander gesehen werden müssen. Aber der Reihe nach:
Was ist ein Delay?
Die deutsch Übersetzung wäre Verzögerung und diese passt (oh Wunder) auch zu dem Effekt, denn er macht nichts anderes, als eine Verzögerung des Inputs zu erzeugen. Bei einer richtigen Verzögerung wäre der Original-Input natürlich nicht zu hören, da der Input ja verzögert wäre, aber bei einem Delay Plugin kann man einstellen, ob der Input (das Original-Signal) noch hörbar ist oder nur der Output (das Signal, das durch den Delay verändert wurde). Durch die Tatsache, dass man den Original-Input noch hört, könnte man zu Delay auch Echo sagen, aber die Bezeichnung ist eigentlich egal.
Welche Parameter hat ein Delay?
Wie immer kann man das pauschal nicht sagen, da kein Plugin genau gleich aufgebaut ist. Hier wollen wir uns (vorerst) mit den absoluten Standard-Reglern begnügen, nämlich: Sync, Panorama, Gain und Feedback.
Sync: Für ein gutes Delay ein sehr wichtiger Regler, der eigentlich nie fehlt. Dieser gibt an, in welchem Intervall der Output wiedergegeben werden soll. Das heißt also: Wenn der Sync Regler auf 1/4 gestellt ist und das Input-Signal durch den Delay geht, kommt nach genau einem Viertel-Takt (ja nach BPM [Beats Per Minute] halt schneller oder langsamer) der Output des Delays wieder – und das so lange, bis der Output nicht mehr hörbar ist. Der Sync Regler muss natürlich nicht auf genaue Taktwerte eingestellt werden. Man kann ihn auch über Millisekunden einstellen. Bei manchen Delays geht das auch, aber die meisten haben eine „Sync-with-BPM“-Funktion. Falls nicht, kann man auch einen BPM-in-MS-Rechner verwenden. Wichtig ist hierbei, dass das Output-Signal NICHT nochmals durch den Delay geht. Man kann sich Effekt-Racks gut als Kette vorstellen. Der Output des ersten Kettenglieds geht zu dem Input des nächsten usw. Das bedeutet, dass ein Plugin seinen Output nicht beachtet, den Output der Plugins allerdings schon.
Gain: Meißt wirkt der Gain-Regler für das Output-Signal, aber es kann auch vorkommen, dass es einen für das Input-Signal gibt. Das ist aber meistens beschriftet. Der Gain hebt das Output Signal auf den eingestelten Wert an. Wichtig: Dieser Wert ist NICHT von dem Feedback-Regler beeinflusst. Dieser wirkt nämlich erst auf das Signal nach dem Gain-Regler (zumindest im Normalfall).
Feedback: Wie bereits gesagt, wirkt der Feedback-Regler erst nach dem Gain-Parameter auf das Signal. Der Feedback-Parameter gibt ein Intervall an, in dem das Signal verstummen soll. Ein vereinfachtes Beispiel: Eine Mono-Signal,Snare spielt mit -7 dB FS (Dezibel Full Scale), der Gain habt das Signal auf -1 dB FS. Wenn man jetzt ein Feedback von -10 dB FS eingestellt hat, sind die dB FS Werte folgende: -7dB FS, -1 dB FS, -11 dB FS, -21 dB FS, -31 dB FS usw.
Panorama oder kurz Pan gibt das Verhältnis des Output-Signals auf dem linken und rechten Channel an. Wenn der Regler also ganz rechts steht, kommt auch nur auf dem rechten Ausgang ein Ton heraus – und umgekehrt.
Ein 1/4 Delay bei 140 BPM KÖNNTE sich dann so anhören:
Ich würde zwar noch wirklich gerne auf Vocoder, Chorus, Phaser usw. eingehen, aber der Beitrag ist schon länger als der erste und ich glaube, dass man an dieser Stelle eine „Pause“ machen kann. Im dritten Teil der Reihe werde ich dann wohl noch auch auf besagte Effekt zu sprechen kommen (oder vielleicht auch auf ganz bestimmte, bekannte Plugins). Ich gedenke auch, bald zum Mixing, Mastering und Song-Arrangement gelangen zu können. Jetzt hoffe ich, dass ihr den Beitrag informativ fandet und wünsche euch wie immer viel Spaß und Erfolg beim Musizieren.
Gastbeitrag von Lea Meesters und Amelie Dimke (Klasse 8d, Gymnasium)
Plastiktüten? Nein danke!
Plastiktüten stellen für uns Menschen sowie für Tiere eine große Gefahr dar. Nur ist uns das oft nicht bewusst. Plastiktüten gelangen häufig als Abfall in die Umwelt und von da aus in unsere Nahrung. Und wusstest du, dass eine Plastiktüte im Schnitt nur 25 Minuten in Gebrauch ist, dass für die Produktion einer 20g schweren Plastiktüte aber 40g Erdöl verwendet werden müssen? Warum aber benutzen wir dann Plastiktüten? Diese Frage haben wir uns gestellt und hier sind die Antworten:
– reißfest und stabil
– wasserabweisend
– billig in der Produktion
– günstig im Einkauf
– leicht und kompakt
Trotzdem aber schadet sie unserer Umwelt und bringt somit viele Nachteile mit sich:
– Nutzung von Erdöl bei der Produktion
– gelangt in unsere Nahrungskette
– viele Tiere verwechseln sie mit Nahrung
– langer Verrottungsprozess
Zwar kann die Plastiktüte für uns Menschen sehr nützlich sein, aber wenn wir uns ihre Nachteile anschauen, sollten wir dann doch lieber zum Stoffbeutel greifen. Lösungen, die ihr ganz einfach anwenden könnt, findet ihr unter der Rubrik Tipps und Tricks auf unserer Homepage safe-the-world0.webnode.com
Am Haupteingang unserer Schule hängt ein großes Schild. „Schule ohne Rassismus – Schule mit Courage“ steht darauf. Doch was bedeutet das eigentlich? Und ist es nicht einfach nur ein weiteres Blechschild von vielen? Nein! Ganz und gar nicht!
„Schule ohne Rassismus – Schule mit Courage“ ist eine Initiative, die 1988 von belgischen SchülerInnen und JugendarbeiterInnen ins Leben gerufen worden ist. Jetzt, 28 Jahre später, sind insgesamt 1.600 Schulen aus Belgien, Österreich, Spanien und Deutschland Teil der Initiative und setzten sich damit für einen fairen und guten Umgang miteinander ein.
Auch unsere Schule ist seit 2012 eine „Schule ohne Rassismus – Schule mit Courage“. Hier in Seligenthal setzt sich die Unicef-Schülergruppe für das Projekt ein.
„Schule ohne Rassismus – Schule mit Courage“ ist kein Zertifikat und keine Auszeichnung, viel mehr ist es ein Vertrag, mit dem sich die SchülerInnen, LehrerInnen und alle anderen „Angehörigen“ einer Schule DAUERHAFT dazu verpflichten, in Zukunft keine Art der Diskriminierung an der Schule zuzulassen, und einzuschreiten, falls jemand Opfer von Diskriminierung wird.
Um eine „Courage-Schule“ zu werden, müssen mindestens 70% aller an der Schule, das heißt alle, die dort lernen, lehren oder arbeiten, eine Vereinbarung im Sinne eines verbindlichen Vertrages unterzeichnen.
Die Verpflichtung bzw. der Vertrag beinhaltet folgende Punkte:
1. Ich werde mich dafür einsetzen, dass es zu einer zentralen Aufgabe meiner Schule wird, nachhaltige und langfristige Projekte, Aktivitäten und Initiativen zu entwickeln, um Diskriminierungen, insbesondere Rassismus, zu überwinden.
2. Wenn an meiner Schule Gewalt, diskriminierende Äußerungen oder Handlungen ausgeübt werden, wende ich mich dagegen und setze mich dafür ein, dass wir in einer offenen Auseinandersetzung mit diesem Problem gemeinsam Wege finden, zukünftig einander zu achten.
3. Ich setze mich dafür ein, dass an meiner Schule ein mal pro Jahr ein Projekt zum Thema Diskriminierungen durchgeführt wird, um langfristig gegen jegliche Form von Diskriminierung, insbesondere Rassismus, vorzugehen.
Neben diesen Punkten verpflichtet sich eine Schule außerdem dazu, Projekte und Infoveranstaltung zum Thema Rassismus und Diskriminierung anzubieten und so die Schüler darüber aufzuklären.
Denn die Worte Rassismus und Diskrimierung werden ständig von allen möglichen Personen in den Mund genommen und gerade in unserer Zeit, in der es viele Flüchtlinge in Deutschland gibt, ist Rassismus (leider noch immer) ein Thema.
Doch was ist Rassismus eigentlich und wie unterscheidet er sich von der Diskrimierung?
Diskriminierung bedeutet, dass Menschen aufgrung bestimmter Eigenschaften, beispielweise der Hautfarbe oder Behinderungen, ausgegrenzt oder nicht gleichwertig behandelt werden.
Rassismus geht dagegen noch einen Schritt weiter. Er „unterteilt“ die Menschen in verschieden „Rassen“ und lehrt, dass die eine „Rasse“ mehr wert ist als eine andere, und damit Menschen unterschiedlicher Herkunft, wegen eines anderen Glaubens oder einer anderen Weltsicht einen „minderen Wert“ haben. Der Rassismus der Nationalsozialisten ging so weit, dass Menschen einer aus ihrer Sicht „minderwertigen oder „unterlegenen“ Rasse nicht die gleichen Rechte haben (durften) wie Menschen, die zu einer „überlegenen Rasse“, zu der sich die Nazis zählten, gehörten. Der Hass der Nazis (v.a. gegen Juden und Sinti und Roma) steigerte sich ins Unermessliche, forderte Millionen Menschenleben und stürzte die halbe Welt in Tod und Elend. Somit ist der Rassismus eine sehr heftige Form der Dikriminierung und kann nie gedachte Ausmaße annehmen. Besonders gefährlich wird Rassismus dann, wenn er geduldet wird. Rechtsradikale und Rassisten versuchen noch immer, Stimmung gegen andere Menschen oder Menschengruppen zu machen.
Auch heute noch gibt es also Ausgrenzung, Hass und rassistische Hetze in aller Welt.„Schule ohne Rassismus – Schule mit Courage“ richtet sich gegen jede Form (nicht nur rassistischer) Ungerechtigkeiten an Schulen und leistet somit einen Beitrag für eine friedlicheundbunteGesellschaft – eben ohne Hass und Ausgrenzung.
Das Schild am Eingang zu unserer Schule ist nicht einfach nur ein weiteres Blechschild von vielen. Mit eurer Unterschrift UND der Entscheidung, auf unsere Schule zu gehen, verpflichtet ihr euch, dauerhaft gegen Rassismus einzutreten und zu einem guten Schulklima beizutragen.
Aber nicht nur IN der Schule müssen wir aufeinander schauen – auch AUßERHALB gilt die Verpflichtung. Die Initiative „Schule ohne Rassimus“ kann nur funktionieren, wenn alle mithelfen. Und diese Hilfe und Bereitschaft darf nicht aufhören, sobald man die Schule verlässt!