P-Seminare „Film“ besuchen Medien-Berufsschule in München

Am 02.02.2017 besuchten die „Filmseminare“ von Frau M. Fischer und Herrn J. Kaufmann im Rahmen der allgemeinen Studien- und Berufsorientierung die Städtische Berufsschule für Medienberufe in München.

Frau Fischer hatte zu diesem Zeitpunkt mit ihrem Seminar bereits den Kurzfilm „Herbstgeflüster“ gedreht, der mit dem niederbayerischen P-Seminar-Preis ausgezeichnet wurde. Nähere Informationen dazu finden sich hier:

Klicke, um auf LZ_P-Seminar-Preisverleihung.pdf zuzugreifen

http://gymnasium.seligenthal.de/lehrer-lernen/w-und-p-seminare/p-seminar-film-2015-17/

Ziel der Fahrt nach München war es nun, hinter die Kulissen der Produktion von audiovisuellen Medien und der dazugehörigen Berufe im Allgemeinen zu blicken. „Der Film“ ist dabei nur ein Teilbereich von vielen.

Es gab nicht nur viel Neues zu entdecken; vielmehr durften alle Beteiligte erfahren, mit welche (technischen und körperlichen) Herausforderungen die Ausbildungsberufe im Bereich Medien verbunden sind. Folgende Berufe kann man in München parallel zur Ausbildung im Betrieb „erlernen“:

  • Kaufmann/-frau für audiovisuelle Medien, 
  • Medienkaufmann/-frau Digital und Print, 
  • Buchhändler/in, 
  • Kaufmann/-frau für Marketingkommunikation
  • Fachangestellte/r für Medien- und Informationsdienste
  • Fachkraft für Veranstaltungstechnik

Berufsschullehrer Herr Peter Klostermaier begrüßte die Gruppe am Olympiaeinkaufszentrum. Nach einem kurzen Fußmarsch zur Berufsschule wurden die Kollegiatinnen und Kollegiaten in eine große Veranstaltungshalle geführt und mit grundlegenden Regelungen vertraut gemacht, die es bei der Ausbildung im Berufsfeld  Medien zu beachten gilt:

  • Dauer der Ausbildung: regulär drei Jahre
  • Blockbeschulung (mehrere Wochen im Ausbildungsbetrieb, danach Schule)
  • Verkürzung der Ausbildungsdauer möglich (abhängig von Leistung, Einsatz und Vorwissen)

Herr Klostermaier machte gleich zu Beginn deutlich, dass besonders in der Veranstaltungstechnik, also im technischen und logistischen Organisieren von Veranstaltungen, nicht nur fachliches Können, sondern vielmehr auch körperliche Fähigkeiten mobilisiert und abgerufen werden müssen: „Es kommt schon vor, dass man spontan am Wochenende einen Anruf bekommt und dann kurzfristig einspringen muss!“ Wenn ein Konzert vorbei ist, sei danach noch Abbauen und Einpacken angesagt. Die sehr teure Technik müsse dabei fach- und sachgerecht verstaut werden. Nicht selten werde man damit erst mitten in der Nacht fertig und müsse womöglich dann auch gleich zu einer anderen Veranstaltung weiterfahren. Das zehre natürlich an den Nerven und bedeute nicht selten ein großes Schlafdefizit, gerade auch während der Berufsausbildung.

Ein Highlight während des Aufenthalts in München war sicher die „Bühne“. „Zehntausende Euro an Wert reichen da nicht mehr“, meint Peter Klostermaier. Auch sei die Technik innerhalb weniger Jahre veraltet, was natürlich kontinuierlich hohe Ausgaben für den Schulträger bedeute.

img_20170202_111817

Die beiden P-Seminare im Bühnenraum: die Technik veraltet schnell und muss ständig auf den neuesten Stand gebracht werden

Im „Fernsehstudio“ bekam man einen Einblick in die Beleuchtungstechnik. Unzählige, an der Decke befestigte Scheinwerfer, bleiben dem Zuschauer vor dem Fernseher verborgen. „Die Kunst ist es, den Sprecher perfekt auszuleuchten, ohne dass noch irgendwo Schatten zu sehen sind. Das ist sehr schwierig!“, merkt P. Klostermaier an. Und er fügt hinzu: „Die Strahler werden sehr heiß und der Raum muss daher beständig gut heruntergekühlt werden. Aus diesem Grund arbeiten die Schüler auch mit Jacken hier drin.“

img_20170202_115914

Das „Fernsehstudio“: voller Technik, die auch fachmännisch bedient werden will

Ebenfalls beeindruckend war das „Tonstudio“. Schon beim Eintreten stellte sich ein eigenartiger Druck auf die Ohren ein. Die Dämmung an den Wänden sei dafür verantwortlich. Durch sie werde garantiert, dass möglichst wenig Schall von den Wänden zurückgeworfen wird, was bei Aufnahmen den Originalklang der Stimmen und Instrumente konservieren soll.

Sogleich wurde diese einmalige Akustik auch von einem Schüler getestet; das Schlagzeug klang viel lauter als auf freier Bühne – ein erwünschter Nebeneffekt der Dämmung an den Wänden. „Manche unserer Schüler bekommen Kopfschmerzen, wenn wir hier länger drin sind“, erzählt P. Klostermaier. Auch für uns war es zu Beginn etwas befremdlich in diesem klanglich sterilen Raum – einige hielten sich daher die Ohren zu.

img_20170221_202613_553

Im „Tonstudio“ mit Berufsschullehrer P. Klostermaier: nicht jeder Auszubildende kann sich hier länger aufhalten, da die Akustik nicht der entspricht, die man normalerweise aus dem alltäglichen Leben gewohnt ist

img_20170202_123314

Die „Schaltzentrale“ eines jeden Tonstudios ist der Bereich hinter dem Sichtglas. Hier befinden sich sog. Monitorlautsprecher, Mischpulte und die eigentliche Technik. Aber „Fachwissen ist nicht alles“, weiß P. Klostermaier (links). „Wenn jemand feine Nuancen, Töne und Frequenzen nicht hört, ist er für das Tonstudio nicht geeignet!“

In einem weiteren „Klassenzimmer“ werden die Azubis in Sachen Bühnenplanung geschult. Dabei kommt hochkomplexe IT-Software zum Einsatz, die nicht nur ein gutes räumliches Denken (vgl. Raumkonstruktion) voraussetzt, sondern auch grundlegende Statik-Kenntnisse, wenn es z. B. um den Aufbau der Bühnenkonstruktion geht, die sehr viel wiegt und fachmännisch unter vollem Körpereinsatz zur Sicherheit aller Beteiligter befestigt werden muss. Aber nicht nur hierbei gilt es, rechtliche Vorgaben einzuhalten und für die Sicherheit der Menschen auf der Bühne sowie der Besucher zu sorgen. Die Feuerwehr weiß ab einer gewissen Besucheranzahl bei Veranstaltungen immer schon vorher, wann welches Lied gespielt wird, wie lange es dauert und wie viele Zugaben es geben wird.

Zum Abschluss der „Tour“ durch die Berufsschule durfte unsere Gruppe noch selbst „Hand anlegen“ und praktische Erfahrungen sammeln. So galt es, ein Mischpult mit dem Smartphone zu verbinden und zunächst eine Tonspur (Musikstück), dann eine zweite „einzumischen“, um die einzelnen Klänge zu überlagern – ein typischer Kniff unter DJs und bei Veranstaltungen aller Art. Die Verkabelung stellte sich trotz der „Einsteigerübung“ als höchst anspruchsvoll heraus und verlangte den Kollegiaten einiges an vorausschauendem Denken, technischem Verständnis und Feinjustierung ab.

Unser technisches Wissen wurde noch erweitert: gewissen Mikrofonen an Mischpulten konnte nur dann ein Ton entlockt werden, wenn man auch die Bauweise und die technischen Spezifikation berücksichtigte. Kondensatormikrofone (dünne Membrane, die durch einen Luftspalt getrennt sind) benötigen beispielsweise eine sog. Phantomspeisung mit 48 Volt. Nur bei entsprechendem, korrekten Anschluss an das Pult – eine gleichzeitige Aktivierung der Phantomspeisung über einen kleinen Druckknopf vorausgesetzt – kann überhaupt mit dem Mikrofon gearbeitet werden.

Der Tag in München war für alle äußerst informativ und gewinnbringend. Besonders das viele Fachdisziplinen umfassende, geforderte Know-How, und die mitunter anspruchsvollen Arbeitszeiten und -bedingungen lassen erahnen, was man in modernen Medienberufen können und leisten muss!

Erfindungen: Das moderne Heute

Natürlich muss man in der Welt Fortschritte machen, beispielsweise in der Wissenschaft oder in der Medizin. Aber die meisten der neuen Erfindungen sind häufig ohne echten praktischen Nutzen und im Grunde genommen ein Rückschritt! Dieser Artikel widmet sich besonders den Gefahren, die von der Technisierung unserer modernen Welt ausgehen.

caveman-159359_960_720

Nehmen wir zum Beispiel den selbstfahrenden Staubsauger. Die meisten denken sich, dass das gut ist, aber man kann auch schlichtweg einen gewöhnlichen Staubsauger nehmen, das Kabel in die Steckdose stecken und durchsaugen. Viele eifern mit dem Kauf dieser „Gadgets“ Bekannten nach oder lassen sich von der Werbung beeinflussen. Aber warum sollten solche Erfindungen ein Rückschritt sein? Im Grunde genommen scheint es doch ganz gut, wenn man selbst nicht mehr viel machen muss, oder? Falsch gedacht! Je mehr Produkte auf den Markt kommen, bei denen man zum Beispiel nur klatschen oder schnipsen muss, um sie zu aktivieren, umso weniger bewegt man sich. Das ist besonders problematisch, wenn man bedenkt, dass die heutige Berufswelt ohnehin schon eine ist, in der man zu viel sitzt. Der Mensch bewegt sich also kaum mehr und es ist mittlerweile statistisch erwiesen, dass Fettleibigkeit in modernen Industriegesellschaften immer weiter zum Problem wird.

Ebenso fragwürdig sind selbstfahrende Autos. Beim Autofahren bewegt man sich zwar auch nicht, allerdings gibt man hierbei nicht nur die Kontrolle an eine Maschine ab, sondern in diesem Fall auch das eigene Leben und das anderer, wenn die Maschine einen Fehler macht. Natürlich machen auch Menschen im Straßenverkehr Fehler. Dennoch sollte man sich überlegen, ob wir immer mehr davon aufgeben möchten, was uns als Menschen vor allen anderen Lebewesen auf diesem Planeten derart einzigartig macht: der Verstand, das logische (verantwortungsbewusste!) Denken, kurz: die Fähigkeiten unseres eigenen Gehirns!

robot-148989_960_720

Für viele ist es eine tolle Vorstellung: ein Roboter erledigt die mühsame Hausarbeit, geht für uns einkaufen, tröstet uns oder ist ein Begleiter im Alltag – doch Maschinen können Menschen vor allem im zwischenmenschlichen Bereich niemals ersetzen!

Ein zweites Beispiel ist das „intelligente“ Haus. Darin sind so gut wie alle Dinge „intelligent“. Man schnipst einmal, die Lampe geht an. Zweimal schnipsen – und die Kaffeemaschine macht einen Kaffee. Ich frage mich: wofür braucht  man das? Wenn bei uns  daheim Besuch da ist, und es gibt zum Beispiel Kaffee, finde ich es immer wieder erheiternd und auch spannend, dabei zuzuschauen, wie die Kaffeemaschine arbeitet und wie man sie bedient. Aufstehen und den Kaffee holen muss man ohnehin. Da kann man ihn doch gleich selbst machen. Vielleicht, besser gesagt bestimmt, wird es  irgendwann Roboter geben, die fast alles für uns erledigen. Natürlich wird es wie heute auch in Zukunft Menschen geben, die die oben beschriebene Entwicklung nicht unterstützen oder zumindest nicht gutheißen – vor manchen Dingen kann man sich aber nie ganz „schützen“, weil man Teil der Gesellschaft ist, in der man lebt. Man bedenke die digitale Welt, die es heutzutage von fast allen Bevölkerungsgruppen verlangt, grundlegende IT-Kenntnisse vorweisen zu können, um im Alltag und vor allem im Beruf bestehen und vorankommen zu können.

Vorteile der o.g. Innovationen gibt es natürlich auch, wie zum Beispiel die einfache Bedienung, die gerade für alte Menschen weniger Anstrengung bedeutet.

Auch das Handy ist (eine zugegeben nicht mehr ganz so) moderne Erfindung. Fast überall sieht man immer jüngere Kinder mit dem Handy. Da denke ich mir nur: warum? Ist es nicht viel schöner, als Kind draußen zu spielen, sich zu bewegen oder im gemütlichen Heim etwas zu malen? Wir werden von allen Seiten beschallt, da wäre „abschalten“ durchaus einmal angesagt!

mobile-phone-1917737_960_720

So viele Freunde, so viele Apps: die Zahl von Diensten und potentiellen Verpflichtungen überfordert laut Forschern nicht nur Kinder und Jugendliche, sondern zunehmend auch Erwachsene!

Fazit: Natürlich gehen zu diesem Thema die Meinungen auseinander. Man könnte „ewig“ weiterdiskutieren und immer wieder neue positive oder negative Aspekte finden, die für bzw. gegen moderne technische Innovationen sprechen. Für mich ist die Welt schon modern genug, für andere nicht. Zum Glück haben wir (ja noch) unseren funktionierenden Verstand. Dank ihm können, ja dürfen wir selbst entscheiden, welchen Weg wir gehen wollen. Hoffentlich endet er nicht in einer Sackgasse!

Das Känguru der Mathematik

Bald findet bei uns, wie auch an vielen anderen Schulen, der Känguru-Wettbewerb statt. Es ist ein mathematischer Wettbewerb für rund sechs Millionen Teilnehmer in über 60 Ländern weltweit.

math-1547018_960_720

Beim Känguru-Wettbewerb wird am 3. Donnerstag im März überall fast exakt zur selben Zeit ein Test geschrieben. Dieser Test ist ein freiwilliger Klausurwettbewerb, der unter der Aufsicht an Schulen geschrieben wird. Die freiwillige Teilnahme am Wettbewerb ist für alle Schülerinnen und Schüler der Klassen 3 – 13 aller Schularten möglich . Um teilzunehmen, muss das Einverständnis des Teilnehmers bzw. das des Erziehungsberechtigten vorliegen.

Für jede Klassenstufe gibt es jeweils altersgerechte Aufgaben, für die die Teilnehmer 75 Minuten zum bearbeiten haben. Wenn man dabei sein möchte, kann man auch den  Lehrer oder die zuständige Lehrerin für Mathematik fragen. Diese werden sicher all eure Fragen beantworten.  Wenn das immer noch nicht reicht, kann man sich auch auf der offiziellen Webseite informieren:

http://www.mathe-kaenguru.de/index.html

Nach der Teilnahme am Wettbewerb erhält jeder Teilnehmer eine Urkunde mit der erreichten Punktzahl und dazu eine Broschüre mit den Aufgaben, Lösungen und weiteren mathematischen Knobeleien sowie einen ,,Preis für alle“.

Für die deutschlandweit Besten gibt es erste, zweite und dritte Preise und an jeder Schule erhält der Teilnehmer mit dem weitesten ,,Kängurusprung“ ( d.h. der größten Anzahl an aufeinanderfolgenden Punkten im Test) ein T-Shirt. Es gibt aber auch noch andere tolle Preise zu gewinnen.

Allen Teilnehmern wünschen wir viel Spaß und Erfolg!

kangaroo-1995843_960_720

 

Mit welcher „Neuheit“ feiert Apple sein zehnjähriges iPhone-Jubiläum?

Apple feiert dieses Jahr zehnjähriges iPhone-Jubiläum.

Viele sagen, dass das iPhone 7 einfach nicht viel anders ist als das iPhone 6 und daher braucht Apple schnellstmöglichst eine Lösung. Schwache iPhone-7-Verkäufe werden dafür sorgen, dass Apple in diesem Jahr mit einem stark verbesserten und innovativen iPhone wieder rekordverdächtige Absatzzahlen vorlegen kann, so offenbar die Theorie vieler Business-Insider. Sie gehen davon aus, dass in den kommenden Quartalen der Anteil der iPhone-Nutzer, die ein über zwei Jahre altes Smartphone-Modell besitzen, auf 43 Prozent ansteigt und dass diese Kunden ein Geräte-Upgrade anstreben. Viele Apple-Nutzer würden auf das iPhone 2017 warten und daher auf einen Umstieg auf das im vergangenen September gelaunchten iPhone 7 verzichten.

iphone

Das Iphone – hier in einer früheren Version – ist ein teurer Spaß. Das Gerät der aktuellen Generation kostet etwa 700€ ohne Vertrag!

Dass Apple in diesem Jahr kein iPhone 8, sondern zwei Versionsnummern auslassen und ein iPhone 10 vorstellen wird, erscheint nicht ganz abwegig. Schließlich feiert das Apple-Smartphone dieses Jahr seinen zehnten Geburtstag: am 9. Januar 2007 zeigte der mittlerweile verstorbene damalige Apple-Chef Steve Jobs in San Francisco das erste iPhone als Kombination aus Telefon, Musikplayer und Internetzugang.

jobs

Apple-Gründer Steve Jobs in einer künstlerischen Umsetzung, auch „artwork“ genannt

Das Gerät galt schon bei seinem Erscheinen als revolutionär, weil es eine komfortable Touchscreen-Steuerung, einen vollwertigen Web-Browser sowie ein schnell und flüssig arbeitendes Betriebssystem bot. Das für dieses Jahr erwartete iPhone könnte als neueste Features „kabelloses Laden des Akkus“ und einen „Smart Connector“ zum Anschluss z. B. für das iPad Pro mitbringen. Gerüchten zufolge wird das Gerät zudem ganz in Glas gehüllt sein und Apple zumindest einige Einheiten mit einem OLED- statt mit einem IPS-LCD bestücken. Manche gehen davon aus, dass die Vorderfläche des 2017er-iPhone fast gänzlich vom Bildschirm eingenommen wird und Home-Button und Fingerabdrucksensor in das Display integriert werden. Berichte, denen zufolge Apple auf ein kabelloses Design setzen und sogar den Lightning-Port streichen wird, erscheinen dagegen eher unglaubwürdig.

Bei aller Technikbegeisterung sollte man sich fragen, ob man wirklich ein iPhone braucht oder ob man nicht auf ein anderes Smartphone zurückgreift, das Ähnliches bietet und dennoch viel günstiger ist. Es gilt zu beachten, dass man mit einem Gerät der Marke Apple auch immer die Marke mitbezahlt. Für manche mag das als Statussymbol gelten; ob man das wirklich braucht, ist allerdings fragwürdig.

Kettenbriefe – einfach nur Viren?

Jeder hat schon einmal welche auf WhatsApp bekommen: Kettenbriefe. Aber sind auch wirklich alle nur Viren?

Häufige Kettenbriefe sind solche, die euch neue Emojis versprechen: ,,Willst du einen Emoji mit Herz-Mund? Dann schicke diese Nachricht an 15 Kontakte!“, kann man häufig lesen. Aber stimmt das? Ich selbst habe es versucht und es hat nicht funktioniert.

emoji

Ein typisches Emoji, wie es in einem Kettenbrief versprochen wird. Dabei gibt es genügend Emojis in den Apps selbst, sodass man gar keine neuen braucht.

Zur Halloween-Zeit gab es Kettenbriefe, in denen über die Horror-Clowns berichtet wurde. Wenn man diesen Kettenbrief weitergeschickt hat, übermittelte man den Absendern des Briefes seinen eigenen Standort. Eure ganz persönlichen Daten bzw. eure Privatsphäre sind somit durch sog. Kettenbriefe in Gefahr!

Es gibt auch Kettenbriefe, die euch große Versprechungen machen, z.B.:,, Wenn du jetzt die Fragen beantwortest hast, dann schicke diese Nachricht an 5 Kontakte. So bekommst du in der nächsten Ex oder Schux eine 1! Wenn du es an 10 Kontakte schickst, findest du deine wahre Liebe. Wenn du es an 15 Kontakte schickst, geht beides in Erfüllung.“ Aber ob man eine gute Note schreibt, hängt nur davon ab, ob man gelernt hat oder nicht. Die wahre Liebe findet man durch das Versenden dieser Nachrichten ebenfalls nicht. Deswegen darf man solchen Nachrichten NIE Glauben schenken und muss ganz vorsichtig sein. Die Absender solcher Briefe wollen in erster Linie an eure Daten: Kontakte, Bilder, Standort – die Daten werden teilweise für viel Geld verkauft. Im schlimmsten Fall versteckt sich hinter solchen Kettenbriefen Viren / Trojaner, die sich in euer System einnisten und euch ausspionieren oder eure Daten beschädigen.

Hier sind ein paar Tipps zum Umgang mit Kettenbriefen:

1. Bei der Aufforderung „Bitte an X Leute weiterleiten“ Nachricht sofort löschen!

2. Kettenbriefe – egal ob per Whatsapp oder E-Mail- einfach löschen!

3. Auf keinen Fall Geld überweisen, auch wenn es noch so seriös oder ernst klingt!

4. Niemals persönliche Daten preisgeben!

5. Anhänge nie öffnen – sie können Viren enthalten!

6. Bekommst du einen Kettenbrief von einem Freund oder einer Freundin, dann kläre sie / ihn auf und bitte darum, in Zukunft keine derartigen Dinge mehr an dich zu verschicken.

Falls der Kettenbrief von einer fremden Nummer / einem fremden Absender kommt, lösche zuerst den Brief bzw. die Nachricht und danach den Kontakt! Manche Absender geben vor, offizielle Vertreter z. B. von einer Bank, einem Messaging-Dienst oder eines Gerichts zu sein. Ignoriert und löscht diese Nachrichten sofort und reagiert niemals darauf, auch wenn die Absender hartnäckig sind oder euch sogar drohen!

Kettenbriefe gibt es nicht erst seit gestern. Früher hat man auf Pergament oder Papier Texte geschrieben und sie per Post ausliefern lassen. Heute werden Kettenbriefe aber vor allem dazu genutzt, unbescholtene Internetnutzer auszutricksen und sie somit um ihr Geld oder um ihre Daten zu bringen. Manchmal geht es den „Machern“ von Kettenbriefen auch einfach nur darum, andere Menschen absichtlich zu verängstigen. Das ging so weit, dass sich jemand einen Spaß daraus machte, Grundschüler mit Mord zu bedrohen:

http://www.stern.de/action/7097106/videoembed?video=7061102

Zusammenfassend kann man also sagen: Kettenbriefe sind nicht immer gefährlich, können aber gefährlich werden. Ignoriert sie und löscht Nachricht samt Absender!

Der Flughafen München

munich-airport-2006118_960_720

Der Flughafen München ist der zweitgrößte Flughafen in Deutschland. Hinter dem Flughafen Frankfurt kommt er an zweiter Stelle mit jährlich rund 41 Millionen Passagieren. Am 17.05.1992, also vor etwa 24 Jahren wurde der heute als einer der besten Airports der Welt in Betrieb genommen. Der Betreiber des internationalen Flughafens ist die “Flughafen München GmbH“ (kurz: FMG). Der Freistaat Bayern hat einen 51-prozentigen Anteil, die Bundesrepublik Deutschland einen 26-prozentigen und die Stadt München ist mit 23% an dem Flughafen beteiligt. Der Flughafen befindet sich etwa 28 Kilometer von München entfernt.

Der Flughafen München verfügt über 2 Terminals, dem Terminal 1 und dem Terminal 2, mit dem neuen Terminal 2 Satellit. Das Terminal 1 ist für Passagiere von Lufthansa und andere Star-Alliance-Mitglieder (ein Zusammenschluss von mehreren Fluggesellschaften). Zudem verfügt der Airport über zwei parallele Start- und Landebahnen, die jeweils 4000 Meter lang un 60 Meter breit sind. Die nördliche Start- und Landebahn wird benutzt, um die Flieger, die aus dem Norden kommen, starten starten und landen zu lassen, die Südbahn ist für alle nach Süden startende und von Süden kommende Flugzeuge da. Von 6 bis 22 Uhr ist das Landen ohne besonderen Grund möglich, danach geht das nur mit spezieller Genehmigung.

Derzeit fliegen 97 Airlines zu 247 Destinationen in 70 Ländern, die meisten Flüge werden von Lufthansa, inklusive Lufthansa Cityline, gestartet. An zweiter Stelle liegt airberlin.  Der internationale Flughafen ist durch Buslinen von der Innenstadt Landshut gut zu erreichen.  Auch die MVV verbindet den Flughafen mit Freising und Erding. Ebenso verbinden die S-Bahnen S1 und S8 den Flughafen mit dem Hauptbahnhof und der Innenstadt München. Auch Flix- und Postbusse geben die Möglichkeit, weite Teile Deutschlands sowie die umliegenden Gegenden zu erkunden. Für das neue Jahr wird wieder ein starker Passagieranstieg erwartet.

Air Force One (AFO): Das Flugzeug des amerikanischen Präsidenten

Die Air Force One, das Flugzeug des Präsidenten der USA, ist aus vielen Filmen bekannt, wie beispielsweise dem Film ,, Air Force One“.

air-force-one-583682_960_720

Die Air Force One (kurz : AFO) ist eine 747-200 des amerikanischen Flugzeugherstellers Boeing. Die AFO ist im Besitz der US Air Force und existiert nur einmal. Die “aktuelle“ AFO ist ein Nachfolger von vielen anderen Flugzeugen von verschieden Herstellern. In den nächsten Jahren wird die aktuelle 747-200 durch eine Boeing 747-8 ersetzt . Bei jeder Ankunft, wie zuletzt in Hannover oder dem G7-Gipfel auf Schloss Elmau, kommen viele Luftfahrtbegeisterte zu den Flughäfen, um bei der Ankunft des „hohen Besuchs“ dabei zu sein – und vor allem die Maschine des Präsidenten zu begutachten.

Jede Flüge des Flugzeuges werden drei Tage vorher festgelegt, damit man die Begleitung von Tank- und Frachtflugzeugen planen kann. Neben der Air Force One gibt es auch noch eine kleinere Air Force Two; diese ist eine Boeing 757. In Hannover kam vor kurzem der aktuell amtierende amerikanische Präsident Barack Obama das letzte Mal in seiner Amtszeit an Bord der Air Force One nach Deutschland. Die Nachfolger werden dann mit der brandneuen Boeing 747-8 fliegen.

Fakten übers Fliegen

airplane-145889_960_720

Fliegen ist fast so normal geworden wie Autofahren. Es gibt aber viele interessanteFakten, die die meisten Leute nicht kennen. Hier folgen ein paar wissenswerte, verblüffende und lustige Informationen zum Thema Fliegen und Flugzeuge:

  • gerade befinden sich etwa 70.000 Menschen in der Luft
  • jährlich gibt es mehr als 3.000.000.000 Flugreisende
  • die Zahlen 13, 17 und 666 kommen in keiner Sitzplatzreihe, Flugnummer und an keinem Gate vor (wegen des Aberglaubens)
  • ein Pilot darf jemanden während des Fluges verhaften
  • die Wahrscheinlichkeit, bei einem Flugzeugabsturz zu sterben, liegt bei 0,000012 %
  • theoretisch startet alle 30 Minuten ein Flug von London nach New York
  • der kürzeste Flug der Welt dauert weniger als 2 Minuten, welcher zwei Inseln in Schottland verbindet
  • der längste nonstop verkehrende Flug dauert 18 Stunden und verbindet Singapur mit New York
  • das längste Flugzeug (die Antonov An-225) ist 84 Meter lang
  • ein Kilogramm Übergewicht kostet bei der Lufthansa rund 30 Euro Aufpreis
  • 25.000.000 Gepäckstücke wurden 2009 beschädigt
  • ein schwedischer Pilot ist 13 Jahre ohne Pilotenlizenz geflogen

Der Flugfunk

Die Piloten machen das schon? Von wegen! Ohne die vielen fleißigen Helfer in den Towers auf den Flughäfen am Boden und weiterer Beteiligter könnte der Flugbetrieb nicht sicher gewährleistet werden!

bario-1589516_960_720

Piloten leisten viel und tragen eine große Verantwortung. Für einen reibungslosen Ablauf ohne Zwischenfälle im Flugverkehr sorgen aber vor allem auch die Fluglotsen!

Das Flugzeug ist das einfachste und nach wie vor sicherste Fortbewegungsmittel, um von A nach B zu gelangen. Doch was im Cockpit vor sich geht, weiß kaum einer genau. Bei den Piloten sowie bei den Fluglotsen wird nur Englisch geredet. Allerdings wird vom normalen Englisch abgewichen.  So sagt man beispielsweise statt three (deutsch: drei)  “tri“.

Wenn der Pilot beispielsweise die Fluglotsen fragt, ob er mit seinem Flugzeug die Landebahn überqueren darf, um an das Terminal oder eine bestimmte Position zu gelangen, fragt der Pilot: “ May we cross? “ (deutsch: dürfen wir überqueren?). Der Fluglotse erwidert nicht “No, hold position“ (deutsch: Nein, behalten sie die Position),  sondern entgegnet “Negative, hold  position. Incoming traffic“ (deutsch: Negativ, behalten Sie Ihre Position, einkommender Flugverkehr“). Dies sagt der Fluglotse um Verwechslungen zu vermeiden und wiederum Unfällen vorzubeugen. Er gibt dem Piloten also unmissverständliche Informationen an die Hand.

tower-1379715_960_720

Der Arbeitsplatz der Fluglotsen: die Damen und Herren mit den Ohrschützern und Warnwesten auf den Landebahnen sind, wie viele meinen, keine Fluglotsen, sondern Einweiser.

Doch es gab bereits zahlreiche Unfälle, die durch die falsche Verständigung zwischen Fluglotse und Pilot herbeigeführt wurden.  Beispielsweise war dies auf Teneriffa der Fall, wo am 27.03.1977 eine Boeing 747 der niederländischen Fluggesellschaft KLM startete, obwohl eine Pan Am Boeing 747 die Startbahn noch nicht verlassen hatte. Dabei fuhr die 747 der KLM ohne Erlaubnis zum Start. Die Piloten der KLM verstanden die Antwort des Towers schlichtweg falsch. Nach diesem Unglück wurde der Flugfunk ,,überarbeitet“, sodass heute nicht mehr viel falsch verstanden werden kann.

Nice to know: Das Einstiegsgehalt eines Fluglotsen beträgt 6000 bis 8000 Euro (Brutto), das eines Piloten liegt durchschnittlich bei 15.000 Euro monatlich.

Moderne Musikproduktion Teil 2

Moderne Musikproduktion Teil 2_Cover

Ich begrüße euch zum zweiten Teil der Beitrags-Reihe „Moderne Musikproduktion“.

Um was geht es?

In diesem Teil geht es um die Funktionen und Benutzung von Plugins, also entweder Virtuellen Instrumenten oder Effekten. Dabei werden wir bei den Instrumenten eher auf die Grundprinzipien eingehen, da ja nicht jedes Plugin gleich ist, und bei den Effekten wollen wir uns den Themenfeldern EQ (Equalizer), Compressor, Multiband Compressoren, Reverb und Delay genauer widmen sowie auf deren Funktionsweise eingehen. Ich hoffe ihr freut euch genau so wie ich, aber bevor wir anfangen, hole ich noch kurz etwas nach, was im letzten Beitrag gefehlt hat.

Welche DAW passt zu mir oder welche ist die beste?

Das ist die wahrscheinlich am häufigsten gestelle Frage in der weiten Welt der Musikproduktion und keiner kann eine genaue Antwort liefern. Allerdings gibt es doch so ein paar Dinge, bei denen man sich einig ist, den Rest muss man für sich selbst entscheiden. Ich hoffe, die folgenden Tipps werden dir in der Wahl deiner DAW helfen.

Welche DAW wofür?

Es gibt drei hauptsächliche Anwendungsbereiche für DAWs. Man kann natürlich jede DAW für alle Bereiche verwenden, aber manche eignen sich halt besser als andere. An dieser Stelle möchte ich auch darauf hinweisen, dass genauere Tutorials zu den einzelnen DAWs in Zukunft kommen werden.

Auftritte Live: Dafür wird fast immer Ableton Live benutzt. Es hat das Live ja schon im Namen. Die beliebte DJ-Software bringt nämlich alles, was man für einen gelungenen Live-Auftritt braucht, hat aber auch alles, was man für Home Recording benötigt. Sie ist sehr bekannt und die meisten Tonstudios haben es auf mindestens einem Rechner laufen. Warum also auf eine andere zurückgreifen? Ganz einfach. Die Steuerung ist gewöhnungsbedürftig und mit 600€ für die „Vollversion“ (Suite) auch nicht gerade günstig. Es gibt auch eine Version für 350€ (Standard). Dieser fehlen allerdings relativ viele gute Sounds und nur 3 von 9 vorinstallieren Instrumenten sind vorhanden. Über die 80€ (Intro)-Version will man gar nicht reden. Soll heißen: eingeschränkte Funktionen, nicht mal ein Drittel aller Sounds und fehlende Effekte raten schon alleine von dieser Version ab. Alternative? Cubase! Niemand geringeres als Skrillex selbst verwendet auch für seine Live-Auftritte Cubase und das, obwohl es hauptsächlich für Home Recording verwendet wird – ein perfektes Beispiel dafür, dass es auf die Verwendung ankommt und nicht auf die DAW.

Home Recording: Cubase, FL Studio, Reaper, Ableton Live, Pro Tools, Logic Pro X, Reason, Studio One und sogar das von mir nicht sehr geschätzte Sonar X3 kann man dafür verwenden. Jede DAW, die es gibt, eignet sich dafür, da das der  Hauptanwendungsbereich ist. Hier hilft nichts als Testen oder sich im Fachhandel erkundigen.

Mixing und Mastering: Ich, der den Beruf des Audio Engineers anstrebt, werde hier einen Mastering-Experten zitieren: „Pro Tools! Punkt!“ Mit diesen weisen Worten wäre alles gesagt. Naja fast. Es ist einfach so, dass eigentlich alle großen Tonstudios Pro Tools verwenden. Das liegt einfach daran, dass es für diesen Bereich (Mixing und Mastering) optimiert ist, beispielsweise durch Funktionen wie den Over-Sampling-Mode. Die Audioverarbeitung ist einfach ideal einstellbar und es bietet alle Funktionen, die man braucht.

Nun aber zurück zum eigentlichen Thema:

Plugins:

Es gibt leider nicht nur „das Plugin“. Es gibt eine Vielzahl von Plugins. Wir schauen uns ganz kurz VST, AAX, AU und RTAS an.

VST: Das ist die Abkürzung für Virtual Studio Technology. Das ist das von Steinberg Media Technologies entwickelte Software-Protokoll. Es gibt eine große Anzahl an VST-Plugins, viel zu viele, um alle zu nennen. Fast alle DAWs können VSTs benutzen. Pro Tools ist eine Ausnahme, aber mit Bridgern (einem Umwandlungsprogramm) geht auch das.

AAX: Avid Audio Extension. Das ist ein speziell für Pro Tools entwickeltes Software-Protokoll. Es wird ausschließlich von Pro Tools verwendet, ist also eher selten anzutreffen. Viele Entwickler müssen ihre Plugins immer noch in das AAX-Format umwandeln, auch wenn die Zahl immer kleiner wird, doch viele machen sich diese Mühe nicht, was Pro Tools aber nicht wirklich schadet, da es schon alles Wichtige hat.

RTAS: Das steht für RealTimeAudioSuite. Das war das erste ausschließlich für Pro Tools entwickelte Software-Protokoll. Seit Version 10.8 wird dieses aber nicht mehr unterstützt, weshalb es eigentlich nicht mehr vorkommt.

AU: Die Abkürzung für Audio Unit ist ein von Apple entwickeltes Format für Plugins. Logic benutzt ausschließlich diese Format, aber die meisten anderen DAWs, die auf einem Mac laufen, verwenden auch VSTs.

Wie verwende ich Plugins?

Die Antwort zu dieser Frage ist natürlich von DAW zu DAW unterschiedlich. Wenn man aber einmal weiß, wie es geht, ist es ganz einfach. Meist reicht es, die Standard-Installation auszuführen, und beim Starten der DAW wird das Plugin automatisch erkannt. Dann muss man nur noch wissen, wie man es in der DAW selbst öffnet.

Instrumente:

Es gibt eine immense Anzahl an Virtuellen Instrumenten in allen möglichen Preisklassen. Aber einige Funktionen sind bei den meisten vertreten.

Sampler: Dabei handelt es sich um die einfache Art der Virtuellen Instrumente. Sampler spielen aufgenommene Töne ab und transponieren diese bei Bedarf. An sich gibt es zwei Arten von Samplern. Die einen benutzen Sounds, die ihnen manuell vorgegeben werden (wie Drum Machines), die anderen arbeiten mit Presets oder Soundfonts. Soundfonts sind in einem Format gespeicherte Samples und Parameter-Beschreibungen, die mit SoundFont-Playern abgespielt werden.

Synthesizer: Diese Instrumente sind wesentlich komplexer. Sie generieren nämlich selbst Sounds. Wie das funktioniert, ist ein Kapitel für sich, aber die Funktionen von einem Synthesizer werde ich euch versuchen näher zu bringen – wobei man nicht ganz an der Erzeugung des Tons vorbeikommt. Ganz kurz: Ein Ton setzt sich zusammen aus Schalldruckpegel (gemessen in Dezibel [dB]) und Frequenzen  (gemessen in Hertz [hZ]). Bei einem synthetisch generierten Ton sind dann noch Parameter wie Bit-Tiefe und Samplerrate wichtig, aber die lasse ich jetzt mal außen vor, da sie für diese Erklärung keine Rolle spielen. Der Schalldruckpegel bestimmt die Lautstärke eines Tons und die Frequenzzahl die Höhe. Hertz ist an sich nur eine Umschreibung für Schwingungen pro Sekunde. Also sind 100 hZ 100 Schwingungen pro Sekunde. Aber Schwingungen von was? Dafür muss man wissen, dass sich Geräusche wie Licht ausbreiten, also in Wellenform. Je schneller diese Welle schwingt, desto höher ist der Ton. Die Lautstärke wird dadurch bestimmt, wie stark die Schallwelle auf einen Körper (zum Messen auf eine Membran) trifft – also wie schnell er sich ausbreitet. Schnelligkeit der Ausbreitung und Schnelligkeit der Schwingung sind zwei unterschiedliche Dinge. Das eine ist eine Bewegung in die Richtung, in die der Schall „geworfen“ wird, das andere die Bewegung der Schallwelle selbst. Jetzt aber genug zum Thema Ton-Generierung. Viel interessanter ist ohnehin, wie ein Synthesizer funktioniert. Er macht nichts anderes, als eine sogenannte Sinus-Welle (Bezeichnung für den reinsten Ton [Eine gleichbleibende Welle ohne Verzerrung im negativen oder positiven Bereich – gezeigt im nachfolgenden Bild]) zu verändern.

welle

Dadurch entstehen, je nach Veränderung, andere Töne (wie genau diese Veränderung funktioniert, werde ich nicht erklären, da ein eigener Beitrag dafür notwendig wäre; das ist ein großer Teil eines Moduls in der Ausbildung zum Tontechniker). Dieser entstandene Ton kann synthetisch klingen:

 

oder auch eine Imitation eines realen Instruments sein:

 

Der ein oder andere „Experte“ wird jetzt sagen, dass man das ja einfach mit Presets machen kann – auswählen und fertig. Das stimmt, aber jeder richtige Experte wird mir zustimmen, wenn ich sage, dass es besser ist, seinen eigenen Sound (oder bei Effekten eigene Einstellungen) zu erstellen. Das wird im Normalfall wesentlich besser in den eigenen Track passen als irgendein Preset. Es ist natürlich nicht einfach, einen gewissen Sound zu erstellen, aber mit Übung klappt das schon. Ich habe z. B. versucht, den Sound von dem Lead Synth aus Martin Garrix` – Poison (dem Drop-Part) nachzuahmen und ich würde sagen, das ist doch relativ gut gelungen. Dabei gab es nur eine Herausforderung: Das, was ihr in folgendem Beispiel hört, ist nicht nur ein Synth, sondern fünf, die gleichzeitig spielen.

 

Diese „Technik“ ist das so genannte Layering. Das bedeutet, dass mehrere Instrumente (der etwa gleichen Art) das Gleiche spielen. Diese Technik findet sich in so ziemlich allen Pop- oder Hand-Up- bzw. allen Songs der EDM wieder, und das nicht nur bei Synths, sondern auch bei Drums, egal ob Snare oder Kick. Dabei gilt aber auch einiges zu beachten – dazu an anderer Stelle mehr.

Was können diese ganzen Regler?

Dieser Frage stellen sich wahrscheinlich alle, die das erste Mal einen Synthesizer sehen. Verständlich, da es wirklich ziemlich viel auf einmal ist. Ich werde versuchen, euch in diesem Teil die wichtigsten Funktionen zu erklären und in späteren Beiträgen vielleicht einmal auf die „versteckten“ oder speziellen Funktionen eingehen. Das Wichtigste zu unserem Thema aber nun hier: der bzw. die OSCs. Das steht für Oszillator. Na gut. Um ehrlich zu sein, steht das für Open Sound Control, aber Oszillatoren (oder auch Operator) werden grundsätzlich die Ton-Generatoren genannt. Diese setzen sich meist aus einem Wave Picker und Tune Controllern zusammen. Bei Multi-OSC-Synths werden auch Volume-Control-Regler bei den einzelnen Oszillatoren angegeben. Die Tune-Controller bestimmen diejenigen, auf welchen Ton der OSC gestimmt ist.

Meist gibt es zwei verschiedene Tune-Controller, den Semitone-Controller und den Detune-Controller. Der Semitone-Controller verschiebt den Input um die ausgewählte Anzahl an Semitönen (Halbtöne) nach oben oder unten. Dieser Kontroller wird auch oft mit Pitch betitelt. Der angegebene Wert muss keiner ganzen Zahl entsprechen, sondern kann auch Dezimalen enthalten. Falls dies nicht der Fall ist, gibt es meist einen so genannten Finetune-Controller. Dieser ist dann für die Dezimal-Werte zuständig. Der Detune-Controller funktioniert etwas anders. Er verstellt nämlich nicht den Unterton (Grundton), sondern fügt Obertöne (Teiltöne des Klangs, die für die Klangfarbe „zuständig“ sind), hinzu. Das führt zu einer Disharmonie, klingt also, als ob der Grundton verstimmt (detuned) wurde.

Im Wave-Picker wird die „Wellenart“ gewählt, die benutzt werden soll (eigentlich eher das „Aussehen“ der Amplitude). Um das zu verstehen, muss man wissen, dass der reinste mögliche Ton aus einer gleich schwingenden Welle besteht, der so genannten „Sinus-Welle“:

Sinus Welle

 

Diese Sinus-Welle wird mit einer gewissen Anzahl an Schwingungen (Frequenz) pro Sekunde erzeugt. Diese Frequenz gibt an, wie hoch bzw. tief der Ton ist. Der Kammerton A4 liegt z.B. bei 440 Hz (Hertz = Die Einheit für Frequenzen) also 440 Schwingungen pro Sekunde. Je höher die Hertz-Anzahl ist, des­to höher ist der Ton und umgekehrt. So liegt C8 (der höhste Ton eines Klaviers) bei 4,186 kHz (1 kHz = 1000 Hz) und A0 (tiefster Ton) bei 27,5 Hz. Natürlich ist das Erzeugen eines absolut reinen, aus nur einem Grundton ohne Obertöne bestehenden Tons unmöglich, aber die Synthesizer tun ihr Bestes. Wie genau jetzt das Verformen der Amplituden-Form funktioniert, ist einen Beitrag für sich wert, aber so viel sei gesagt: Es fügt Obertöne hinzu. Das reicht als Grundwissen. Was mit Wave Shapern und dergleichen gemacht wird, ist vorerst unbedeutend. Die folgenden Bilder samt Tonbeispielen lassen euch die Arten Triangle, Saw, Square sehen bzw. hören.

Triangle:

Triangle

 

Saw:

Saw

 

Square:

Square

 

Beim folgenden Beispiel handelt es sich um die besonderen Wellen des Round Saw, alle gespielt auf dem Kammerton A4. Lasst euch nicht von dem A3 verwirren. Das liegt daran, dass das VST eine andere Skala verwendet, die bei Minus-Noten beginnt.

Round Saw

 

Das waren die Basics eines Synthesizers. Etwas spezieller ist vielleicht Phase Offset, aber das gibt nur den Startwert der Amplitude an, also z. B. nicht am 0 Punkt, sondern schon halb in der Schwingung. Pan oder Panning, also der Panoramapotentiometer, Panpot oder einfach Panoramaregler, gibt die Lautstärkeverteilung eines Audiosignals auf zwei Kanälen an – demnach: wie gut der Ton von links bzw. rechts zu hören ist. Aber nun zu dem etwas schwierigeren Bereich: Envelope, LFO und Filter.

Was ist ein Envelope?

Die beste Übersetzung wäre Hüllkurve, da die Envelope-Kurve den Verlauf eines PARAMETERS angibt:

Envelope

Wenn dieser Parameter nicht fest eingestellt ist, wie beispielsweise bei einem Volume-Envelope, kann man ihm meist einen Parameter zuweisen in einer so genannten FX-Matrix. Das kann sich von Plugin zu Plugin allerdings unterscheiden. Die folgende Abbildung zeigt eine solche Matrix:

FX Matrix

Curve, Type, Mod und Aux (von auxiliary) Source sind recht selten, weswegen ich sie in diesem Beitrag außen vor lassen werde. Dass sie doch sehr nützlich sein können, zeige ich in einem anderen Beitrag, aber zurück zum Envelope. Eine Envelope-Kurve besteht aus vier Bereichen. Der erste wird durch den Attack-Regler bestimmt. Dieser gibt die Zeit an, die der Parameter braucht, um auf 2/3 der 100% (durch Makros verstellbar) zu kommen. Der zweite wird durch den Holdregler bestimmt. Dieser gibt an, wie lange der Paramter auf 100% bleiben soll, bevor er durch den dritten Bereich modelliert wird. Dieser wird durch Decay und Sustain bestimmt. Hierbei ist Decay eine Zeitangabe und Sustain eine „Höhen-“ oder Prozentangabe. Der Decay-Regler gibt an, wie lange der Parameter braucht, um auf den vom Sustain ausgewählten Prozentsatz zu kommen. Sobald der Parameter dort angekommen, ist bleibt er dort so lange, bis die Taste losgelassen wird. Ein Envelope beginnt bei Tastendruck. Sobald die Taste losgelassen wird, geht der Parameter in den vierten Bereich. Dieser wird durch den Release-Regler kontrolliert, welcher wiederum angibt, wie lange der Parameter braucht, um wieder auf 2/3 vor 0% (mit Makros verstellbar) zu gehen. In machen Plugins gibt es auch noch ein Delay-Regler. Dieser bestimmt, wie lange gewartet wird, bis die Envelope-Kurve anfängt zu wirken.

Was ist ein LFO?

LFO steht für „Low Frequency Oscillator“ und er macht genau das, was man von einem Oscillator erwartet. Er erzeugt einen Ton. Zumindest war das so in der analogen Zeit. Dieser Ton war damals aber auch unter 10 Hz, was ihn für das menschliche Gehör nicht hörbar machte, dafür war er auch nicht da. Ein LFO sollte schon damals einen Ton „verändern“. Um etwas genauer zu werden: durch die Schwingungen dieses vom LFO produzierten Tons entstehen im Hörfeld harmonische und unharmonische Teiltöne. Details spare ich aber hier aus, da es ohnehin um digitale LFOs geht. Das sind nicht anderes als wellenförmige Envelopes. Sie stellen also den Wert das Parameters gleichmäßig von einem Prozentsatz auf den anderen und zurück. Klingt zwar langweilig, ist aber aus der EDM nicht mehr weg zu denken.

Was macht die FX Matrix?

Eigentlich nichts anderes als einem Parameter (hier Destination genannt) einen „Verlauf“ anzugeben, so beispielsweise der Cutoff Frequency den zweiten Modulation Envelope. Amount regelt dabei, wie stark dieser Envelope beachtet werden soll. Output regelt, wie laut dieser Modulation wiedergegeben wird.

Mit all diesem Wissen können wir uns endlich einem der wichtigsten Themen der Synthesizer widmen.

Filter

Den Begriff bestimmt jeder schon jeder einmal gehört und sie machen genau das, was der Name vermuten lässt. Sie filtern etwas. Naja nicht ganz. Um genau zu sein, verstärken oder schwächen sie Frequenzen. Es gibt eine Reihe an Filtern mit einschlägigen Bezeichnungen. Ich werde hier die bekanntesten aufzählen:

Es gibt fünf Arten von Filtern, die man kennen sollte: den Peak Filter, den High Pass Filter, den Low Pass Filter, den High Shelf Filter und den Low Shelf Filter.

Peak Filter: Diese Art von Filter kann eine bestimmte Frequenz angeben oder absenken. Der Q-Parameter gibt dabei die sogenannte Flankensteilheit des Filters an. Das heißt, dass er die Breite und somit die Anhebung oder Absenkung der (Kern)Frequenz beeinflusst. Höhere Flankensteilheit vermindert die Breite und niedrige erhöht ihn. Somit werden mehr oder weniger Frequenzen erhöht bzw. gesenkt.

High Pass Filter: Wie der Name schon sagt, lässt der High Pass Filter alle Frequenzen, die oberhalb der Cutoff-Frequenzen liegen, „passieren“. Die leicht darunter liegenden werden geschwächt und die weiter hinten liegenden werden verstummt. Die Weite davon kann mit dem Parameter Q verstellt werden.

Low pass Filter: Dieser Filter bewirkt das genaue Gegenteil des Highpass-Filters. Heißt also, dass er alle Frequenzen über der Cutoff-Frequenz abschneidet und alle darunter frei passieren lässt. Dies folgt dem Muster des High Pass. Knapp dahinter wird leiser gestellt und weiter weg verstummt. Die Weite davon kann ebenfalls mit dem Parameter Q verstellt werden.

High Shelf Filter: Dieser Filter verstärkt alle Frequenzen über der Cutoff-Frequenz leicht bis stark. Der Steigungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.

Low Shelf Filter: Dieser Filter verstärkt alle Frequenzen unterhalb der Cutoff-Frequenz leicht bis stark. Der Steigerungsgrad kann mit dem Parameter Q verstärkt oder geschwächt werden.

Band Pass: Dieser Filter filtert eine gewisse Frequenzbandbreite, z. B. von 500 Hz bis 15 kHz. Den Rest schwächt er ab oder lässt ihn verstummen. Wie schnell das passiert, kann man mit der Flankensteilheit einstellen.

Wer sich jetzt fragt, wofür man das brauchen könnte, sollte definitiv weiter lesen. Einerseits kann es natürlich verwendet werden, um dem Synth genau den Sound zu geben, den man möchte, und dafür sind auch die Filter in den Plugins gedacht. Auch für spezielle Effekte des Tons können Filter verwendet werden wie z. B. bei einem Wobble Bass der im Dubstep-Genre viel Verwendung findet. Für Build Ups wird auch oft ein Low Pass Filter verwendet.

Mit all diesem Wissen können wir endlich zu einem der interessantesten Punkte kommen. Den Effekten. Zu dieser Kategorie gehören zwar auch die Filter, aber da sie so wichtig sind, habe ich sie hier gesondert erklärt.

Welche Effekte gibt es?

Viele! Zu viele für diesen einzelnen Beitrag. Hier eine kurze Auflistung:

Distortion, Flanger, Phaser, Chorus, Compressor, Delay, Reverb, Equalizer, Stereo Widener, Soft Clipper, Limiter, Vocoder usw.

Ein Paradies, wenn man weiß, was die Effekte (kurz FX) machen, aber eben sehr nervig, wenn man es nicht weiß und den Sounds damit das gewisse Etwas fehlt. Ich werde versuchen, euch in diesem Beitrag die wichtigsten Effekte näher zu bringen und euch ihr Processing zu erklären. Hierbei ist wichtig zu wissen, dass man über jeden dieser Effekte eigentlich einen eigenen Beitrag machen könnte und ich es (damit es nicht zu lang wird) möglichst kurz halten werde.

Compressor

Compressor

Das ist wahrscheinlich der Effekt mit den meisten „Mythen“, die sich über die Zeit eingeschlichen haben. Zwar sind es keine direkten Fehler, aber halt auch nicht volle Wahrheiten. Aber der Reihe nach.

Was macht ein Compressor?

Allgemein wird meist gesagt, dass ein Compressor die dynamische Reichweite verringert. Das ist nicht ganz richtig. Zunächst aber zu den Grundlagen: ein Compressor setzt Töne, die über einem gewissen Schwellenwert sind, nach einer gewissen Rate herunter. Das funktioniert durch folgende Regler: Threshold und Ratio.  Threshold oder zu deutsch Schwellenwert ist die Angabe für den Dezibelwert, ab dem der Compressor anfängt zu wirken und die Lautstärke herunter regelt. Um wie viel das geregelt wird, wird durch den Ratio-Regler bestimmt. Dieser wird in einem Verhältnis von X zu 1 eingestellt (Beispiel: 10:1). Im Fall des Beispiels werden also alle 10 dB über dem Schwellwert auf 1 dB über den Schwellwert runter geregelt. Auch alles unter 10 dB ist betroffen. So werden z. B. 5 dB auf 0,5 herunter geregelt usw. Auch finden sich schon zwei bekannte Regler beim Compressor wieder: Attack und Release – und genau bei diesen Reglern ist der größte Fehler in der Signalverarbeitung versteckt, den man, wenn man aufmerksam war, erkennen kann. Hier die Erklärung: Der Attack regelt, wie lange das Signal über dem Schwellwert sein muss, bevor er reagiert. Fehler gefunden oder erraten? Falls nicht auch nicht schlimm. Die Attack-Zeit ist die Zeitspanne, die der Compressor braucht, um 2/3 des Verhältnisses zu reduzieren. Also genau wie beim Envelope. Man mag es nun glauben oder nicht, aber das gilt gleichsam für den Release. Heißt also, dass der Release nicht regelt, wie lange der Compressor nach Unterschreiten des Schwellwerts noch wirkt, sondern wie lange der Compressor braucht, um zurück auf 2/3 vom Verhältnis der Wirkung zurückzugehen. Klingt schwieriger als es ist. Wichtig ist eigentlich nur zu wissen, dass Attack die Anfangs-Zeit beeinflusst und Release die End-Zeit. Dann wäre da noch ein ganz wichtiger Regler. Der Makeup Gain. Um es kurz zu halten: Das ist der Regler für die Output-Lautstärke des Compressors. Den braucht man, da man ja bei Benutzung eines Compressors die Lautstärke des Input Signals beeinflusst.

Wofür braucht man einen Compressor?

Ein Compressor hat viele Anwendungsbereiche. Um eine zu nennen: Bei der Aufnahme eines Schlagzeugs werden nicht nur die einzelnen Elemente des Schlangzeug mit Mikrophonen versehen, es gibt auch oft ein so genanntes Room Mic. Dieses nimmt das ganze als Allgemeinheit auf. Wofür? Ganz einfach. Wenn der Song in Versen oder Refrain ist, werden natürlich die Spuren der einzelnen Mikrophone verwendet (diese werden übrigens auch meistens mit Compressoren bearbeitet), da der stärkere Sound gebraucht wird, damit man die Drums unter all den anderen Instrumenten oder vielleicht auch Stimmen auch gut hören kann (mehr dazu in der Mix Sektion). Das wäre mit dem „verwischten“ oder „ungenauen“ Sound des Room Mics nicht möglich, da keine eindeutige Definition bzw. Klangdifferenzierung besteht. Geht der Song jetzt aber in einen ruhigeren Teil über (z. B. Bridge)über, kann man das Room Mic sehr gut verwenden, um dem ganzen Song einen „Raum zu geben“. Klingt seltsam, ist aber eine Sache der Wahrnehmung, die beachtet wird, um alles realistischer klingen zu lassen, da ja der gesamte Schall im Raum aufgenommen wurde. Allerdings gibt es ein Problem bei der ganzen Sache. Manche Elemente des Schlagzeugs sind natürlich wesentlich lauter als andere und überdecken so die schwächeren. Ein Kick wird meist wesentlich lauter sein als eine Hi-Hat. Und  was schafft Abhilfe? Richtig. Ein Compressor. Dieser wird so eingestellt, dass er nur das Signal der lauten Elemente bearbeitet. Einfach das Gain hochdrehen und man hat einen wesentlich ausgeglicheneren Mix zwischen Snare, Hi-Hat, Ride, Kick usw. Es gibt natürlich auch Verwendung von Compressoren in digitaler Musik, sogar sehr viele.

Das sollte erst einmal zu Compressoren gewesen sein. Man könnte noch auf Multiband- Compressoren, DeEsser oder Noise Gate eingehen, aber dafür findet sich ein anderes Mal Zeit und Raum.

Equalizer

EQ

Equalizer sind aus der Musik nicht mehr wegzudenken. Der Equalizer sorgt erst dafür, dass ein Sound so klingt, wie er klingen soll, indem er die richtigen Akzente setzt oder dem Mix Platz für gewisse Frequenzen gibt. Zunächst widmen wir uns dem Overlay, wobei man da schon mittem im Themenbereich Equalizer ist. Bei Equalizern gilt es aber zu unterscheiden. Es gibt nämlich zwei Arten:

Was ist der Unterschied zwischen einem Parametrischen und einem Graphischen Equalizer?

Ein Parametrischer EQ (Equalizer) wird im Normalfall immer weniger Bänder (wird später erklärt) haben als ein Graphischer. Zudem hat man bei einem Parametischen EQ noch die Möglichkeit, die Flankensteilheit zu verstellen und die Frequenzen der einzelnen Bänder zu wählen, während bei einem Graphischen EQ diese Werte festgesetzt sind. Wer gut aufgepasst hat, dem wird aufgefallen sein, dass der Begriff Flankensteilheit bereits gefallen ist, und zwar bei den Filtern, ebenso wie der Begriff Frequenzen. Es ist also wahrscheinlich, dass diese etwas miteinander zu tun haben, nicht? Und genau so ist es auch.

Was macht ein Equalizer?

Das er etwas mit Frequenzen zu tun hat ist klar, und dass er sie erhöht oder senkt, ist durch die Erwähnung des Wortes Flankensteilheit auch logisch. Heißt also, Equalizer ist nur ein anderes Wort für Filter? Keineswegs. Ein Filter hat immer eine bestimmte Funktion auf einen Frequenzbereich bezogen. Ein Equalizer kann über mehrere sog. Bänder mehrere Frequenzbereiche gleichzeitig bearbeiten. Natürlich könnte man theoretisch auch mehrere Filter benutzen, aber das wäre viel zu umständlich. Mal davon abgesehen, dass viele EQs eine bessere Verarbeitung des Tons haben als ein Filter, da EQs nun einmal genau dafür gemacht sind, während Filter eher für grobere Soundeinstellungen sind, also um den groben Klang zu bekommen. Equalizer sind wesentlich genauer und haben ein größeres „Funktionen-Feld“. Bevor jemand fragt: Ja, man kann auch einen EQ anstatt eines Filter verwenden, das mache ich persönlich auch sehr oft.

Welche Regler gibt es?

Jeder, der jetzt mit vielen verschiedenen Bezeichnungen gerechnet hat, muss leider enttäuscht werden. An sich gibt es keine anderen Regler als bei Filtern. Im Fall eines Parametischen EQs wären das: Band Level, Band Frequency und Band Width (Flankensteilheit). Das Level ist die Stärke der Erhöhung oder Senkung, also um wie viel dB der Wert verändert werden soll. Die Band Frequency gibt die Grundfrequenz an, die bearbeitet werden soll, und die Band Width die Flankensteilheit. Also eigentlich nur Altbekanntes. Bei einem Graphischen EQ fehlen halt Band Frequency und Width, aber dafür gibt es viele Band Level. Diese sind entweder logarithmisch oder linear angegeben.

Wofür brauche ich einen EQ?

Man will ja nicht den Rahmen sprengen, deshalb alles in möglicher Knappheit, aber lasst mich so viel sagen: Ohne EQ wäre es höchstwahrscheinlich nicht möglich, einen guten Mix hinzukriegen. Ein Equalizer wird nicht nur genutzt, um dem Ton den richtigen Feinschliff zu geben, sondern auch um für den Ton „unwichtige“ Frequenzen herauszuschneiden oder zu senken, um „Platz“ für die anderen Töne im gesamten Mix zu machen. Wenn kein Input mit einem EQ bearbeitet werden würde, würden sich die einzelnen Instrumente, Vocals usw. nur stören und einander überlagern. Das würde sich am Ende einfach nur ungenau anhören und man hätte nicht annährend so viel Freude an der Musik. Das mit der Freude ist natürlich subjektiv, aber ich gehe davon aus, dass mir sehr viele zustimmen werden. Um aber ein praktisches Beispiel zu geben: Nehmen wir an, man macht einen Track für das Genre House. In diesem Genre sind starke, laute Sub Kicks (Focus bei ca. 50 – 100 Hz) nicht ungewöhnlich. Wenn man jetzt zur selben Zeit noch einen tieferen Lead Synth spielen hat, möchte man doch meinen, dass alles in Ordung ist, nicht? Nicht wirklich. Nicht nur kann ein Lead Synth auch mal runter bis 100 Hz (oder tiefer) gehen, auch spielt die Kick nicht ausschließlich im 50 – 100 Hz-Bereich. Der „Punch“ der Kick liegt darüber. Je nachdem, wie hell die Kick ist, kann das durchaus auch einmal in die 5 kHz gehen (oder noch höher). Es kann sein, dass man diesen Sound (im Bereich 5 kHz) bei der Kick will. Das ist auch kein Problem, dann muss man aber Side Chainen. Falls man aber wirklich nur die Sub-Kick will ohne Highs, dann sollte man diese einfach mit einem EQ entfernen. Warum? Ganz einfach. Dadurch kann sich der Lead Synth viel besser ausbreiten, da er keine anderen (in diesem Beispiel) Töne hat, die ihm diese Frequenzen „streitig machen“. Fall man sie nicht entfernen würde, müssten die Lautsprecher beide Frequenzen gleichzeitig abspielen und dann wird eine von beiden nicht mehr so gut hörbar sein. Im Falle einer sehr dominanten Kick (im House Genre nicht unüblich), wäre das wahrscheinlich der Lead Synth. Je weniger Frequenzen ihr für ein Instrument braucht, umso besser für die anderen, die diese sehr wohl brauchen. Macht einfach mal selbst den Vergleich (falls ihr selbst Musik produziert) und entfernt ungebrauchte Frequenzen der einzelnen Spuren. Ihr werdet sicher merken, was ich meinte. Falls man die Frequenzen allerdings auf dem Instrument behalten will, sollte man sich überlegen, Side Chaining zu verwenden, und einen Compressor aushelfen lassen. Was genau das ist, wird in einem anderen Beitrag geklärt.

Auch können wunderbar Störgeräusche entfernt werden. Falls man mit einem Synthesizer (mit dessen Sound man zufrieden ist) eine gute Melodie gefunden hat, aber ein komisches „Pipsen“ zu hören ist, das man einfach im Synth nicht wegbekommt, ohne den Sound komplett zu „zerstören“ (das ist natürlich ein Extremfall), kann man mit einem Peak-EQ mit hoher Flankensteilheit einfach über die Frequenzen gehen und nach diesem Geräusch suchen. Dass man es gefunden hat, merkt man, da es natürlich lauter wird (man muss freilich das Band Level aufdrehen). Wenn man ihn gefunden hat, einfach diesen Frequenzbereich herunterregeln und man hat einen viel sauberen Sound. Entweder dreht man dann noch das Gain hoch, damit der Ton nicht allgemein leiser wird oder man sucht sich eine Frequenzbandbreite, in der der Sound sehr gut definiert wird, und boostet diese. Das bleibt einem selbst überlassen, allerdings bevorzuge ich die zweite Variante.

Um nochmal ganz kurz auf den Feinschliff zurückzukommen: im folgenden Beispiel ist ein unbearbeiteter Synth zu hören:

 

Hier ist die fertige Version, also „im“ Compressor (EQ):

 

Reverb:

Ich kann mich an keine Soul- oder Balladen-Vocals erinnern, auf denen ich keinen Reverb hatte. Der Effekt ist dafür einfach zu gut. Zumindest finde ich das.

Was ist ein Reverb?

Reverb steht für Hall oder Nachhall, der synthetisch erzeugt wird.

Was wird simuliert?

Die Reflektion von Schall, der auf Wände, Menschen, Objekte oder Luft trifft, während Luft eher weniger „reflektiert“. In folgendem Tonbeispiel ist kein Reverb zu hören:

 

So klingt das Ganze mit Reverb:

 

Wie stellt man ein Reverb-Plugin ein?

Das kommt natürlich immer auf das eigene Empfinden an, aber ich kann euch erklären, was die einzelnen Regler machen. Im Gegensatz zum Finden des richtigen Sounds ist das Einstellen eines Reverbs einfach.

Da nicht jedes Reverb-Plugin gleich aufgebaut ist, werde ich hier nur kurz die relevantesten der Plugins erklären. Diese wären: Size/Room Size, Diffusion, Damp und Dry-Wet.

Dry/Wet: Dieser Regler macht nicht anderes als einzustellen, wie viel von dem Original-Input auch wieder zum Output gesendet werden soll. Wenn der Regler also auf 100% wet steht, hört man nur noch das pure Reverb-Signal. Dieser Regler wird manchmal auch Mix genannt oder in zwei einzelne Regler (Dry und Wet) aufgeteilt.

Room Size: Dieser Regler macht genau, was man erwartet. Er stellt die simulierte Größe des Raums, in dem sich die Tonquelle befindet, ein. Die Größe des Raums hat natürlich einen großen Einfluss auf den Sound.

Diffusion: Das ist sicherlich etwas schwerer zu erklären. Am einfachsten ist es, sich das Ganze wieder räumlich vorzustellen. Die beiden Bilder zeigen die räumliche Vorstellung. In folgender Grafik erkennt man einen Reverb mit einer sehr niedrigen Diffusion:

Diff_0

Wie man sieht, „befindet“ man sich in einem Raum mit wenigen Wänden. Die Auswirkung auf den Sound besteht darin, dass der Ton sehr schnell verschallt (um es einfach zu halten).

In folgender Abbildung erkennt man Reverb mit hoher Diffusion. Wie man sieht, ist es ein abgerundeter Raum. Der Sound „verschallt“ wesentlich langsamer:

Diff_1

Damping, zu deutsch dämpfend, ist ein Parameter. Er stellt die Dämpfung der hohen Frequenzen in dem Hallsignal ein. Dämpfung bezieht sich auf die Rate, bei der die hohen Frequenzen verstummen. Darum nennt man diesen Parameter auch High Damping. Ein hoher Damping-Wert lässt den Sound nur allmählich dämpfen, wodurch er wärmer wirkt.

Delay:

Das ist auch einer meiner absoluten Favoriten unter den Effekten. Bei diesem ist es auch wieder sehr wichtig zu beachten, dass es Input und Output gibt, die getrennt von einander gesehen werden müssen. Aber der Reihe nach:

Was ist ein Delay?

Die deutsch Übersetzung wäre Verzögerung und diese passt (oh Wunder) auch zu dem Effekt, denn er macht nichts anderes, als eine Verzögerung des Inputs zu erzeugen. Bei einer richtigen Verzögerung wäre der Original-Input natürlich nicht zu hören, da der Input ja verzögert wäre, aber bei einem Delay Plugin kann man einstellen, ob der Input (das Original-Signal) noch hörbar ist oder nur der Output (das Signal, das durch den Delay verändert wurde). Durch die Tatsache, dass man den Original-Input noch hört, könnte man zu Delay auch Echo sagen, aber die Bezeichnung ist eigentlich egal.

Welche Parameter hat ein Delay?

Wie immer kann man das pauschal nicht sagen, da kein Plugin genau gleich aufgebaut ist. Hier wollen wir uns (vorerst) mit den absoluten Standard-Reglern begnügen, nämlich: Sync, Panorama, Gain und Feedback.

Sync: Für ein gutes Delay ein sehr wichtiger Regler, der eigentlich nie fehlt. Dieser gibt an, in welchem Intervall der Output wiedergegeben werden soll. Das heißt also: Wenn der Sync Regler auf 1/4 gestellt ist und das Input-Signal durch den Delay geht, kommt nach genau einem Viertel-Takt (ja nach BPM [Beats Per Minute] halt schneller oder langsamer) der Output des Delays wieder – und das so lange, bis der Output nicht mehr hörbar ist. Der Sync Regler muss natürlich nicht auf genaue Taktwerte eingestellt werden. Man kann ihn auch über Millisekunden einstellen. Bei manchen Delays geht das auch, aber die meisten haben eine „Sync-with-BPM“-Funktion. Falls nicht, kann man auch einen BPM-in-MS-Rechner verwenden. Wichtig ist hierbei, dass das Output-Signal NICHT nochmals durch den Delay geht. Man kann sich Effekt-Racks gut als Kette vorstellen. Der Output des ersten Kettenglieds geht zu dem Input des nächsten usw. Das bedeutet, dass ein Plugin seinen Output nicht beachtet, den Output der Plugins allerdings schon.

Gain: Meißt wirkt der Gain-Regler für das Output-Signal, aber es kann auch vorkommen, dass es einen für das Input-Signal gibt. Das ist aber meistens beschriftet. Der Gain hebt das Output Signal auf den eingestelten Wert an. Wichtig: Dieser Wert ist NICHT von dem Feedback-Regler beeinflusst. Dieser wirkt nämlich erst auf das Signal nach dem Gain-Regler (zumindest im Normalfall).

Feedback: Wie bereits gesagt, wirkt der Feedback-Regler erst nach dem Gain-Parameter auf das Signal. Der Feedback-Parameter gibt ein Intervall an, in dem das Signal verstummen soll. Ein vereinfachtes Beispiel: Eine Mono-Signal,Snare spielt mit -7 dB FS (Dezibel Full Scale), der Gain habt das Signal auf -1 dB FS. Wenn man jetzt ein Feedback von -10 dB FS eingestellt hat, sind die dB FS Werte folgende: -7dB FS, -1 dB FS, -11 dB FS, -21 dB FS, -31 dB FS usw.

Panorama oder kurz Pan gibt das Verhältnis des Output-Signals auf dem linken und rechten Channel an. Wenn der Regler also ganz rechts steht, kommt auch nur auf dem rechten Ausgang ein Ton heraus  – und umgekehrt.

Ein 1/4 Delay bei 140 BPM KÖNNTE sich dann so anhören:

 

Ich würde zwar noch wirklich gerne auf Vocoder, Chorus, Phaser usw. eingehen, aber der Beitrag ist schon länger als der erste und ich glaube, dass man an dieser Stelle eine „Pause“ machen kann. Im dritten Teil der Reihe werde ich dann wohl noch auch auf besagte Effekt zu sprechen kommen (oder vielleicht auch auf ganz bestimmte, bekannte Plugins). Ich gedenke auch, bald zum Mixing, Mastering und Song-Arrangement gelangen zu können. Jetzt hoffe ich, dass ihr den Beitrag informativ fandet und wünsche euch wie immer viel Spaß und Erfolg beim Musizieren.