Reihe „Nachhaltig leben“: Nachhaltige Logistik und Berufe der Zukunft

Die Klasse 9b hat im Rahmen ihres SoG-Unterrichts ein Projekt auf die Beine gestellt. Es umfasst fachliche Artikel rund um den Themenbereich „Nachhaltig leben“. Artikel dazu erscheinen hier regelmäßig auf der Schülerzeitungsseite. Viel Spaß beim Lesen!

Nachhaltige Logistik und Berufe der Zukunft

ein Artikel von Sophia Felk, 9b

Schon seit vielen Jahren boomt die Logistikbranche. Der Onlinehandel und das Just-in-Time-Prinzip der Industrie sorgen für beständige Zuwächse. So wie es aussieht, wird sich daran auch so schnell nichts ändern. Viele Menschen kaufen bereits heute Kleidung, Bücher, Medikamente oder Nahrungsmittel im Internet.

Die Aufgaben der Logistik sind Güter aller Art zu lagern, umzuschlagen, zu kommissionieren, zu sortieren, zu verpacken und zu verteilen, was viel Planung und Know-how erfordert. In der Logistik gehören Termindruck, das schnelle Reagieren auf unvorhersehbare Zwischenfälle und je nach Tätigkeit und Unternehmen, Schichtarbeit und Überstunden dazu. Deshalb sind Berufe in der Logistik durchaus anspruchsvoll und nicht für jeden geeignet.

Software und Roboter übernehmen immer mehr Tätigkeiten. Die Automatisierung wird den Menschen ersetzen, aber auch die neuen Techniken benötigen Menschen, die die Prozesse in der Logistik überwachen, einen reibungslosen Ablauf sicherstellen und die Güter und Produkte mit dem Zug, Flugzeug, Schiff oder LKW transportieren. Jedoch wird sich die Arbeit grundlegend wandeln und neue Berufe werden entstehen. Professor Friedrich Hubert Esser, Präsident des Bundesinstituts für Berufsbildung, sagt, dass Prozess-, System- und Problemlösungskompetenzen immer wichtiger werden und auch soziale Kompetenzen mehr zählen.

Zukunftsberufe in der Logistik:

  1. Roboterkoordinator

Der sogenannte Roboterkoordinator überwacht und plant den Einsatz der Maschinen im Maschinenbau oder der Automobilindustrie. Zu seinen Aufgaben gehört es, auf Störungen und Fehlersignale zu reagieren, Wartungen durchzuführen und defekte Roboter zu ersetzen.

  • Daten-Spezialist

Der Daten-Spezialist nutzt Daten aus unterschiedlichen Quellen für umfangreiche Analysen, um mit den Ergebnissen Verfahren zu verbessern oder so neue, optimierte Lösungen für Logistikaufgaben anzubieten.

  • LKW-Führer

Der LKW-Fahrer wird im selbstfahrenden LKW zum LKW-Führer. Er ist vor allem mit der Koordination von Transporten beschäftigt und vor Ort ist er ein geschickter Verhandler und Problemlöser.

  • Algorithmen-Versicherer

Die Aufgaben von dem Algorithmen-Versicherer sind, die selbstfahrende Transporte, die zahlreichen Risiken ausgesetzt sind, zu versichern und sie richtig einzuschätzen. Vermutlich werden sie dabei eng mit Daten-Spezialisten zusammenarbeiten.

  • Drohnen-Piloten & Ingenieure

Der Drohnenpilot, oft auch Drone Operator oder UAV Operator genannt, wird mit der stetig wachsenden Verbreitung der Drohnentechnologie, sehr gesucht. Für den Zukunftsmarkt der Drohnen werden auch Ingenieure, Softwareentwickler sowie Sales Manager gesucht.

  • Supply Chain Manager

Der Supply Chain Manager koordiniert und optimiert Wertschöpfungs- und Lieferketten. Er sorgt dafür, dass von der Beschaffung der Rohmaterialien, über die Produktion und Logistik bis hin zur Auslieferung zum Kunden alle Vorgänge reibungslos ablaufen. Er sorgt auch für einen einwandfreien Informations- sowie Geldfluss.

Für solche Berufsbilder gibt es aber keine Garantie, es lassen sich lediglich verschiedene Trends abzeichnen, welche Prognosen verschiedener Institute und Experten zulassen. Es geht vor allem um die verschiedenen Branchen und Wirtschaftszweige, die entweder ein stetiges Wachstum erfahren oder im Wandel der Zeit langsam aussterben, wie beispielsweise der Bergbau oder die Druckindustrie.

Es darf behauptet werden, dass die Logistikbranche eine der Branchen mit den besten Zukunftsaussichten ist, auch wenn die Logistik Problemen gegenübersteht. Ein zentrales Thema ist gerade der enorme Kostendruck. Künftig werden Dienstleister noch gezielter nach den günstigsten Lösungen suchen müssen, die es aber dennoch zulassen, den gewünschten, geforderten und gesetzlichen Maßstäben zu entsprechen. Unser Verhältnis zur Arbeit dürfte sich in den kommenden zwei Jahrzehnten grundlegend wandeln. Die Arbeit wird uns aber gewiss nicht ausgehen.

Quellen:

https://www.xing.com/news/articles/acht-sichere-jobs-der-zukunft-798965

https://www.mm-logistik.vogel.de/logistikjobs-der-zukunft–was-sich-durch-digitalisierung-aendert-a-635582/

https://www.sueddeutsche.de/karriere/nachhaltige-jobs-die-fabrik-der-zukunft-1.3243417

Welcher Job hat Zukunft?

Reihe „Nachhaltig leben“: Wie umweltfreundlich ist das E-Auto wirklich?

Die Klasse 9b hat im Rahmen ihres SoG-Unterrichts ein Projekt auf die Beine gestellt. Es umfasst fachliche Artikel rund um den Themenbereich „Nachhaltig leben“. Artikel dazu erscheinen hier regelmäßig auf der Schülerzeitungsseite. Viel Spaß beim Lesen!

Wie umweltfreundlich ist das E-Auto wirklich?

ein Artikel von Nestor Danilov, 9b

Zurzeit wechseln viele Menschen zum E-Auto, um mehr bei der Erhaltung der Umwelt zu helfen. Aber haben sie sich je gefragt, wovon die Batterien und Motoren der E-Autos hergestellt werden und wie umweltfreundlich es wirklich ist? Wenn man dieser Frage nachgeht, findet man heraus, dass E-Autos nicht so umweltfreundlich sind, wie sie meist dargestellt werden.  

Allein für die Herstellung der Batterie benötigt man nämlich Metalle wie Nickel, Graphit, Mangan und Lithium, das man schwer erwerben kann, weil die Salzseen, wo es vorzufinden ist, eine extrem geringe Luftfeuchtigkeit und erbarmungslose Sonneneinstrahlung haben, was zu schwierigeren Arbeitsbedingungen führt. Auch Kobalt wird für die Batterieherstellung gebraucht und es kann wohl möglich sein, dass das Kobalt, welches genutzt wird, von Kinderarbeit in Minen aus Kongo kommt. Für den Motor werden seltene Erden wie Neodym, der fast ausschließlich in China gefördert wird, verwendet. Neodym und andere seltene Erden stammen hauptsächlich aus der riesigen Mine ,,Bayan Obo”, die immense Umweltprobleme verursacht. Genau wie bei der Herstellung der Batterien gibt es auch bei ihrer Zerlegung Probleme. Verschiedene Modelle führen dazu, dass man nicht weiß, wie man jedes Modell optimal zerlegen kann. Zurzeit können nämlich nur Nickel und Kobalt entnommen werden und recycelt werden, das Lithium nicht. Um dies zu ermöglichen, investiert zum Beispiel die Oberpfalz rund 10 Millionen Euro in eine Recycling-Anlage, die 99% des Batterieinhalts wiederverwerten soll. Solche Probleme mit der Zerlegung und Wiederverwertung der Batterien gibt es bei Verbrennerfahrzeugen nicht, weil für sie bereits eine einheitliche Batterie standardisiert wurde.

Man kann aber auch den CO2-Abdruck eines Verbrennfahrzeugs, mit dem noch nicht gefahren wurde, mit dem von einem noch nicht gefahrenen E-Auto vergleichen und feststellen, dass das Verbrennfahrzeug zu dem Zeitpunkt einen kleineren CO2-Abdruck hat. Aber um die zwei Abdrücke auch nach viele gefahrenen Kilometern noch vergleichen zu können, muss man sich anschauen, woher der Strom kommt, der das E-Auto antreibt.

Wenn man sich das Thema genauer anschaut, merkt man, dass nicht alles, was die Hersteller sagen zu 100% wahr ist, weil das E-Auto nicht so umweltfreundlich ist, wie man es sich vermeintlich verspricht. In 2018 stammten zum Beispiel 35% der für E-Autos verwendeten Energie nicht von erneuerbarer Energien (das sind beispielsweise Wind-, Sonnen- oder Wasserkraftenergie), sondern durch die Verbrennung von Braun- beziehungsweise Steinkohle und fast 12% von Kernenergie. Trotzdem hat das Verbrennfahrzeug nach mehreren tausend gefahrenen Kilometern einen gerade mal doppelt so großen CO2-Abdruck wegen der Abgase, die es schlussendlich täglich ausstößt.

Es ist aber auch höchst wahrscheinlich, dass die E-Autos in nächster Zeit umweltfreundlicher werden, weil an der Universität von Harvard an einem Model gearbeitet wird, von dem man das Lithium besser wiederverwerten kann und das Auto gleichzeitig eine längere Lebensdauer bekommt. Dieses neue Model würde den Unterschied im CO2-Abdruck zwischen Verbrenn- und Elektrofahrzeug im positiven Sinne vergrößern. 

Wenn man also der Umwelt auch selber mehr helfen will oder einen kleineren CO2-Abdruck haben möchte, sollte man grundsätzlich lieber auf ein E-Auto umsteigen, statt ein Auto zu fahren, das Benzin oder Diesel verwendet. Dies bedeutet aber, wie schon gesagt, nicht, dass das E-Auto wirklich absolut umweltschonend ist, vor allem wenn man sich die Herkunft seiner Rohstoffe oder Energie näher anschaut. 

Quellen: https://www.efahrer.chip.de ; https://www.tagesscheu.de ; https://www.allego.eu ; https://www.energieloesung.de 

Fünf sinnvolle iPad-Apps für die Schule

Unser Alltag wird immer digitaler. Auch in der Bildung nimmt dies einen großen Platz ein. Gerade durch die Zeit des Homeschoolings wurde das Verwenden von digitalen Geräten für den Unterricht noch einmal verstärkt. So kann man beobachten, dass immer mehr Schüler ein iPad auch im Unterricht nutzen. Doch welche Apps helfen, einen besseren Lernerfolg zu erzielen? Im folgenden Artikel werden 5 Apps aus den Kategorien Abfragetools, Organisation und Notizen vorgestellt, die nicht nur im Unterricht, sondern auch zuhause beim Lernen helfen.

Abfragetools

Quizlet (Kostenlos/Pro Version)

In Quizlet ist es möglich, sein Wissen mit Karteikarten, die entweder selbst oder von anderen Schülern erstellt wurden, zu vertiefen. Außerdem gibt es die Funktion, diese mit Freunden zu teilen. Die Karteikarten kann man dabei in sieben verschiedenen Modi lernen. Zum Beispiel kann man im Antworten-Modus zu jeder Karteikarte die richtige Übersetzung oder Lösung schreiben. Im Zuordnen-Modus sind alle Lösungen zu Anfang aufgedeckt und man kann diese den Fragen richtig zuordnen. Auch gibt es zu jeder Karte eine Audiowiedergabe und somit kann die korrekte Aussprache gleich gelernt werden. Quizlet bietet auch von Experten geprüfte Erklärungen zu schwierigen Aufgaben gemäß dem Lehrbuch. An sich kann jeder Quizlet kostenlos nutzen. Die Pro Version bietet Zusätze, wie ohne Werbung oder offline zu lernen.

StudySmart (Kostenlos/Pro Version)

In dieser App können nicht nur Karteikarten, sondern auch Zusammenfassungen erstellt werden. Für das Lernen können die selbst erstellten Inhalte oder auch von anderen Nutzern geteilte Lernmaterialien verwendet werden. Auch wird in dieser App der individuelle Lernfortschritt des einzelnen Schülers getrackt und ist immer einsehbar. StudySmart bietet zudem Zugang zu Lernmaterialien von führenden Verlagen wie STARK. Auch hier gibt es eine kostenlose Version, die mit einer zahlungspflichtigen Pro-Version erweitert werden kann.

Organisationsapps

Be Focused-Focus Timer (Kostenlos/Pro Version)

Be Focused ist eine App, die dabei hilft, sich auf Aufgaben zu konzentrieren. Dies gelingt durch das Erstellen von beliebig vielen Aufgaben, die in Intervalle aufgeteilt werden. Zusätzlich können diese durch Pausen voneinander getrennt werden. Es ist möglich, die Länge der einzelnen Intervalle oder Pausen anzupassen. Auch kann der Timer automatisch gestartet werden. Die App erstellt Diagramme über den Fortschritt, der in einer beliebigen Zeitspanne erzielt wurde. Be Focused ist auch in der Pro Version verfügbar. Dabei können Dateien zwischen mehreren Apple Geräten synchronisiert werden oder Tags und Filter können helfen, die Übersicht zu behalten.

SimpleMind-Mindmapping (Kostenlos/Pro Version)

Mindmapping ist eine Technik, die dabei hilft, komplexe Gedanken, in einzelnen Wörtern und Verbindungen visuell und graphisch darzustellen. Dazu ist die App SimpleMind nützlich, in der Mindmaps digital erstellt werden können

Notizenapps

Good Notes (einmalie Kosten)

In Good Notes kann man entweder ein Notizbuch oder eine schnelle Notiz erstellen. Bei dem Erstellen eines Notizbuches kann zwischen verschiedenfarbigen Umschlägen und „Papier-Vorlagen“ gewählt werden. Hier gibt es zum Beispiel kariertes, liniertes, To-Do Listen- oder Musiknotenpapier als Vorlage. Die einzelnen Notizen und Notizbücher können in Ordner eingeteilt werden und sind somit organisiert. Die App unterstützt den Apple Pencil, es kann aber auch mit der Tastatur geschrieben werden. Ein Scanner von Dokumenten ist in der App ebenfalls erhältlich.

Technikratgeber: Windows 11 … es wird kompliziert!

Am 14. Oktober 2025 verliert Windows 10 als eines der am weitesten verbreiteten Betriebsysteme den Support. Mit Windows 11 steht seit dem 5. Oktober diesen Jahres auch schon ein Nachfolger bereit. Doch kann ein Upgrade auf Windows 11 nicht so einfach geschehen, wie dies bei Windows 10 der Fall war.

Das dem so ist, liegt vor allem an den Systemanforderungen von Windows 11. Für die Installation von Windows 11 müssen demnach folgende Voraussetzungen erfülllt sein:

  • 64-bit Prozessor mit mindestens 2 Kernen, die auf mindestens 1 GHz takten
  • Mindestens 4 GB RAM
  • Mindestens 64 GB freien Speicherplatz
  • UEFI mit aktiviertem UEFI Secure Boot
  • TPM 2.0 entweder als Chip oder im Prozessor integriert
  • Grafikkarte oder iGPU, die mindestens DirectX 12 unterstützt
  • Grafikkartentreiber mit WDDM 2.0 Struktur
  • Bildschirm mit einer Auflösung von min. 1280×720 und 9 Zoll Bildschirmdiagonale

Prinzipiell gilt es vier Hürden zu überwinden: Obwohl die Anforderungen an den Prozessor nur minimal gestiegen sind, hat Microsoft eine Liste mit kompatiblen Prozessoren für AMD und Intel (fast alle unter vier Jahre alt) für Windows 11 veröffentlicht. Für die Installation muss der Prozessor dort eingetragen sein. Weiter geht es mit UEFI. Dabei handelt es sich um den Nachfolger des berühmten BIOS, welches für den Start von Computern unerlässlich ist. Hier gibt es noch einige Rechner, die UEFI nicht unterstützen. Welche Bootmethode der eigene PC gerade verwendet, lässt sich unter ,,Systeminformationen“ in der Systemübersicht im Reiter BIOS-Modus feststellen. Ein Umstieg auf UEFI kann mit dem integrierten Tool mbr2gpt vollzogen werden, für das man Informationen im Internet finden kann (es sei an dieser Stelle auf einen Bug mit Windows RE ab Windows 10 Build 1903 hingewiesen, für den man Ersteres für die Konvertierung vorübergehend deaktivieren muss). Ich rate allerdings von einem solche Umstieg ab, da dieser Vorgang nicht garantiert funktioniert und schnell im Desaster mit Verlust sämtlicher Daten enden kann. Alternativ bietet es sich an, den Umstieg auf Windows 11 mit einer Neuinstallation zu wagen, bei welcher die Bootmethode immer auf UEFI gestellt wird. Achtung: Der Computer muss hierfür UEFI und alle weiteren Systemanforderungen unterstützen. Die wohl größte und unverständlichste Hürde liegt bei TPM 2.0. Das ,,Trusted Plattform Module“ ist ein relativ unbekannter Sicherheitschip, der in manchen Mainboards und den meisten aktuellen Prozessoren verbaut wird. Die Unterstützung kann auf der Herstellerseite des Mainboards und des Prozessorentwicklers nachgeschlagen werden. Erfüllt der Prozessor die Spezifikation, dann lässt sich TPM meist im BIOS des Mainboards aktivieren (auch hier lohnt es sich, die Herstellerseite zu konsultieren). Da auch er eine Bedingung für eine eventuelle Installation darstellt, sind die Preise für einbaubare Module dieses Chips aktuell stark überzogen. Sollte euer Prozessor kein entsprechendes TPM unterstützen, aber in der Prozessorliste enthalten sein, ist hier zu Geduld zu raten. Die letzte Hürde stellen die Anforderungen an die Grafikkarte und deren Treiber dar, hier wurde allerdings keine Liste veröffentlicht. Da die Unterstützung der Grafikkarte vom Modell abhängt, bietet sich hier dieses Programm an, welches einem zusätzlich zur Grafikkarte alle anderen Anforderungen überprüft .

Nachdem die Hardware jetzt womöglich kompatibel ist, kann Windows 11 auf zwei Wegen installiert werden: Als Gratis-Upgrade über die Updatesuche von Windows 10 oder als komplette Neuinstallation mithilfe einer dieser Methoden, wobei hier nach dem Setup der Aktivierungsschlüssel wieder eingegeben werden muss (es funktionieren hier alle Schlüssel bis Windows 7). Es sollte angemerkt werden, dass es von Windows 11 keine 32-bit Version geben wird. Sollten man also eine 32-bit Version von Windows 10 besitzen, dann lässt scih Windows 11 nur über die Neuinstallation erhalten.

Wie immer gilt bei Windows-Updates: Sollten sie nicht unbedingt benötigt werden, empfiehlt es sich, erst zwei bis drei Monate zu warten, dann sind in der Regel alle schwerwiegenden Probleme bekannt oder gelöst worden.

Nicht alles was Schlösser knackt, sind Einbrecher: Lockpicking (als technischer Zeitvertreib)

Der Begriff Lockpicking bezeichnet das Öffnen von Schlössern mithilfe eines Spanners und eines ,,Picks“. Um die Funktionsweise dieser Methode zu verstehen, muss man sich mit Schlössern auseinandersetzen:

Auch heutzutage werden Schlösser zum Großteil mit einem Schlüssel geöffnet, wenngleich es schon Ansätze mit Fingerabdrücken und den weit verbreiteten Zahlenschlössern gibt. Die Sicherheit des konventionellen Schlosses wird durch den Kern gewährleistet. Da diese Technik im Prinzip einen Schlüssel nachahmt, haben besonders harter Stahl oder raffinierte Öffnungmethoden kaum Einfluss.

Im Kern befinden sich je nach Schloss entweder seitlich oder (häufiger) unten 4 bis 8, auf Federn sitzende Stifte, die das Drehen des Kerns und damit das Öffnen des Schlosses verhindern (im Beitragsbild zu erkennen). Wird nun ein passender Schlüssel in den Kern geschoben, dann drückt dieser die Stifte einzeln auf eine (hoffentlich) individuelle Höhe pro Stift herunter, sodass im Anschluss der Kern gedreht werden kann, weil die Stifte ihn nicht mehr daran hindern. Für das ,,Lockpicking“ wird nun ein sognannter Spanner in das Schloss eingefügt und verkeilt, sodass mit leichtem Druck der (noch gesperrte) Kern die Stifte verklemmt (oder spannt). Daraufhin wird ein kleines, dünnes Stück Metall, der Pick, eingefügt, um jeden einzelnen nacheinander gespannten Stift soweit herunter zu drücken, bis das Schloss sich drehen lässt. Durch die Spannung können bereits gepickte Stifte, die die richtige Höhe erreicht haben, nicht mehr in ihren Ursprungszustand zurückfallen, sodass sich der Reihe nach alle Stifte in der passenden Höhe befinden und das Schloss entriegelt ist.

Da diese Methode ein großes Risikopotential hat, gibt es einige Sicherheitmaßnahmen, die das Picken erschweren sollen: Stifte, die so geformt sind, dass sie sich nach einem Verklemmen durch den Spanner nicht mehr so einfach bewegen lassen oder zwischen Kern und Hülle verkeilen, drehbare Hüllen, die den Halt verschlechtern, enge Schlüssellöcher, die das hineinschieben von Spanner und Picks verhindern sollen, usw. Alle diese Maßnahmen können jedoch umgangen werden, sodass selbst teure und eigentlich sichere Schlösser von erfahrenen Lockpickern geöffnet werden können.

Jedoch ist zwischen Lockpickern und Dieben zu unterscheiden, denn Lockpicker finden lediglich Gefallen an der Herausforderung und öffnen nur eigene Schlösser, weshalb sie kein Sicherheitsrisikopotential darstellen. Diebe hingegen nutzen diese Fähigkeit, um schlecht gesicherte Haus- oder Terassentüren zu öffnen und das Haus anschließend auszurauben. Willst du nun Lockpicking auf legalem Wege ausprobieren, dann gibt es im Internet zahlreiche Einsteigerkits, die es bei kleinen Drittanbietern häufig günstiger gibt als auf namhaften Seiten, oft mit einem Übungsschloss. Auf einschlägigen Videoplattformen finden sich auch Hinweise zu diesem Thema.

Echte Schlösser zu knacken erfordert mehr Können, weshalb hier zu einem billigen (und damit oftmals schwächerem) Vorhängeschloss zu raten ist. Dieses solltest du dann einige Male öffnen, um das Prinzip kennenzulernen. Ab diesem Zeitpunkt kannst du dir dann mit schwierigeren Schlössern Herausforderungen stellen, aber nach wie vor gilt: Nur eigene Schlösser picken und es als technischen „Spaß“ verstehen!

Den Nachthimmel fotografieren – aber wie?

In diesem Artikel gehe ich lediglich auf Tipps und Möglichkeiten ein, wie man durch ein Teleskop Objekte fotografieren kann. Möglichkeiten, durch ein Teleskop zu fotografieren, gibt es zwei. Voraussetzung ist eine ausreichend genaue Nachführung, über die ich im Zusammenhang mit der Montierung einen separaten Artikel verfassen werde. Nun aber zunächst einmal zur Fotografie selbst.

Affokale Fotografie: Bei dieser Methode wird ein Okular, eine Kompaktkamera und eine passende Halterung benötigt. Sie wird hauptsächlich bei Kameras verwendet, dessen Objektiv sich nicht abnehmen lässt, meistens Kompaktkameras. Die Halterungen sind meistens universell ausgelegt. Wirklich wissen, ob die Halterung auf die eigene Kamera passt, können sie nur herausfinden, indem man es vor Ort (beim Händler) selbst ausprobiert. Der Vorgang der Fotografie selbst läuft folgendermaßen ab: Man sucht sich zunächst das gewünschte Objekt mithilfe des Okulars. Hat man es gefunden, montiert man die Halterung gemäß Anleitung und schaltet den Autofokus der Kamera ab und reduziert den ISO-Wert auf 800. Die Belichtungszeit geschieht nach eigenem Ermessen, als Richtwert können 10 Sekunden gelten. Danach ist durch entsprechendes Verstellen des Okularauszugs der Fokus zu finden und anschließend zu fotografieren. Das Ergebnis hängt sehr von der Qualität des Okulars ab. Sollte sich der Fokus nicht finden lassen, dann benötigt man entweder eine andere Okularbrennweite oder aber eine weiter verstellbare Halterung.

Fokale Fotografie als häufigste und ergiebigste Variante: Dabei wird das Bild nicht von einem Okular in die Kamera geworfen, die Kamera übernimmt die Funktion des Okulars. Dadurch wird das Ergebnis zwar besser, allerdings muss adaptiert werden, weshalb die Möglichkeit vorhanden sein sollte, das Objektiv zu entfernen. Normalerweise verwendet man eine Digitale Spiegelreflexkamera oder eine Spiegellose Systemkamera. In aller Regel braucht man einen Adapter vom sog. Anschluss-Bajonett der Kamera auf den T2-Anschluss und von T2 auf den jeweiligen Auszugsdurchmesser, meist 1,25 oder 2 Zoll. Auch hier sollte der Autofokus ausgeschaltet und die ISO auf 800 reduziert werden. Die Belichtungszeit ist von der Genauigkeit der Nachführung und dem Hintergrundleuchten abhängig, auch hier sind 10 Sekunden ein Testwert. Das Hauptproblem besteht in der Fokussierung. Am Nachthimmel sucht man sich also am besten zuerst einen hellen Stern und fokussiert im Anschluss darauf. Danach kann man auf das eigentliche „Wunschobjekt“ schwenken. Bei einer DSLR sollte man zuerst den LiveView anschalten, dann erzeugt der klappende Spiegel keine störenden Schwingungen. Sollte sich hier der Fokus nicht finden lassen, muss man entweder mit einer Barlowlinse die Brennweite erhöhen (der Okularauszug ist nicht kurz genug) oder mit einen Kompressor (der Okularauszug ist nicht lang genug). Beim Abdrücken empfiehlt sich ein Fernauslöser, wiederum Schwingungen zu vermeiden, die im Bild zu Verwacklungen führen könnten.

Natürlich sollte man nicht nur fotografieren, sondern auch hin und wieder ein Okular anschrauben, um den Himmel mit eigenen Augen erleben. Das geht übrigens auch ganz ohne Technik – mit bloßen Augen!

Techniklexikon: Wie ist ein Computer aufgebaut?

In meinem letzten Artikel https://gymseligenthalblog.com/2019/12/09/computer-eine-aktuelle-kaufberatung/ habe ich eine ausführliche Kaufberatung zum Thema ,,Computer“ gegeben. Viele von euch kennen sich vielleicht mit der Handhabung von Computern aus, wissen aber nicht, wie sie genau aufgebaut sind bzw. aus welchen Komponenten sie bestehen. Deshalb werde ich hier jetzt auf die grundlegenden Computerbauteile eingehen.

Das Herzstück des Computers: die CPU bzw. der Prozessor.

Prozessor oder CPU (Central Processing Unit): Dieses Bauteil ist für alles zuständig, quasi das Herzstück. Tatsächlich wird im kompletten Computer nur gerechnet, deshalb sollte diese Komponente sorgfältig ausgesucht werden. Die Leistung eines Prozessors ist abhängig von dem Takt, also der Anzahl der möglichen Rechnungen pro Sekunde (4 GHz sind z. B. 4 Milliarden Rechenoperationen), der Architektur, also dem Design und Aufbau der CPU, und der Anzahl der Rechenkerne, also wie viele Aufgaben gleichzeitig erledigt werden können (jeder Rechenkern hat eine Taktfrequenz und kann als eigenständige CPU arbeiten). Meiner Erfahrung nach befassen sich viele Leute bei der Auswahl ihrer CPU nur mit der Taktrate, welche jedoch fast keine Aussagekraft hinsichtlich der Leistungsfähigkeit hat. Vielmehr sollte auf Architektur und Kernanzahl Wert gelegt werden. Grundsätzlich gibt es zwei große Hersteller von Prozessoren für Desktopcomputer: AMD und Intel. Intel hat derzeit massive Entwicklungsprobleme und ist daher für den Computerkauf nur eingeschränkt relevant, interessanter ist hier AMD. Der Otto-Normal-Verbraucher ist mit 4-6 Prozessorkernen gut aufgehoben. Zu beachten ist der Stromverbrauch der CPU sowie der Strom, den das Netzteil liefert.

Ein Mainboard, auch Motherboard genannt, ist die Hauptplatine des Computers.

Der Prozessor sind auf dem sog. Mainboard (oder Motherboard): Die Hauptplatine des Computers ist nicht minder wichtig, aber komplizierter im Aufbau. Wichtig ist vor allem, dass der Prozessor zum Sockel des Mainboards passt (nachzulesen im Internet, wenn man den Prozessor „googelt“). Von AMD gibt es, wie von Intel, drei Mainboard-Reihen: A (Office-PC), B (Beste Preis-Leistung) und X (für anspruchsvolle Anwender) von AMD und H (Office-PC), B (Besser als Office-PC) und Z (für anspruchsvolle Anwender) von Intel. Auf dem Mainboard befinden sich auch die RAM-Slots (meistens vier an der Zahl) und die Kühlerbefestigung (Anleitung im Handbuch des Boards). An Anschlüssen gibt es in der Regel einen oder mehrere PCIe für die Grafikkarte, PCIe für die SSDS im M.2-Formfaktor und SATA-Ports für alles Speichertechnische sowie USB, Display und LAN-Anschlüsse an der Rückseite. Es gibt zudem die Möglichkeit, Anschlüsse in der Gehäusefront anzuschließen. Das Mainboard gibt es in verschiedenen Größen, auf die bei der Gehäusewahl zu achten ist: EATX (riesig), ATX, MicroATX und ITX (winzig).

Der Kühler in einem PC sorgt dafür, dass nichts überhitzt (hier ein gewöhnlicher Lüfter).

Der Kühler: Er wird benötigt, um die Abwärme von der CPU wegzuführen. Man unterscheidet zwischen Luft- und Wasserkühlung. Die Luftkühlung ist am herkömmlichsten und besteht aus einem Kühlkörper aus Aluminium und einem Lüfter. Meistens wird ein Luftkühler bereits vom Hersteller dem Prozessor beigelegt, diese sind jedoch laut und oft nicht wirklich brauchbar, weshalb in dieser Hinsicht über einen separaten Kühler nachzudenken ist. Die Wasserkühlung verwendet keinen Lüfter, sondern eine spezielle Kühlflüssigkeit (kein Wasser). Es wird anschließend die Flüssigkeit von Lüftern abgekühlt. Diese Kühlvariante braucht aber zusätzlich noch eine Pumpe und Leitungen, weshalb sie komplizierter zu installieren ist, dafür aber weitaus besser kühlt. Zwischen Kühler und Prozessor ist außerdem immer eine Schicht Wärmeleitpaste, die oft händisch eingefügt werden muss.

Sog. RAM-Riegel sorgen für Zwischenspeicher.

Der Arbeitsspeicher oder RAM (Random Access Memory): Der RAM ist ein kleiner Riegel, der in die RAM-Bänke gelegt wird. Er ist praktisch der Zwischenspeicher für die CPU und die laufenden Programme. Er benötigt Strom, um zu funktionieren, es wird daher alles gelöscht, sobald der Strom weg ist. Man unterscheidet zwischen DDR, DDR2, DDR3 und DDR4. Das aktuelle ist DDR4, alle anderen sind, je nach Anspruch, veraltet, und nur für gleichalte CPUs zu verwenden. Jede CPU braucht eine gewisse DDR-Klasse. Die angehängte Nummer, z. B. DDR4-2666 entspricht dem Doppelten des RAM-Taktes, in diesem Fall also 1333 Megahertz. Besonders für APUs, Prozessoren mit eingebauter Grafikkarte, empfiehlt sich eine hohe Taktrate und zwei Speichermodule. Beim Einbau bedarf es manchmal sanften Drucks, um die RAM-Bänke in ihre Position zu bewegen.

Eine handelsübliche Festplatte liefert den nötigen Speicher.

Festspeicher: Der Festspeicher ist zuständig für alles, was auch dann noch da sein soll, wenn kein Strom verfügbar ist. Hier haben sich zwei Speicherarten etabliert: HDD (Hard Drive Disk) und SSD (Solid State Disk). Bei der herkömmlichen HDD handelt es sich um eine Magnetscheibe, bei der die Daten vom einem Stift auf die Platte geschrieben werden. Diese Speichertechnik ist billig bei großen Speicherklassen, jedoch langsam bei vielen kleinen Dateien (Starten vom Betriebssystem) und laut, da mechanisch. Das elektronische Pendant ist die SSD, eine Art Ansammlung von Ein/Aus-Schaltern. Sie ist zwar teurer bei großen Speicherklassen, aber leise (nicht mechanisch) und sehr schnell beim Speichern und Lesen von kleinen Dateien (und generell). Sie ist deshalb als Betriebssystemspeicher nützlich. Beide können an ein SATA-Daten- und Strom-Kabel angeschlossen werden, die SSD jedoch ist zusätzlich noch in M.2-Form erhältlich, mit einer schnelleren Schnittstelle namens PCI-Express. Außerdem gibt es noch NMVe-SSDs, die aber nur selten schneller sind als normale SSDs.

Auch die Grafikkarte eines Computers ist im Grunde genommen eine Platine wie das Motherboard, allerdings mit anderer Funktion.

Grafikkarte oder GPU (Graphics Processing Unit): Dabei handelt es sich um die Komponente des Computers, die alles, was wir auf dem Display sehen können, bearbeitet. Da es sich dabei um Millionen Pixel handelt, bestehen Grafikkarten in der Regel aus über 1000 einzelnen Rechenwerken, die bei AMD Shader und bei NVIDIA CUDA heißen. Diese Rechenwerke sind jedoch auf das Berechnen von Pixeln und das De-und Enkodieren beschränkt, weshalb man nicht von Prozessorkernen sprechen kann, die beinahe alles beherrschen. GPUs werden über die PCIe-Schnittstelle am Motherboard angeschlossen und mit Displayport oder HDMI am Monitor. Sie brauchen in der Regel noch zusätzlichen Strom, den sie über ein 8-oder 6-poligen Stromanschluss bekommen. Auch sie müssen gekühlt werden, in der Regel durch Luftkühler. Hier unterscheidet man zwischen Blower-und Axialstylen. Blower-Styles haben nur einen Lüfter und sind kompakt, aber laut und oft heiß. Axial-Styles haben 2 oder mehr Lüfter und sind kälter und leiser, aber oft teurer.

Netzteil ist nicht gleich Netzteil (hier symbolisch mit amerikanischem Stecker).

Netzteil: Dieses Bauteil liefert den Strom für den kompletten Rechner und ist daher nicht zu verachten. Wer sich selbst einen PC zusammenstellen möchte, der sollte vor allem darauf achten, dass alle Schutzschaltungen vorhanden sind. Die maximale Belastung des Netzteils ist in Watt angegeben und sollte immer um 10% größer sein, als der Rechner eigentlich verbraucht. Der Stromverbrauch kann mithilfe von Onlinemessern ungefähr errechnet werden. Die Effizienz eines Netzteils wird anhand der sog. 80 Plus-Zertifizierung erkennbar. Das Netzteil sollte zwingend eine solche Zertifizierung haben. Das Maximum wäre hier 80 Plus Titanium. Folgende Anschlüsse sind am Netzteil vorhanden: Mainboardstromstecker (18 oder 20-polig), CPU Stromstecker (8-polig), verschiedene 8-und 6-Pin Stromstecker sowie SATA-Stromstecker. Man unterscheidet bei Netzteilen nichtmodular, teilmodular und vollmodular. Nichtmodulare Netzteile haben alle Kabel fest verbaut, was zu Chaos führen kann, sie sind jedoch am billigsten (siehe Beispielbild). Die teil-modularen Netzteile haben die wichtigsten Kabel fest verbaut, die ohnehin benötigt werden, und sind daher die sinnvollste Variante, jedoch auch teurer als nichtmodulare Netzteile. Vollmodulare Netzteile besitzen keine fest verbauten Kabel, was beim Kabelbruch nützlich ist, sie sind jedoch auch um ein Vielfaches teurer. Netzteile haben oft einen Lüfter, worauf auch Wert gelegt werden sollte, wenn man ein anspruchsvoller Anwender ist.

Computer: eine aktuelle Kaufberatung

Fotos bearbeiten, einen Blog führen, mit Freunden Videochatten oder die nächste Staffel in Fortnite anspielen – das alles geht heutzutage sowohl am Computer als auch am Handy. Wer nicht unbedingt mobil sein möchte, aber eine einfachere Bedienung und mehr Rechenleistung braucht, ist mit einem Computer zwangsläufig besser aufgehoben. Damit sich der neue Rechner nicht als alter Hut aus dem letzten Jahrzehnt entpuppt, sollte man sich mit dem Thema etwas auseinandersetzen: Was möchten man mit dem Computer eigentlich machen?

1. Der Officerechner:

Dieser Rechner braucht keine starke Grafikkarte oder 16 Prozessorkerne, denn er muss in der Regel nur Office und Browser beherrschen. Sein Preis sollte mit 200 bis 500 Euro zu Buche schlagen, was unter anderem für einen AMD Ryzen 5 2400G, Ryzen 3 2200G und Athlon 200G reichen sollte. Wer lieber einen Intelprozessor möchte, muss aus Preisgründen den i3-8100/9100 oder einen Pentium 5000 Prozessor nehmen. Auch hier gilt: Alles unter dieser Nummer ist (ver)alt(et) und sollte möglichst nicht verwendet werden, es sei denn, man kann auf einen guten Gebrauchtrechner zurückgreifen. Achte auch auf das sog. Main- oder Motherboard: Teure Z- oder X-Bretter von Intel oder AMD sind genauso wie die B-Reihe für einen Officecomputer überflüssig. Passender wäre ein Mainboard der A- oder H- Reihe. Als Speicher reichen 256 GB SSD-Flash.

2. Der Allrounder

Wer viel Leistung für (relativ) wenig Geld möchte, dessen Budget beginnt bei 400 und endet mit rund 900 Euro. Wer kein Videoschnitt betreibt, der bekommt für 400 (als Fertig-PC, Selbstbau ist natürlich billiger) Euro einen Ryzen 3 2400 mit einer RX 570, wenn möglich mit 8 GB VRAM. Zum Thema Arbeitsspeicher sollten ebenfalls mindestens 8, besser 16 GB vorhanden sein. Wer 2 Kerne mehr möchte, kann zu einem AMD Ryzen 5 3600 greifen, den man mit nahezu jeder Grafikkarte paaren kann und der auch genügend Reserven für die Zukunft besitzt. Wer doch ein bißchen Videoschnitt betreibt, für den gibt es den Ryzen 7 2700X mit 8 Kernen, der ebenfalls mit fast jeder Grafikkarte funktioniert. Für diesen Preisbereich empfehle ich einen Mix aus 256 GB SSD und 1 TB HDD Speicher, denn der Rechner startet auf einer SSD wesentlich schneller. Applikationen können dann auf der großen Festplatte abgelegt werden. Das Mainboard sollte hier weder aus X-, Z-, A- oder H-Reihe stammen, aber es empfiehlt sich die B-Reihe. Ein gutes Preis-Leistung-Brett wäre z. B. das Asrock B450 Pro4.  Wer sich hier fragt, wieso ich denn keine Intel-Prozessoren erwähne: Intel hat momentan Lieferschwierigkeiten und Enwicklungsprobleme, was für höhere Preise und langsame Weiterentwicklung sorgt. Wer nun doch eine Intel-CPU möchte, der sollte zum i5-8400 greifen. Gute Grafikkarten für diesen Preisbereich sind momentan von AMD die RX 570, RX 590, RX 5500 und RX 5700. Von nVIDIA lohnen sich die GTX 1650, GTX 1660 Super, RTX 2060 Super und RTX 2070 Super.

3. Die Highend-Workstation

Dieser Preisbereich, der ab 1000 Euro losgeht, ist z. B. der für Videoschnitt-Profis, die mehr Leistung möchten. Für eine Workstation gilt: 32 GB RAM sind Pflicht, der Prozessor sollte mindestens 8 Kerne besitzen und die Grafikkarte sollte die Auflösung 4K mit mindestens 30 fps beherrschen. Gamer, die sich in diesen Preisbereich vorwagen, wollen wahrscheinlich übertakten, was eine Wasserkühlung zur Pflicht macht, einen Prozessor mit mindestens 6 Kernen benötigt und die Grafikkarte WQHD-tauglich macht. Der Prozessor: Ab hier bieten sich Intel und AMD eine Kerne-Schlacht. Die 12 Kerne-Gaming CPU Ryzen 9 3950X versucht sich an Intels i9-9900K(S), im Workstation-Bereich sind das der Ryzen Threadripper 2990WX mit 32 Kernen und Intels Xeon W-3175X mit 28 Kernen und höherem Takt. Zur Kühlung dieser Monster-CPUs sollte eine große Luftkühlung oder All-in-One-Wasserkühlung eingebaut werden. Zum Übertakten braucht man hier zwangsläufig Mainboards der X-oder Z-Reihe, für die Workstation Prozessoren Xeon und Threadripper sind diese anders als bei Gaming-CPUs. Die Sockel heißen hier TR4 und FCLGA 3647. Die Motherboards werden hier ab 100 Euro beginnen. Bei den Grafikkarten ist das Angebot überschaubar, AMD kann hier höchstens noch die RX 5700 XT anbieten, nVIDIA trumpft mit seiner RTX 2080 und 2080 Ti. Für wen Geld keine Rolle spielt, der freut sich bei nVIDIA an der Titan RTX. Speichermäßig traue ich mich nicht eine Empfehlung auszuschreiben, sinnvoll wäre eine 1 TB M.2 SSD und eine 4 TB HDD für die Workstation-Profis. 

Noch ein paar Tipps zum Schluss für all diejenigen, die sich mit dem Gedanken tragen, sich selbst einen PC zusammenbauen zu wollen:

Bestellen sollte man sich alle Komponenten seines Computers bei vertrauenswürdigen Anbietern; auch der Vergleich verschiedener Angebote lohnt sich. Die RTX Grafikkarten beherrschen im Gegensatz zu AMDs Grafikkarten ein Beleuchtungsfeature, genannt Raytracing, das in wenigen Spielen zum Einsatz kommt, die Karten aber auch teurer macht. Achtung: Je nachdem, welche Auflösung der Monitor hat, an dem man den Computer betreibt, werden bestimmte Grafikkarten überflüssig. Gängige Auflösungen sind Full-HD (1920×1080 Pixel, Leistungniveau einer RTX 2060 Super oder einer RX 590), WQHD (2160x 1440 Pixel, Leistungsniveau einer RTX 2070 Super oder RX 5700 [XT]) und 4K (3840 x 2160 Pixel, Leistungsniveau einer RTX 2080 Super/Ti). Alles über den genannten Grafikkarten ist für den Normalanwender überflüssig. Viele Rechner der Officerechner-Preisklasse werben mit einem AMD FX Prozessor, der auf 4 Ghz oder mehr taktet. Dies ist aber eine Falle, der Prozessor ist ineffizient, alt und leistungschwach, gleiches gilt für die leider immer noch angebotene GT 710. Beim Gehäusekauf unterscheiden sich die Geschmäcker. Zu achten ist lediglich darauf, dass auch alle gewählten Komponenten Platz finden. Bei Mainboards gibt es dafür Größenklassen: EATX, ATX, microATX und ITX. Im High-End Segment hat intel seine Core-X Prozessoren, die reichen allerdings nur bis 18 Kerne und sind preisleistungsmäßig unbrauchbar (Sockel: LGA2066). Die Prozessoren verwenden verschiedene  Sockel, die mit dem Mainboard kompatibel sein müssen. Der aktuelle AMD Ryzen Sockel ist AM4, der von intel FCLGA1151. 

Bei aller Faszination und Leidenschaft für moderne Technik darf abschließend noch erwähnt werden, dass sie nur in Maßen den eigenen „Alltag“ bestimmen soll und neben der „Cyberwelt“ auch noch eine andere exisitert, in der sich ein Aufenthalt sehr lohnt! 🙂

Frag doch einfach Google: die Technik hinter der (einfachen) Suche

Jeder kennt die Situation: Wenn man heutzutage etwas nicht weiß, kommt natürlich keiner auf die Idee, in die Stadt zu fahren und in der Bibliothek nachzuschauen oder ein Sachbuch von daheim in die Hand zu nehmen. Auch wenn man vergessen hast, was „verrückt“ im Englischen heißt, wird man wahrscheinlich eher schnell zum Handy greifen als ein Wörterbuch in die Hand nehmen. Wenn man gerne wüsste, wie das Spiel „Deutschland“ gegen „Frankreich“ ausgegangen ist, rennst man nicht schnell zum Kiosk, um sich eine Zeitschrift zu besorgen oder ruft einen Freund an und fragt nach dem Ergebnis.

Nein…, man „googelt“ einfach und schnell nach dem gewünschten Ergebnis! Und in weniger als einer Sekunde kennt man es. Doch wem bzw. was hat man das eigentlich zu verdanken? Und wie funktioniert das Ganze überhaupt?

Zu aller Anfang wollen wir erst einmal die Frage klären, wer Google überhaupt erfunden und gegründet hat. Google wurde am 4. September 1998 von Larry Page und Sergey Brin in Kalifornien gegründet. Erfunden wurde die Suchmaschine jedoch schon 1996, ebenfalls von Larry Page und Sergey Brin. Damals hieß es noch BackRub, doch seit dem 15. September 1997 ist die Suchmaschine unter dem Namen Google bekannt.

Google ist irgendwie ein seltsamer Name oder? Wer sich den wohl ausgedacht hat? Ob ihr es glaubt oder nicht: es wahr ein neunjähriger Junge! Der Kleine hieß Milton und war der Neffe von Edward Kasner, einem US-Mathematiker. Milton hat aber nicht direkt den Namen „Google“ erfunden. Sein Onkel Edward hatte ihn dazu aufgefordert ein Wort für eine Eins mit hundert Nullen zu finden. Der Junge entschied sich für Googol. Davon stammt der uns heute bekannte Begriff Google.

Mit Google kann man ja nach allem, wirklich allem suchen. Wenn du jemanden in Deutschland fragst, ob er Google kennt, wird er sehr wahrscheinlich ja sagen. Doch wie sieht das in anderen Ländern aus? Auf jeden Fall müssen die Kalifonier die Suchmaschine kennen, denn in ihrem Land liegt ja der Ursprung. Tatsächlich ist Google auf der ganzen Welt verbreitet, in manchen Ländern mehr, in manchen weniger.

Aber wie funktioniert Google überhaupt? Das Ziel von Google ist eigentlich, alle Nutzer zufriedenzustellen. Man soll also nicht stundenlang nach etwas suchen müssen, sondern am besten gleich bei den ersten Malen etwas Brauchbares finden. Damit das aber auch wirklich klappt, muss ja jemand oder etwas die ganzen Angebote unter die Lupe nehmen, um zu überprüfen, ob der Inhalt auch dem Gesuchten entspricht. Da dieser Job viel zu anspruchsvoll für uns Menschen wäre, übernehmen das sog. Googlebots, auch Crawler oder Spider genannt, die – als Art Software programmiert – durch das Netz surfen und permanent Seiten durchleuchten. Vor ein paar Jahren waren das täglich mehrere Milliarden Websites. Also könnt ihr bei einer Googlesuche nur das sehen, was von den Googlebots davor überprüft / erfasst, auch indexiert genannt, wurde. Ganz oben links auf der Such-Website könnt ihr dann auch sehen, wie viele Texte zu dem gesuchten Thema indexiert wurden.

Doch das ist noch längst nicht alles. Nachdem die Bots ihre Arbeit getan haben, müssen die Websites natürlich nach ihrer Relevanz, also ihrer Wichtigkeit, überprüft werden. Denn wenn wir zum Beispiel etwas suchen, wollen wir, dass die Seite, die uns dazu am meisten Informationen bietet, ganz oben steht. Der Prozess der „Relevanz-Überprüfung“ wird Ranking genannt. Dabei kommt der berühmte, teilweise auch gefürchtete Google-Algorithmus ins Spiel. Darunter kann man zunächst einfach die Sammlung aller Kriterien verstehen, die einen Text – bezogen auf ein Keyword (Suchwort) – für Google zu relevantem Content (Inhalt) machen. Wichtig ist, dass das Keyword sehr oft ihm Text vorhanden ist, vor allem am Anfang, in der Mitte und am Schluss. Ebenfalls wichtig ist, dass das Wort auf der Seite verlinkt ist. Zu guter Letzt sollte das Keywort am besten in der Überschrift oder dem ersten Satz vorhanden sein. Falls all diese Kriterien erfüllt werden, kann es gut sein, dass die Websites als eine der ersten erscheint. Google arbeitet fortwährend an der Verbesserung der Kriterien, deshalb wird die Website, die aufgrund des zugrundeliegenden Algorithmus` an oberster Stelle auftaucht, oft nochmals genau überprüft. Das muss jedoch nicht heißen, das die Websites auf den zweiten und dritten Plätzen keine brauchbaren inhaltlichen Treffer liefern.

In der folgenden Doku erfahrt ihr noch mehr über die Suchmaschine:

InSight Marslander – den Mars neu entdecken!

Am 26.11.2018 landete der „Marslander InSight“ (Interior Exploration using Seismic Investigations, Geodesy and Heat Transport) erfolgreich in der Marsregion „Elysium Planitia“. Seine Mission ist es, den inneren Aufbau des Mars zu untersuchen. Die Kosten betragen rund 425 Millionen US-Dollar!

Der Marslander ist mit folgenden drei Messgeräten ausgestattet:

  • einem Seismometer (misst bis auf einen Nanometer genau Beben im inneren des Planeten)
  • einem sog. Maulwurf (ein Bohrer, der eine Wärmeflusssonde in fünf Metern Tiefe versenkt)
  • einem Temperatur/Wind Sensor

15 Minuten vor der Landung:

Das Landemanöver kann nicht von der Zentrale aus gesteuert werden, da das Funksignal ca. 15 Minuten von der Erde zum Mars und wieder zurück braucht. Somit muss der Computer den letzten und entscheidenden Schritt alleine durchführen.

Die verschiedenen Schritte in genauer Reihenfolge:

  1. Marschstufe mit beiden Solarzellen wird abgeworfen
  2. Der Hitzeschild wird in Flugrichtung ausgerichtet
  3. Eintritt in die Marsatmosphäre im 12°-Winkel
  4. Der Bremsfallschirm wird geöffnet
  5. Der Hitzeschild wird vom restlichen Teil abgetrennt
  6. Die Landebeine werden ausgefahren
  7. Das Radar wird aktiviert und erfasst den Boden
  8. Der Lander wird abgetrennt
  9. Die Landetriebwerke werden gezündet
  10. InSight ist gelandet

Anschließend dauert es noch mehrere Monate, bis er anfangen kann zu messen.

Auf folgender Website findet ihr diverse Daten über den Aufbau, Infos der Mission und eine 360°-Ansicht des InSight-Marslanders. https://mars.nasa.gov/insight/

Hier findet ihr noch eine Animation der Landung: