Exklusiv: Projektvorstellung der Klassen 9d und 10c – Teil II

Die Klassen 9d und 10c nahmen im Rahmen ihres SpG-Unterrichts am Schülerwettbewerb der Bundeszentrale für politische Bildung (bpb) in Gruppen teil. Herausgekommen sind insgesamt 10 tolle Produkte, u.a. Podcasts, zu ganz unterschiedlichen und brandaktuellen Themen. Wie gewohnt, findet ihr alle gängigen Beiträge auf unserem Blog auch in dieser Woche wieder, allerdings immer unter dem jeweiligen Wettbewerbsbeitrag, den wir eine Zeit lang ganz oben halten werden, damit er niemandem entgeht. Viel Spaß beim Anschauen und Anhören und herzlichen Dank an die beiden Klassen!

Weiter geht es diese Woche mit einem Podcast der Klasse 10c zum Thema „Entdemokratisierung Ungarns?“:

Sicherer Umgang mit MS Teams: Wiederholung für alle!

Wir alle erinnern uns noch gut an das sog. Homeschooling und hoffen natürlich, dass es dazu nicht mehr kommt. Dennoch können wir in Seligenthal auch einen sehr guten Online-Unterricht anbieten, falls dieser nochmals nötig sein sollte. Deshalb geben euch die nachfolgenden, kurzen Videoanleitungen nochmals wertvolle Tipps, in denen ihr die Grundlagen wiederholen und auch für den „Ernstfall“ üben könnt.

Wenn ihr darüber hinaus Fragen habt, wendet euch einfach an eure Lehrer oder Klassenleiter, die euch gerne helfen und im Bedarfsfall nochmals kleine Übungseinheiten machen.

Das erste Video richtet sich an alle, die zum ersten Mal mit MS Teams arbeiten oder die Grundlagen wiederholen möchten. Hinweis: Die Chatfunktion, wie sie im Video beschrieben wird, ist in unserer Teams-Version deaktiviert.

Das zweite Video richtet sich an alle, die schon fortgeschritten sind und deren Lehrer mit Kursnotizbüchern arbeiten:

WICHTIG: Ihr müsst euch die App von MS Teams nicht zwingend herunterladen. Man kann auch unter www.office.com die Benutzerdaten bei der Anmeldung eingeben und Teams damit direkt im Browser nutzen.

Hier erfährt man noch, wie man an einer Besprechung teilnimmt:

Technikratgeber: Windows 11 … es wird kompliziert!

Am 14. Oktober 2025 verliert Windows 10 als eines der am weitesten verbreiteten Betriebsysteme den Support. Mit Windows 11 steht seit dem 5. Oktober diesen Jahres auch schon ein Nachfolger bereit. Doch kann ein Upgrade auf Windows 11 nicht so einfach geschehen, wie dies bei Windows 10 der Fall war.

Das dem so ist, liegt vor allem an den Systemanforderungen von Windows 11. Für die Installation von Windows 11 müssen demnach folgende Voraussetzungen erfülllt sein:

  • 64-bit Prozessor mit mindestens 2 Kernen, die auf mindestens 1 GHz takten
  • Mindestens 4 GB RAM
  • Mindestens 64 GB freien Speicherplatz
  • UEFI mit aktiviertem UEFI Secure Boot
  • TPM 2.0 entweder als Chip oder im Prozessor integriert
  • Grafikkarte oder iGPU, die mindestens DirectX 12 unterstützt
  • Grafikkartentreiber mit WDDM 2.0 Struktur
  • Bildschirm mit einer Auflösung von min. 1280×720 und 9 Zoll Bildschirmdiagonale

Prinzipiell gilt es vier Hürden zu überwinden: Obwohl die Anforderungen an den Prozessor nur minimal gestiegen sind, hat Microsoft eine Liste mit kompatiblen Prozessoren für AMD und Intel (fast alle unter vier Jahre alt) für Windows 11 veröffentlicht. Für die Installation muss der Prozessor dort eingetragen sein. Weiter geht es mit UEFI. Dabei handelt es sich um den Nachfolger des berühmten BIOS, welches für den Start von Computern unerlässlich ist. Hier gibt es noch einige Rechner, die UEFI nicht unterstützen. Welche Bootmethode der eigene PC gerade verwendet, lässt sich unter ,,Systeminformationen“ in der Systemübersicht im Reiter BIOS-Modus feststellen. Ein Umstieg auf UEFI kann mit dem integrierten Tool mbr2gpt vollzogen werden, für das man Informationen im Internet finden kann (es sei an dieser Stelle auf einen Bug mit Windows RE ab Windows 10 Build 1903 hingewiesen, für den man Ersteres für die Konvertierung vorübergehend deaktivieren muss). Ich rate allerdings von einem solche Umstieg ab, da dieser Vorgang nicht garantiert funktioniert und schnell im Desaster mit Verlust sämtlicher Daten enden kann. Alternativ bietet es sich an, den Umstieg auf Windows 11 mit einer Neuinstallation zu wagen, bei welcher die Bootmethode immer auf UEFI gestellt wird. Achtung: Der Computer muss hierfür UEFI und alle weiteren Systemanforderungen unterstützen. Die wohl größte und unverständlichste Hürde liegt bei TPM 2.0. Das ,,Trusted Plattform Module“ ist ein relativ unbekannter Sicherheitschip, der in manchen Mainboards und den meisten aktuellen Prozessoren verbaut wird. Die Unterstützung kann auf der Herstellerseite des Mainboards und des Prozessorentwicklers nachgeschlagen werden. Erfüllt der Prozessor die Spezifikation, dann lässt sich TPM meist im BIOS des Mainboards aktivieren (auch hier lohnt es sich, die Herstellerseite zu konsultieren). Da auch er eine Bedingung für eine eventuelle Installation darstellt, sind die Preise für einbaubare Module dieses Chips aktuell stark überzogen. Sollte euer Prozessor kein entsprechendes TPM unterstützen, aber in der Prozessorliste enthalten sein, ist hier zu Geduld zu raten. Die letzte Hürde stellen die Anforderungen an die Grafikkarte und deren Treiber dar, hier wurde allerdings keine Liste veröffentlicht. Da die Unterstützung der Grafikkarte vom Modell abhängt, bietet sich hier dieses Programm an, welches einem zusätzlich zur Grafikkarte alle anderen Anforderungen überprüft .

Nachdem die Hardware jetzt womöglich kompatibel ist, kann Windows 11 auf zwei Wegen installiert werden: Als Gratis-Upgrade über die Updatesuche von Windows 10 oder als komplette Neuinstallation mithilfe einer dieser Methoden, wobei hier nach dem Setup der Aktivierungsschlüssel wieder eingegeben werden muss (es funktionieren hier alle Schlüssel bis Windows 7). Es sollte angemerkt werden, dass es von Windows 11 keine 32-bit Version geben wird. Sollten man also eine 32-bit Version von Windows 10 besitzen, dann lässt scih Windows 11 nur über die Neuinstallation erhalten.

Wie immer gilt bei Windows-Updates: Sollten sie nicht unbedingt benötigt werden, empfiehlt es sich, erst zwei bis drei Monate zu warten, dann sind in der Regel alle schwerwiegenden Probleme bekannt oder gelöst worden.

Den Nachthimmel fotografieren – aber wie?

In diesem Artikel gehe ich lediglich auf Tipps und Möglichkeiten ein, wie man durch ein Teleskop Objekte fotografieren kann. Möglichkeiten, durch ein Teleskop zu fotografieren, gibt es zwei. Voraussetzung ist eine ausreichend genaue Nachführung, über die ich im Zusammenhang mit der Montierung einen separaten Artikel verfassen werde. Nun aber zunächst einmal zur Fotografie selbst.

Affokale Fotografie: Bei dieser Methode wird ein Okular, eine Kompaktkamera und eine passende Halterung benötigt. Sie wird hauptsächlich bei Kameras verwendet, dessen Objektiv sich nicht abnehmen lässt, meistens Kompaktkameras. Die Halterungen sind meistens universell ausgelegt. Wirklich wissen, ob die Halterung auf die eigene Kamera passt, können sie nur herausfinden, indem man es vor Ort (beim Händler) selbst ausprobiert. Der Vorgang der Fotografie selbst läuft folgendermaßen ab: Man sucht sich zunächst das gewünschte Objekt mithilfe des Okulars. Hat man es gefunden, montiert man die Halterung gemäß Anleitung und schaltet den Autofokus der Kamera ab und reduziert den ISO-Wert auf 800. Die Belichtungszeit geschieht nach eigenem Ermessen, als Richtwert können 10 Sekunden gelten. Danach ist durch entsprechendes Verstellen des Okularauszugs der Fokus zu finden und anschließend zu fotografieren. Das Ergebnis hängt sehr von der Qualität des Okulars ab. Sollte sich der Fokus nicht finden lassen, dann benötigt man entweder eine andere Okularbrennweite oder aber eine weiter verstellbare Halterung.

Fokale Fotografie als häufigste und ergiebigste Variante: Dabei wird das Bild nicht von einem Okular in die Kamera geworfen, die Kamera übernimmt die Funktion des Okulars. Dadurch wird das Ergebnis zwar besser, allerdings muss adaptiert werden, weshalb die Möglichkeit vorhanden sein sollte, das Objektiv zu entfernen. Normalerweise verwendet man eine Digitale Spiegelreflexkamera oder eine Spiegellose Systemkamera. In aller Regel braucht man einen Adapter vom sog. Anschluss-Bajonett der Kamera auf den T2-Anschluss und von T2 auf den jeweiligen Auszugsdurchmesser, meist 1,25 oder 2 Zoll. Auch hier sollte der Autofokus ausgeschaltet und die ISO auf 800 reduziert werden. Die Belichtungszeit ist von der Genauigkeit der Nachführung und dem Hintergrundleuchten abhängig, auch hier sind 10 Sekunden ein Testwert. Das Hauptproblem besteht in der Fokussierung. Am Nachthimmel sucht man sich also am besten zuerst einen hellen Stern und fokussiert im Anschluss darauf. Danach kann man auf das eigentliche „Wunschobjekt“ schwenken. Bei einer DSLR sollte man zuerst den LiveView anschalten, dann erzeugt der klappende Spiegel keine störenden Schwingungen. Sollte sich hier der Fokus nicht finden lassen, muss man entweder mit einer Barlowlinse die Brennweite erhöhen (der Okularauszug ist nicht kurz genug) oder mit einen Kompressor (der Okularauszug ist nicht lang genug). Beim Abdrücken empfiehlt sich ein Fernauslöser, wiederum Schwingungen zu vermeiden, die im Bild zu Verwacklungen führen könnten.

Natürlich sollte man nicht nur fotografieren, sondern auch hin und wieder ein Okular anschrauben, um den Himmel mit eigenen Augen erleben. Das geht übrigens auch ganz ohne Technik – mit bloßen Augen!

Techniklexikon: Wie ist ein Computer aufgebaut?

In meinem letzten Artikel https://gymseligenthalblog.com/2019/12/09/computer-eine-aktuelle-kaufberatung/ habe ich eine ausführliche Kaufberatung zum Thema ,,Computer“ gegeben. Viele von euch kennen sich vielleicht mit der Handhabung von Computern aus, wissen aber nicht, wie sie genau aufgebaut sind bzw. aus welchen Komponenten sie bestehen. Deshalb werde ich hier jetzt auf die grundlegenden Computerbauteile eingehen.

Das Herzstück des Computers: die CPU bzw. der Prozessor.

Prozessor oder CPU (Central Processing Unit): Dieses Bauteil ist für alles zuständig, quasi das Herzstück. Tatsächlich wird im kompletten Computer nur gerechnet, deshalb sollte diese Komponente sorgfältig ausgesucht werden. Die Leistung eines Prozessors ist abhängig von dem Takt, also der Anzahl der möglichen Rechnungen pro Sekunde (4 GHz sind z. B. 4 Milliarden Rechenoperationen), der Architektur, also dem Design und Aufbau der CPU, und der Anzahl der Rechenkerne, also wie viele Aufgaben gleichzeitig erledigt werden können (jeder Rechenkern hat eine Taktfrequenz und kann als eigenständige CPU arbeiten). Meiner Erfahrung nach befassen sich viele Leute bei der Auswahl ihrer CPU nur mit der Taktrate, welche jedoch fast keine Aussagekraft hinsichtlich der Leistungsfähigkeit hat. Vielmehr sollte auf Architektur und Kernanzahl Wert gelegt werden. Grundsätzlich gibt es zwei große Hersteller von Prozessoren für Desktopcomputer: AMD und Intel. Intel hat derzeit massive Entwicklungsprobleme und ist daher für den Computerkauf nur eingeschränkt relevant, interessanter ist hier AMD. Der Otto-Normal-Verbraucher ist mit 4-6 Prozessorkernen gut aufgehoben. Zu beachten ist der Stromverbrauch der CPU sowie der Strom, den das Netzteil liefert.

Ein Mainboard, auch Motherboard genannt, ist die Hauptplatine des Computers.

Der Prozessor sind auf dem sog. Mainboard (oder Motherboard): Die Hauptplatine des Computers ist nicht minder wichtig, aber komplizierter im Aufbau. Wichtig ist vor allem, dass der Prozessor zum Sockel des Mainboards passt (nachzulesen im Internet, wenn man den Prozessor „googelt“). Von AMD gibt es, wie von Intel, drei Mainboard-Reihen: A (Office-PC), B (Beste Preis-Leistung) und X (für anspruchsvolle Anwender) von AMD und H (Office-PC), B (Besser als Office-PC) und Z (für anspruchsvolle Anwender) von Intel. Auf dem Mainboard befinden sich auch die RAM-Slots (meistens vier an der Zahl) und die Kühlerbefestigung (Anleitung im Handbuch des Boards). An Anschlüssen gibt es in der Regel einen oder mehrere PCIe für die Grafikkarte, PCIe für die SSDS im M.2-Formfaktor und SATA-Ports für alles Speichertechnische sowie USB, Display und LAN-Anschlüsse an der Rückseite. Es gibt zudem die Möglichkeit, Anschlüsse in der Gehäusefront anzuschließen. Das Mainboard gibt es in verschiedenen Größen, auf die bei der Gehäusewahl zu achten ist: EATX (riesig), ATX, MicroATX und ITX (winzig).

Der Kühler in einem PC sorgt dafür, dass nichts überhitzt (hier ein gewöhnlicher Lüfter).

Der Kühler: Er wird benötigt, um die Abwärme von der CPU wegzuführen. Man unterscheidet zwischen Luft- und Wasserkühlung. Die Luftkühlung ist am herkömmlichsten und besteht aus einem Kühlkörper aus Aluminium und einem Lüfter. Meistens wird ein Luftkühler bereits vom Hersteller dem Prozessor beigelegt, diese sind jedoch laut und oft nicht wirklich brauchbar, weshalb in dieser Hinsicht über einen separaten Kühler nachzudenken ist. Die Wasserkühlung verwendet keinen Lüfter, sondern eine spezielle Kühlflüssigkeit (kein Wasser). Es wird anschließend die Flüssigkeit von Lüftern abgekühlt. Diese Kühlvariante braucht aber zusätzlich noch eine Pumpe und Leitungen, weshalb sie komplizierter zu installieren ist, dafür aber weitaus besser kühlt. Zwischen Kühler und Prozessor ist außerdem immer eine Schicht Wärmeleitpaste, die oft händisch eingefügt werden muss.

Sog. RAM-Riegel sorgen für Zwischenspeicher.

Der Arbeitsspeicher oder RAM (Random Access Memory): Der RAM ist ein kleiner Riegel, der in die RAM-Bänke gelegt wird. Er ist praktisch der Zwischenspeicher für die CPU und die laufenden Programme. Er benötigt Strom, um zu funktionieren, es wird daher alles gelöscht, sobald der Strom weg ist. Man unterscheidet zwischen DDR, DDR2, DDR3 und DDR4. Das aktuelle ist DDR4, alle anderen sind, je nach Anspruch, veraltet, und nur für gleichalte CPUs zu verwenden. Jede CPU braucht eine gewisse DDR-Klasse. Die angehängte Nummer, z. B. DDR4-2666 entspricht dem Doppelten des RAM-Taktes, in diesem Fall also 1333 Megahertz. Besonders für APUs, Prozessoren mit eingebauter Grafikkarte, empfiehlt sich eine hohe Taktrate und zwei Speichermodule. Beim Einbau bedarf es manchmal sanften Drucks, um die RAM-Bänke in ihre Position zu bewegen.

Eine handelsübliche Festplatte liefert den nötigen Speicher.

Festspeicher: Der Festspeicher ist zuständig für alles, was auch dann noch da sein soll, wenn kein Strom verfügbar ist. Hier haben sich zwei Speicherarten etabliert: HDD (Hard Drive Disk) und SSD (Solid State Disk). Bei der herkömmlichen HDD handelt es sich um eine Magnetscheibe, bei der die Daten vom einem Stift auf die Platte geschrieben werden. Diese Speichertechnik ist billig bei großen Speicherklassen, jedoch langsam bei vielen kleinen Dateien (Starten vom Betriebssystem) und laut, da mechanisch. Das elektronische Pendant ist die SSD, eine Art Ansammlung von Ein/Aus-Schaltern. Sie ist zwar teurer bei großen Speicherklassen, aber leise (nicht mechanisch) und sehr schnell beim Speichern und Lesen von kleinen Dateien (und generell). Sie ist deshalb als Betriebssystemspeicher nützlich. Beide können an ein SATA-Daten- und Strom-Kabel angeschlossen werden, die SSD jedoch ist zusätzlich noch in M.2-Form erhältlich, mit einer schnelleren Schnittstelle namens PCI-Express. Außerdem gibt es noch NMVe-SSDs, die aber nur selten schneller sind als normale SSDs.

Auch die Grafikkarte eines Computers ist im Grunde genommen eine Platine wie das Motherboard, allerdings mit anderer Funktion.

Grafikkarte oder GPU (Graphics Processing Unit): Dabei handelt es sich um die Komponente des Computers, die alles, was wir auf dem Display sehen können, bearbeitet. Da es sich dabei um Millionen Pixel handelt, bestehen Grafikkarten in der Regel aus über 1000 einzelnen Rechenwerken, die bei AMD Shader und bei NVIDIA CUDA heißen. Diese Rechenwerke sind jedoch auf das Berechnen von Pixeln und das De-und Enkodieren beschränkt, weshalb man nicht von Prozessorkernen sprechen kann, die beinahe alles beherrschen. GPUs werden über die PCIe-Schnittstelle am Motherboard angeschlossen und mit Displayport oder HDMI am Monitor. Sie brauchen in der Regel noch zusätzlichen Strom, den sie über ein 8-oder 6-poligen Stromanschluss bekommen. Auch sie müssen gekühlt werden, in der Regel durch Luftkühler. Hier unterscheidet man zwischen Blower-und Axialstylen. Blower-Styles haben nur einen Lüfter und sind kompakt, aber laut und oft heiß. Axial-Styles haben 2 oder mehr Lüfter und sind kälter und leiser, aber oft teurer.

Netzteil ist nicht gleich Netzteil (hier symbolisch mit amerikanischem Stecker).

Netzteil: Dieses Bauteil liefert den Strom für den kompletten Rechner und ist daher nicht zu verachten. Wer sich selbst einen PC zusammenstellen möchte, der sollte vor allem darauf achten, dass alle Schutzschaltungen vorhanden sind. Die maximale Belastung des Netzteils ist in Watt angegeben und sollte immer um 10% größer sein, als der Rechner eigentlich verbraucht. Der Stromverbrauch kann mithilfe von Onlinemessern ungefähr errechnet werden. Die Effizienz eines Netzteils wird anhand der sog. 80 Plus-Zertifizierung erkennbar. Das Netzteil sollte zwingend eine solche Zertifizierung haben. Das Maximum wäre hier 80 Plus Titanium. Folgende Anschlüsse sind am Netzteil vorhanden: Mainboardstromstecker (18 oder 20-polig), CPU Stromstecker (8-polig), verschiedene 8-und 6-Pin Stromstecker sowie SATA-Stromstecker. Man unterscheidet bei Netzteilen nichtmodular, teilmodular und vollmodular. Nichtmodulare Netzteile haben alle Kabel fest verbaut, was zu Chaos führen kann, sie sind jedoch am billigsten (siehe Beispielbild). Die teil-modularen Netzteile haben die wichtigsten Kabel fest verbaut, die ohnehin benötigt werden, und sind daher die sinnvollste Variante, jedoch auch teurer als nichtmodulare Netzteile. Vollmodulare Netzteile besitzen keine fest verbauten Kabel, was beim Kabelbruch nützlich ist, sie sind jedoch auch um ein Vielfaches teurer. Netzteile haben oft einen Lüfter, worauf auch Wert gelegt werden sollte, wenn man ein anspruchsvoller Anwender ist.

Eyecatcher – Ein digitales Handbuch zur Filmanalyse

Filme schauen kann jeder, sie analysieren allerdings nicht. Damit man weiß, wo man anfangen muss und welche Techniken zum Einsatz kommen, hat sich vor wenigen Jahren das P-Seminar „Film“ die Mühe gemacht, einen Leitfaden zur Filmanalyse anzufertigen. Dieser enthält nicht nur die wichtigsten Begriffe, sondern liefert euch auch die wichtigsten Infos, damit ihr ab sofort Filme mit anderen Augen schauen und ggf. Manipulationen schneller durchschauen könnt.

Den Filmguide findet ihr unter nachfolgendem Link zum kostenlosen Herunterladen: Eyecatcher_Filmguide_P-Seminar_Film_Seligenthal

Wer die neu gewonnen Erkenntnisse auch gleich (oder nebenbei) zum Einsatz bringen möchte, dem sei der mit dem niederbayerischen P-Seminarpreis ausgezeichnete Film „Herbstgeflüster“ ans Herz gelegt. Er entstand unter der Leitung unserer stellvertretenden Schulleiterin, Frau Studiendirektorin Maria Fischer. Neben dem Film findet ihr unten auch gleich noch den Bericht über die Verleihung. 

Viel Freude beim Lesen und Schauen wünscht euch

Euer Team der Schülerzeitung

 

Computer: eine aktuelle Kaufberatung

Fotos bearbeiten, einen Blog führen, mit Freunden Videochatten oder die nächste Staffel in Fortnite anspielen – das alles geht heutzutage sowohl am Computer als auch am Handy. Wer nicht unbedingt mobil sein möchte, aber eine einfachere Bedienung und mehr Rechenleistung braucht, ist mit einem Computer zwangsläufig besser aufgehoben. Damit sich der neue Rechner nicht als alter Hut aus dem letzten Jahrzehnt entpuppt, sollte man sich mit dem Thema etwas auseinandersetzen: Was möchten man mit dem Computer eigentlich machen?

1. Der Officerechner:

Dieser Rechner braucht keine starke Grafikkarte oder 16 Prozessorkerne, denn er muss in der Regel nur Office und Browser beherrschen. Sein Preis sollte mit 200 bis 500 Euro zu Buche schlagen, was unter anderem für einen AMD Ryzen 5 2400G, Ryzen 3 2200G und Athlon 200G reichen sollte. Wer lieber einen Intelprozessor möchte, muss aus Preisgründen den i3-8100/9100 oder einen Pentium 5000 Prozessor nehmen. Auch hier gilt: Alles unter dieser Nummer ist (ver)alt(et) und sollte möglichst nicht verwendet werden, es sei denn, man kann auf einen guten Gebrauchtrechner zurückgreifen. Achte auch auf das sog. Main- oder Motherboard: Teure Z- oder X-Bretter von Intel oder AMD sind genauso wie die B-Reihe für einen Officecomputer überflüssig. Passender wäre ein Mainboard der A- oder H- Reihe. Als Speicher reichen 256 GB SSD-Flash.

2. Der Allrounder

Wer viel Leistung für (relativ) wenig Geld möchte, dessen Budget beginnt bei 400 und endet mit rund 900 Euro. Wer kein Videoschnitt betreibt, der bekommt für 400 (als Fertig-PC, Selbstbau ist natürlich billiger) Euro einen Ryzen 3 2400 mit einer RX 570, wenn möglich mit 8 GB VRAM. Zum Thema Arbeitsspeicher sollten ebenfalls mindestens 8, besser 16 GB vorhanden sein. Wer 2 Kerne mehr möchte, kann zu einem AMD Ryzen 5 3600 greifen, den man mit nahezu jeder Grafikkarte paaren kann und der auch genügend Reserven für die Zukunft besitzt. Wer doch ein bißchen Videoschnitt betreibt, für den gibt es den Ryzen 7 2700X mit 8 Kernen, der ebenfalls mit fast jeder Grafikkarte funktioniert. Für diesen Preisbereich empfehle ich einen Mix aus 256 GB SSD und 1 TB HDD Speicher, denn der Rechner startet auf einer SSD wesentlich schneller. Applikationen können dann auf der großen Festplatte abgelegt werden. Das Mainboard sollte hier weder aus X-, Z-, A- oder H-Reihe stammen, aber es empfiehlt sich die B-Reihe. Ein gutes Preis-Leistung-Brett wäre z. B. das Asrock B450 Pro4.  Wer sich hier fragt, wieso ich denn keine Intel-Prozessoren erwähne: Intel hat momentan Lieferschwierigkeiten und Enwicklungsprobleme, was für höhere Preise und langsame Weiterentwicklung sorgt. Wer nun doch eine Intel-CPU möchte, der sollte zum i5-8400 greifen. Gute Grafikkarten für diesen Preisbereich sind momentan von AMD die RX 570, RX 590, RX 5500 und RX 5700. Von nVIDIA lohnen sich die GTX 1650, GTX 1660 Super, RTX 2060 Super und RTX 2070 Super.

3. Die Highend-Workstation

Dieser Preisbereich, der ab 1000 Euro losgeht, ist z. B. der für Videoschnitt-Profis, die mehr Leistung möchten. Für eine Workstation gilt: 32 GB RAM sind Pflicht, der Prozessor sollte mindestens 8 Kerne besitzen und die Grafikkarte sollte die Auflösung 4K mit mindestens 30 fps beherrschen. Gamer, die sich in diesen Preisbereich vorwagen, wollen wahrscheinlich übertakten, was eine Wasserkühlung zur Pflicht macht, einen Prozessor mit mindestens 6 Kernen benötigt und die Grafikkarte WQHD-tauglich macht. Der Prozessor: Ab hier bieten sich Intel und AMD eine Kerne-Schlacht. Die 12 Kerne-Gaming CPU Ryzen 9 3950X versucht sich an Intels i9-9900K(S), im Workstation-Bereich sind das der Ryzen Threadripper 2990WX mit 32 Kernen und Intels Xeon W-3175X mit 28 Kernen und höherem Takt. Zur Kühlung dieser Monster-CPUs sollte eine große Luftkühlung oder All-in-One-Wasserkühlung eingebaut werden. Zum Übertakten braucht man hier zwangsläufig Mainboards der X-oder Z-Reihe, für die Workstation Prozessoren Xeon und Threadripper sind diese anders als bei Gaming-CPUs. Die Sockel heißen hier TR4 und FCLGA 3647. Die Motherboards werden hier ab 100 Euro beginnen. Bei den Grafikkarten ist das Angebot überschaubar, AMD kann hier höchstens noch die RX 5700 XT anbieten, nVIDIA trumpft mit seiner RTX 2080 und 2080 Ti. Für wen Geld keine Rolle spielt, der freut sich bei nVIDIA an der Titan RTX. Speichermäßig traue ich mich nicht eine Empfehlung auszuschreiben, sinnvoll wäre eine 1 TB M.2 SSD und eine 4 TB HDD für die Workstation-Profis. 

Noch ein paar Tipps zum Schluss für all diejenigen, die sich mit dem Gedanken tragen, sich selbst einen PC zusammenbauen zu wollen:

Bestellen sollte man sich alle Komponenten seines Computers bei vertrauenswürdigen Anbietern; auch der Vergleich verschiedener Angebote lohnt sich. Die RTX Grafikkarten beherrschen im Gegensatz zu AMDs Grafikkarten ein Beleuchtungsfeature, genannt Raytracing, das in wenigen Spielen zum Einsatz kommt, die Karten aber auch teurer macht. Achtung: Je nachdem, welche Auflösung der Monitor hat, an dem man den Computer betreibt, werden bestimmte Grafikkarten überflüssig. Gängige Auflösungen sind Full-HD (1920×1080 Pixel, Leistungniveau einer RTX 2060 Super oder einer RX 590), WQHD (2160x 1440 Pixel, Leistungsniveau einer RTX 2070 Super oder RX 5700 [XT]) und 4K (3840 x 2160 Pixel, Leistungsniveau einer RTX 2080 Super/Ti). Alles über den genannten Grafikkarten ist für den Normalanwender überflüssig. Viele Rechner der Officerechner-Preisklasse werben mit einem AMD FX Prozessor, der auf 4 Ghz oder mehr taktet. Dies ist aber eine Falle, der Prozessor ist ineffizient, alt und leistungschwach, gleiches gilt für die leider immer noch angebotene GT 710. Beim Gehäusekauf unterscheiden sich die Geschmäcker. Zu achten ist lediglich darauf, dass auch alle gewählten Komponenten Platz finden. Bei Mainboards gibt es dafür Größenklassen: EATX, ATX, microATX und ITX. Im High-End Segment hat intel seine Core-X Prozessoren, die reichen allerdings nur bis 18 Kerne und sind preisleistungsmäßig unbrauchbar (Sockel: LGA2066). Die Prozessoren verwenden verschiedene  Sockel, die mit dem Mainboard kompatibel sein müssen. Der aktuelle AMD Ryzen Sockel ist AM4, der von intel FCLGA1151. 

Bei aller Faszination und Leidenschaft für moderne Technik darf abschließend noch erwähnt werden, dass sie nur in Maßen den eigenen „Alltag“ bestimmen soll und neben der „Cyberwelt“ auch noch eine andere exisitert, in der sich ein Aufenthalt sehr lohnt! 🙂

Frag doch einfach Google: die Technik hinter der (einfachen) Suche

Jeder kennt die Situation: Wenn man heutzutage etwas nicht weiß, kommt natürlich keiner auf die Idee, in die Stadt zu fahren und in der Bibliothek nachzuschauen oder ein Sachbuch von daheim in die Hand zu nehmen. Auch wenn man vergessen hast, was „verrückt“ im Englischen heißt, wird man wahrscheinlich eher schnell zum Handy greifen als ein Wörterbuch in die Hand nehmen. Wenn man gerne wüsste, wie das Spiel „Deutschland“ gegen „Frankreich“ ausgegangen ist, rennst man nicht schnell zum Kiosk, um sich eine Zeitschrift zu besorgen oder ruft einen Freund an und fragt nach dem Ergebnis.

Nein…, man „googelt“ einfach und schnell nach dem gewünschten Ergebnis! Und in weniger als einer Sekunde kennt man es. Doch wem bzw. was hat man das eigentlich zu verdanken? Und wie funktioniert das Ganze überhaupt?

Zu aller Anfang wollen wir erst einmal die Frage klären, wer Google überhaupt erfunden und gegründet hat. Google wurde am 4. September 1998 von Larry Page und Sergey Brin in Kalifornien gegründet. Erfunden wurde die Suchmaschine jedoch schon 1996, ebenfalls von Larry Page und Sergey Brin. Damals hieß es noch BackRub, doch seit dem 15. September 1997 ist die Suchmaschine unter dem Namen Google bekannt.

Google ist irgendwie ein seltsamer Name oder? Wer sich den wohl ausgedacht hat? Ob ihr es glaubt oder nicht: es wahr ein neunjähriger Junge! Der Kleine hieß Milton und war der Neffe von Edward Kasner, einem US-Mathematiker. Milton hat aber nicht direkt den Namen „Google“ erfunden. Sein Onkel Edward hatte ihn dazu aufgefordert ein Wort für eine Eins mit hundert Nullen zu finden. Der Junge entschied sich für Googol. Davon stammt der uns heute bekannte Begriff Google.

Mit Google kann man ja nach allem, wirklich allem suchen. Wenn du jemanden in Deutschland fragst, ob er Google kennt, wird er sehr wahrscheinlich ja sagen. Doch wie sieht das in anderen Ländern aus? Auf jeden Fall müssen die Kalifonier die Suchmaschine kennen, denn in ihrem Land liegt ja der Ursprung. Tatsächlich ist Google auf der ganzen Welt verbreitet, in manchen Ländern mehr, in manchen weniger.

Aber wie funktioniert Google überhaupt? Das Ziel von Google ist eigentlich, alle Nutzer zufriedenzustellen. Man soll also nicht stundenlang nach etwas suchen müssen, sondern am besten gleich bei den ersten Malen etwas Brauchbares finden. Damit das aber auch wirklich klappt, muss ja jemand oder etwas die ganzen Angebote unter die Lupe nehmen, um zu überprüfen, ob der Inhalt auch dem Gesuchten entspricht. Da dieser Job viel zu anspruchsvoll für uns Menschen wäre, übernehmen das sog. Googlebots, auch Crawler oder Spider genannt, die – als Art Software programmiert – durch das Netz surfen und permanent Seiten durchleuchten. Vor ein paar Jahren waren das täglich mehrere Milliarden Websites. Also könnt ihr bei einer Googlesuche nur das sehen, was von den Googlebots davor überprüft / erfasst, auch indexiert genannt, wurde. Ganz oben links auf der Such-Website könnt ihr dann auch sehen, wie viele Texte zu dem gesuchten Thema indexiert wurden.

Doch das ist noch längst nicht alles. Nachdem die Bots ihre Arbeit getan haben, müssen die Websites natürlich nach ihrer Relevanz, also ihrer Wichtigkeit, überprüft werden. Denn wenn wir zum Beispiel etwas suchen, wollen wir, dass die Seite, die uns dazu am meisten Informationen bietet, ganz oben steht. Der Prozess der „Relevanz-Überprüfung“ wird Ranking genannt. Dabei kommt der berühmte, teilweise auch gefürchtete Google-Algorithmus ins Spiel. Darunter kann man zunächst einfach die Sammlung aller Kriterien verstehen, die einen Text – bezogen auf ein Keyword (Suchwort) – für Google zu relevantem Content (Inhalt) machen. Wichtig ist, dass das Keyword sehr oft ihm Text vorhanden ist, vor allem am Anfang, in der Mitte und am Schluss. Ebenfalls wichtig ist, dass das Wort auf der Seite verlinkt ist. Zu guter Letzt sollte das Keywort am besten in der Überschrift oder dem ersten Satz vorhanden sein. Falls all diese Kriterien erfüllt werden, kann es gut sein, dass die Websites als eine der ersten erscheint. Google arbeitet fortwährend an der Verbesserung der Kriterien, deshalb wird die Website, die aufgrund des zugrundeliegenden Algorithmus` an oberster Stelle auftaucht, oft nochmals genau überprüft. Das muss jedoch nicht heißen, das die Websites auf den zweiten und dritten Plätzen keine brauchbaren inhaltlichen Treffer liefern.

In der folgenden Doku erfahrt ihr noch mehr über die Suchmaschine:

InSight Marslander – den Mars neu entdecken!

Am 26.11.2018 landete der „Marslander InSight“ (Interior Exploration using Seismic Investigations, Geodesy and Heat Transport) erfolgreich in der Marsregion „Elysium Planitia“. Seine Mission ist es, den inneren Aufbau des Mars zu untersuchen. Die Kosten betragen rund 425 Millionen US-Dollar!

Der Marslander ist mit folgenden drei Messgeräten ausgestattet:

  • einem Seismometer (misst bis auf einen Nanometer genau Beben im inneren des Planeten)
  • einem sog. Maulwurf (ein Bohrer, der eine Wärmeflusssonde in fünf Metern Tiefe versenkt)
  • einem Temperatur/Wind Sensor

15 Minuten vor der Landung:

Das Landemanöver kann nicht von der Zentrale aus gesteuert werden, da das Funksignal ca. 15 Minuten von der Erde zum Mars und wieder zurück braucht. Somit muss der Computer den letzten und entscheidenden Schritt alleine durchführen.

Die verschiedenen Schritte in genauer Reihenfolge:

  1. Marschstufe mit beiden Solarzellen wird abgeworfen
  2. Der Hitzeschild wird in Flugrichtung ausgerichtet
  3. Eintritt in die Marsatmosphäre im 12°-Winkel
  4. Der Bremsfallschirm wird geöffnet
  5. Der Hitzeschild wird vom restlichen Teil abgetrennt
  6. Die Landebeine werden ausgefahren
  7. Das Radar wird aktiviert und erfasst den Boden
  8. Der Lander wird abgetrennt
  9. Die Landetriebwerke werden gezündet
  10. InSight ist gelandet

Anschließend dauert es noch mehrere Monate, bis er anfangen kann zu messen.

Auf folgender Website findet ihr diverse Daten über den Aufbau, Infos der Mission und eine 360°-Ansicht des InSight-Marslanders. https://mars.nasa.gov/insight/

Hier findet ihr noch eine Animation der Landung:

Netflix: FSK immer berechtigt?

Pretty Little Liars, Vampire Diaries, Stranger Things oder Riverdale: Wir alle kennen sie oder haben zumindest schon einmal von einer von ihnen gehört. Es handelt sich um Serien. Als Riverdale-Fan habe ich mich gefragt, mit welcher FSK denn nun diese Staffel versehen wird. Doch der Reihe nach: was bedeutet FSK eigentlich genau?

Die Abkürzung FSK steht für Freiwillige Selbstkontrolle der Filmwirtschaft. Wie der Name schon sagt, ist es freiwillig, das heißt man muss selber wissen, ob man dem Inhalt des Filmes oder der Serie gewachsen ist. Die FSK-Kennzeichnung ist lediglich ein Hinweis, um beispielsweise bei Serien mit Kennzeichnung eines höheren Alterslevels als des eigenen noch einmal zu überdenken, ob man sich den Inhalt dieser Serie bzw. eines Films zutraut.

An dieser Stelle fragt sich wohl schon so mancher: „Woher soll ich das wissen, bevor ich die Serie gesehen habe?“ Normalerweise ist bekannt, wie „brutal“ oder „harmlos“ eine Serie ist. Daran kann man sich also orientieren, im Internet recherchieren oder jemanden fragen. Überlege dir also, ob du nicht manchmal einfach nur nach Ausreden suchst, um vor dir selbst begründen zu können, warum du eine Serie ansiehst, obwohl du weißt, dass sie für dein Alter nicht geeignet ist.

Während im öffentlichen Raum das Jugendschutzgesetz dafür verantwortlich ist, prüfen einige Online-Anbieter wie Netflix  ihren Inhalt selbst. Sie verpflichten sich also zu keiner freiwilligen Selbstkontrolle, müssen jedoch bei FSK-geprüften Inhalten die Altersfreigabe gut sichtbar veröffentlichen. Schaut man aber eine Netflix- Eigenproduktion, so fehlt in der Regel jede Altersangabe zur Orientierung. Allgemein ist die Altersfreigabe, die Netflix oder auch beispielsweise Amazon Prime vor allem bei Serien angeben, oft umstritten. Des öfteren gab es Fälle, in denen eine Serie für „brutaler“ gehalten wurde, als sie es eigentlich war und zum Beispiel mit dem FSK-16-Logo ausgezeichnet wurde. Es gab aber auch Fälle, in denen die Serie als viel zu harmlos eingestuft wurde.

Ein Beispiel: bei der Netflix-Eigenproduktion „Tote Mädchen lügen nicht“ oder im Originaltitel „13 reasons why“ gehen die Meinungen zur Altersfreigabe auseinander.

„Tote Mädchen lügen nicht“ handelt von einem Mädchen namens Hannah Baker, die Selbstmord begeht und ihren Mitschülern 13 Kassetten mit Gründen ihrer Entscheidung hinterlässt. Bereits die erste Staffel hat für Aufsehen gesorgt. Viele haben vor den „jugendgefährdenden Inhalten“ der Serie gewarnt. Ärzte, Psychologen und Jugendschutzverbände kritisieren in der Serie den Umgang mit dem Thema Mobbing. Außerdem würde der Selbstmord hier verharmlost werden. Zusätzlich wird den Kindern empfohlen, die Serie ohne elterliche Begleitung nicht anzusehen, da auch unter anderem eine Vergewaltigungsszene gezeigt wird.

Andere bewerten die Serie als positiv, da hier offen über Mobbing und sexuellen Missbrauch gesprochen wird und es vielleicht manchen Opfern dann leichter fällt, das Geschehnis zu  verarbeiten oder damit an die Öffentlichkeit zu gehen. Außerdem sei die Serie spannend gemacht und auch mit einem guten Soundtrack versehen. Man will bis zum Ende wissen, wie es weitergeht , wer von den Mitschülern denn jetzt ein dunkles Geheimnis in sich trägt und wer sich nun insgeheim wegen Hannahs Tod schuldig fühlt.

Netflix hat nach diversen Beschwerden eine Kindersicherung für alle Zuschauer unter 16 Jahren einrichten lassen. Das hat die Gemüter dann auch weitgehend beruhigt. Jedoch gibt es, wie oben schon erwähnt, immer noch unterschiedliche Meinungen, was Inhalt und Bewertung nach Alter betrifft.

Meiner Meinung nach ist es sehr schwierig, die FSK-Siegel so zu vergeben, dass jeder damit zufrieden ist. Jeder Mensch „tickt“ anders und nimmt das veranschaulichte Material  nicht gleich wahr. Für manche ist es (erschreckenderweise) überhaupt kein Problem, wenn im wahrsten Sinne des Wortes Köpfe rollen, andere wiederum zucken schon zusammen, sobald jemand aus Versehen die Treppe herunterfällt. Klar, es gibt sicherlich manch umstrittene Fälle, aber letztlich können die Anbieter, so denke ich zumindest, es nicht immer allen Recht machen.

Also gilt: wir sind selbst für uns verantwortlich!

Man sollte sich nicht einfach Dinge ansehen, ohne vorher über die Altersfreigabe nachgedacht oder sich über einen Film oder eine Serie informiert zu haben. Altersempfehlungen sind, anders als bei Büchern, aus gutem Grund verbindlicher bei Filmen und Serien. Im Buch stellt man sich die Dinge zwar auch bildlich vor, ist aber „im Kopf“ flexibel. Manches kann man sich auch glücklicherweise nicht so gut vorstellen – zumindest dann nicht, wenn man es nicht vorher schon in bewegten Bildern gesehen hat.

Filme und Serien zeigen uns vorgefertigte Bilder; man kann im wahrsten Sinne des Wortes nicht „aus“ und muss es so „akzeptieren“, wie es gezeigt wird. Nicht umsonst warnen Psychologen und Eltern vor gewissen Inhalten, weil sie wissen, dass sie den Kindern und Jugendlichen schaden können (Ängste, Albträume, Abstumpfung gegen Gewalt, Nachahmung etc.).

Hat man das empfohlene Alter erreicht, heißt das übrigens noch lange nicht, dass man sich alles ansehen muss, was für das eigene Alter (nun) geeignet ist. Natürlich ist der Reiz oft größer als das Bewusstsein für die Gefahren. Dennoch gilt: erwachsen sein zu wollen, heißt auch, erwachsen mit sich selbst umzugehen. Und dazu gehört letztlich auch, seinen eigenen Weg zu gehen, ohne das zu tun, was viele andere machen!