Schlagwort-Archive: Spektrum

ANALPHABETISMUS : Können Sie denn nicht lesen?

http://www.spektrum.de/news/warum-gibt-es-so-viele-analphabeten-in-deutschland/1371326

Nicht nur in Entwicklungsländern können viele Menschen nicht richtig lesen und schreiben – auch Millionen Deutsche gelten als Analphabeten. Wie kann das sein, wenn doch eigentlich alle die Schule besuchen? Forscher fahnden immer noch nach den Ursachen.

Rätselhafte Buchstaben

© fotolia / ilro
(Ausschnitt)
Eine Speisekarte lesen, den Stimmzettel im Wahlbüro durchsehen, ein Formular für den Handyvertrag ausfüllen: keine schwierigen Aufgaben, möchte man meinen. Und doch scheitern unzählige Erwachsene hier zu Lande genau daran. Denn sie können nicht lesen und schreiben. Was oft als Problem von Entwicklungsländern abgetan wird, ist auch in einem Industriestaat wie Deutschland, in dem Schulpflicht herrscht, alles andere als eine Ausnahmeerscheinung….

ALLES LESEN …

Was bedeutet Analphabetismus?

Der Begriff „Analphabetismus“ ist bis heute nicht völlig einheitlich definiert. Totaler Analphabetismus wird oft als völlige Unkenntnis der Schrift verstanden. Das betrifft in modernen Industrienationen heutzutage kaum jemanden. Weitere Abstufungen des Analphabetismus können aber von Schwierigkeiten, selbst gebräuchliche Wörter zu lesen und zu schreiben, bis hin zum „Unterschreiten der vollen Teilhabe im Lesen, Schreiben und Rechnen“ nach UNESCO-Definition reichen.

In der leo.-Studie sprechen die Forscher von Analphabetismus, wenn Personen zwar einzelne Wörter lesen und schreiben können, nicht aber ganze Sätze. Dabei müssen die Betroffenen auch gebräuchliche Wörter Buchstabe für Buchstabe zusammensetzen.

Der Begriff funktionaler Analphabetismus bezieht sich dagegen auf die Unfähigkeit, schon kurze Texte zu verstehen oder zu schreiben. Die Betroffenen sind dadurch nicht in der Lage, am gesellschaftlichen Leben in angemessener Form teilzuhaben und haben etwa bereits Schwierigkeiten mit einfachen schriftlichen Arbeitsanweisungen.

Lobes Digitalfabrik: Der Spion im Wohnzimmer

http://www.spektrum.de/kolumne/der-spion-im-wohnzimmer/1495169

Wir umgeben uns mit elektronischen Geräten, die auf Sprachbefehle reagieren. Doch diese lauschen auch dann, wenn wir nicht mit ihnen sprechen.

Digitale Verschlüsselung

© fotolia / Tomasz Zajda
(Ausschnitt)
In einer Folge der Kultserie „Mr. Robot“ wird Susan Jacobs, Generalbevollmächtigte des Konglomerats E Corp, zum Ziel einer Hackerattacke. Jacobs kommt gerade vom Joggen in ihr Smarthome zurück, als das Unheil seinen Lauf nimmt. Zuerst geht die Alarmanlage los. Als Jacobs anschließend in ihr Hallenbad geht, ertönt wie von Geisterhand „Figaros Hochzeit“. Der Thermostat reguliert sich herunter. Dann klingelt auch noch das Telefon. Letztlich wird ihre ganze Wohnung von Hackern fremdgesteuert – die anarchistische Untergrundorganisation fsociety hat das Kommando über ihr Zuhause übernommen.

Diese von den Serienmachern erdachte Szene ist nicht mehr allzu weit von der Realität entfernt. Vor einigen Monaten wurde durch Wikileaks bekannt, dass die CIA von ihrer Frankfurter Zentrale unter dem Codenamen „Weeping Angel“ mit einem Hackertool Smart-TVs von Samsung anzapfte und in einen Modus schaltete, der dem Nutzer suggerierte, er hätte den Fernseher ausgeschaltet – dabei war dieser in Wahrheit noch an und sammelte Daten.

„Bitte seien Sie sich bewusst, dass Ihre Worte aufgezeichnet und an einen Drittanbieter geschickt werden“

Das Smarthome ist voller so genannter Always-on-Geräte, die laufend mithören und sämtliche Gespräche aufzeichnen. Samsung warnte seine Kunden, dass man besser nichts Privates in Anwesenheit eines Smart-TVs sagen sollte. „Bitte seien Sie sich bewusst, dass Ihre gesprochenen Worte aufgezeichnet und an einen Drittanbieter geschickt werden“, hieß es. Nach Amazon hat nun auch Google seinen smarten Lautsprecher Home in Deutschland auf den Markt gebracht. Das blumenvasenartige Gerät steuert per Spracherkennung Hausgeräte, reguliert die Heizung oder bestellt Pizza. Zwar wird das Gerät erst aktiviert, wenn das Sprachkommando „Okay Google“ artikuliert wird. Doch die Mikrofone nehmen ständig auf.

Auch Amazons Netzwerklautsprecher Echo zeichnet Sätze, respektive Bruchteile von Sätzen, auf und leitet diese an einen Cloud-Dienst weiter, wo sie von Algorithmen analysiert werden. Die Polizei im US-Bundestaat Arkansas verlangte von Amazon die Herausgabe von Audiodateien, weil der smarte Lautsprecher womöglich bei einem Mord mitgehört hatte. Was geschah zur Tatzeit? Gab es Schreie des mutmaßlichen Opfers? Fielen Schüsse? Amazon gab nach anfänglichem Zögern die Daten schließlich heraus. Die Abfrage der Informationen ist aus rechtsstaatlicher Sicht fragwürdig. Mit Smartphones, Smart-TVs, smarten Spielzeugen und smarten Lautsprechern stehen immer mehr kamera- und mikrobewehrte internetfähige Geräte im Eigenheim, die von Dritten angezapft und abgehört werden können.

Der IT-Experte Mark Barnes demonstrierte kürzlich, wie er durch das Abschrauben des Gummibodens Amazon Echo in ein Spionagegerät verwandeln und den Besitzer heimlich abhören konnte. Durch die physische Manipulation gelang es ihm, eine Schadsoftware in das Betriebssystem einzuschleusen und Zugriff auf das Mikrofon zu erlangen. Jedes Wort, das der Besitzer in der Nähe des Lautsprechers spricht, könnte so mitgehört werden. Zwar ist der Hack ähnlich aufwändig wie die Installation einer Wanze in einer Wohnung. Doch die Vorstellung, dass ein Lautsprecher zum Spion wird, ist alles andere als behaglich.

Der US-Sicherheitsforscher Matt Jakubowski schaffte es, die smarte Puppe „Hello Barbie“ zu hacken, in deren Nacken ein Mikrofon integriert ist. Mit einem technischen Kniff konnte er problemlos auf diverse Funktionen zugreifen, darunter Netzwerknamen, Audiodateien und das Mikrofon. „Es ist nur eine Frage der Zeit, den Server auszutauschen und die Puppe sagen zu lassen, was immer wir möchten“, erläuterte Jakubowski dem Sender NBC.

Der Architekturkritiker Edwin Heathcote schrieb kürzlich in einem eindrücklichen Artikel in der „Financial Times“: „Unser Zuhause wird besessen. Und die dunklen Mächte des 21. Jahrhunderts sind die Geister, die unsere Maschinen kontrollieren.“ Das klingt alarmistisch, schirrmacheresk. Doch bei den smarten Geräten, die uns eigentlich Autonomie verschaffen sollen, zeigt sich ein fataler Kontrollverlust, weil man gar nicht weiß, wer am Steuerknüppel sitzt. Die Knöpfe und Sprachkommandos verschaffen dem Nutzer lediglich die Illusion von Kontrolle. Im Januar dieses Jahres löste ein US-Nachrichtensprecher eine Kettenreaktion aus, indem er in einer Livesendung Amazon Echo einen Sprachbefehl erteilte, woraufhin sich in tausenden Haushalten wie von Zauberhand der Netzwerklautsprecher aktivierte, weil das Gerät nicht zwischen der Stimme aus dem Fernsehen und einer im Raum zu unterscheiden vermag.

Im Lichte der Hackerangriffe wirkt der Steuer- und Verschaltungsprozess im smarten Home wie eine Simulation. Sind die Bewohner nur die Avatare eines Computermodells, die von Maschinen berechnet werden? Wer ist das Bedienelement von wem? Thermostate wie Nest könnten nicht nur die Raumtemperatur messen, sondern auch, ob geraucht, getrunken und gefeiert wird. Sie können sogar aus der Temperatur ableiten, wie viele Leute in der Wohnung sind. Big Brother kommt im Gewand des netten Helfers daher. „Ohne unser Wissen führen wir Marktforschung für die Hersteller und Onlinehändler durch, indem wir häusliche Arbeit verrichten, essen, chatten und uns in unserer Wohnung bewegen“, kritisiert Heathcote.

Das Tech-Blog „Gizmodo“ spekulierte unter Berufung auf die Nachrichtenagentur Reuters, dass der Haushaltsroboter Roomba in den letzten Jahren heimlich unser Zuhause vermessen haben könnte. Roomba sammelt nicht nur Staub ein, sondern auch jede Menge Daten. Der Staubsaugroboter ist seit März mit Amazons Sprachsoftware Alexa kompatibel. Wenn Amazon seinen Netzwerklautsprecher Echo optimieren möchte, wäre es in der Lage auf die vom Roboter erhobenen Raumdaten zurückzugreifen. Ist das Zimmer gefüllt, bestände die Möglichkeit, Werbung für Raumdekorationen auszuspielen. Ist der Raum eher leer, wären Anzeigen für Möbel oder Haushaltswaren von Interesse. Doch der künstliche Doppelagent könnte noch viel mehr sensible Informationen erfassen. Welche Bücher stehen im Regal? Welche Medikamente werden benutzt? Befinden sich möglicherweise Waffen oder Drogen in der Wohnung?

Man kann sich leicht den nächsten Schritt ausmalen: Hacker, die eine Wohnung nicht nur abhören, sondern mit Hilfe smarter Haushaltsgeräte auch deren Bewohner filmen.

Adrian Lobe

Adrian LobeDer Autor arbeitet als Journalist in Heidelberg und ist Autor der Kolumne „Lobes Digitalfabrik“ auf „Spektrum.de“.

© Spektrum.de

Meere: Gigantische Todeszone im Golf von Mexiko

http://www.spektrum.de/news/gigantische-todeszone-im-golf-von-mexiko/1491969

Vor der Küste der USA erstreckt sich ein riesiges sauerstoffloses Gebiet im Golf von Mexiko. Ursache ist wahrscheinlich das Abwasser der Fleischindustrie.

Algenblüte im Golf von Mexiko

© NASA Earth Observatory, Jeff Schmaltz
(Ausschnitt)
Vor der Küste des US-Bundesstaats Louisiana erstreckt sich die größte Todeszone im Golf von Mexiko seit Beginn der Überwachung 1985: Sie reicht in ihren Ausläufern von Texas bis nach Florida und umfasst eine Fläche von rund 23 000 Quadratkilometern – das entspricht 8,9 Mal dem Saarland. Damit übertrifft die Ausdehnung der sauerstofflosen Gebiete im Meer sogar noch die pessimistischen Prognosen der US-Wetter- und Ozeanbehörde NOAA, die im Juni das maximale Ausmaß noch auf etwa 21 000 Quadratkilometer geschätzt hatte. In diesen Teilen des Golfs ist der Sauerstoffgehalt des Wassers so stark abgesunken, dass darin fast kein Leben mehr existieren kann: Fische, Krustentiere oder Muscheln wandern entweder ab oder sterben.

Verursacht wird dieser hypoxische Zustand durch den massiven Eintrag von Nährstoffen aus dem Mississippi, der Düngemittelreste und Abwässer aus Städten sowie der Viehzucht von einer großen Fläche im Binnenland einsammelt und ins Meer transportiert. Nitrate und Phosphate sorgen dort dann für ausgedehnte Algenblüten, die das Wasser trüben und im Satellitenbild erkennbar sind. Wenn sie absterben, sinken sie zum Meeresgrund, wo sie unter anderem von Bakterien zersetzt werden – deren Population ebenfalls explodiert. Der Abbau zehrt jedoch den überwiegenden Teil des im Wasser gelösten Sauerstoffs auf: Die Todeszone entwickelt sich.

Eine Studie der Umweltorganisation „Mighty“ führt einen großen Teil des Nährstoffeintrags auf einige wenige Agrarkonzerne zurück, die im Mittleren Westen riesige Flächen bewirtschaften (lassen) und in großem Stil Fleisch produzieren. Die Viehzucht gilt ohnehin als einer der wichtigsten Einzelakteure, die für die Entstehung der Todeszonen verantwortlich sind. Neben den Ausscheidungen der Tiere spielt die Landumwandlung für ihre Ernährung eine wichtige Rolle: Vielfach grast das Vieh nicht mehr auf Weiden, sondern steht im Stall und erhält unter anderem Kraftfutter aus Mais und Soja. Beide Nutzpflanzen werden zudem zu Biokraftstoffen weiterverarbeitet, was als zweitgrößter Faktor für die Überdüngung des Golfs betrachtet wird.

In den letzten fünf Jahren lag die Durchschnittsgröße der sich mittlerweile alljährlich bildenden Todeszone vor der Mündung des Mississippis nur bei rund 15 000 Quadratkilometern. Das liegt weit über den 5000 Quadratkilometern, die als Maximalgröße von den US-Behörden eigentlich angestrebt wird. Denn diese hypoxischen Bedingungen zerstören nicht nur die Artenvielfalt vor Ort, sondern verursachen natürlich auch ökonomische Schäden: Fischfang und Schrimpszucht erleiden dadurch starke finanzielle Einbußen. Todeszonen treten weltweit in wachsender Zahl und Größe vor Küsten auf; sie wurden in der Ostsee und im Schwarzen Meer ebenso beobachtet wie vor Westafrika oder der Mündung des Jangtsekiang in Ostasien.

© Spektrum.de

Meeressäuger: 10 faszinierende Fakten über Wale

http://www.spektrum.de/wissen/10-faszinierende-fakten-ueber-wale/1483765

Pottwal

© uwimages / Getty Images / iStock
(Ausschnitt)
Für die meisten Menschen sind Wale heutzutage keine gewaltige Proteinquelle mehr, die es hemmungslos auszubeuten gilt, sondern sanfte, kluge Meeresriesen. Nach Jahrhunderten der Bejagung bis fast an den Rand der Ausrottung haben sich viele Arten in ihrem Bestand wieder etwas erholt. Und neben einigen indigenen Völkern jagen nur noch wenige Nationen die Tiere in größerem Stil. Die Erforschung der Wale hat in den letzten Jahrzehnten rasante Fortschritte gemacht, viele Fragen sind aber weiterhin offen. Warum tauchen Cuvier-Schnabelwale so tief? Weshalb stranden Wale? Wie ernährt der Blauwal seinen massigen Körper? Und welche Arten drohen doch bald zu verschwinden?

Amazonas-Flussdelfin – auch im Süßwasser sind Wale zu Hause
© dennisvdw / Getty Images / iStock
(Ausschnitt)

 Bild vergrößernAmazonas-Flussdelfin – auch im Süßwasser sind Wale zu Hause

Wale und Delfine bringen wir vor allem mit Salzwasser in Verbindung. In der Tat lebt die überwältigende Mehrheit der rund 90 bekannten Arten im Meer. Eine kleine Gruppe hat sich allerdings an das Süßwasser angepasst und existiert inzwischen ausschließlich in großen Flusssystemen Südamerikas und Asiens: die Amazonas-Flussdelfine, die Gangesdelfine und der Jangtse-Delfin oder Baiji, der mittlerweile als ausgestorben gilt (einige andere Spezies wie der Irawadidelfin im Mekong suchen diesen Lebensraum nur zeitweise auf). Das auffälligste Merkmal der Flussdelfine ist ihre längliche, sehr schmale Schnauze, mit der sie sich an die oft trüben Gewässer mit geringer Sichtweite angepasst haben: Sie suchen damit nach Nahrung im Schlamm am Flussgrund. Wahrscheinlich entwickelten sich die ersten Flussdelfine vor etwa 20 Millionen Jahren aus Arten, die in flachen Küstenmeeren und im Brackwasser vor Flussmündungen zu Hause waren. Aus dem Amazonasbecken kennt man heute drei Arten, die sich auf großen Flüssen relativ leicht beobachten lassen. Der Amazonas-Flussdelfin (Inia geoffrensis), der unter ihnen am weitesten verbreitet ist, fällt darüber hinaus durch seine rosige Haut auf. Fischer betrachten ihn aber leider manchmal als lästige Konkurrenz und töten ihn – sein Fleisch dient dann auch oft als Köder für die eigentliche Beute.

Omurawal – unbekannte Vielfalt im Meer
© Salvatore Cerchio, New England Aquarium and Woods Hole Oceanographic Institution
(Ausschnitt)

 Bild vergrößernOmurawal – unbekannte Vielfalt im Meer

Er ist größer als ein Schwertwal, dennoch übersahen ihn Meeresbiologen lange Zeit: Erst im Jahr 2003 beschrieben japanische Wissenschaftler den Omurawal (Balaenoptera omurai). Zuvor wurden durch Walfänger getötete Exemplare als kleine Vertreter des Brydewals betrachtet. Und seit der offiziellen Anerkennung als eigenständige Spezies hat die Erforschung der Omurawale kaum Fortschritte gemacht, bis Salvatore Cerchio vom New England Aquarium in Boston und sein Team erstmals eine Population vor der Nordwestküste Madagaskars entdeckten und beobachten konnten. Laut einer DNA-Analyse weisen die Omurawale eine vergleichsweise geringe genetische Diversität untereinander auf, wahrscheinlich sind sie also recht selten. Die Tiere scheinen zumindest regional relativ flache und warme Schelfwassergebiete zu bevorzugen, wo sie Zooplankton aus dem Wasser filtern. Der Omurawal ist übrigens keine extreme Ausnahme: In den letzten Jahrzehnten wurden einige neue Walarten entdeckt und beschrieben – trotz ihrer Größe können sie in den Weiten der Meere übersehen werden oder wurden fälschlicherweise bereits bekannten Arten zugewiesen. Ein anderes Beispiel ist ein bislang unbeschriebener Schnabelwal aus dem Pazifik, den japanische Walfänger wegen seiner dunklen Färbung als Rabenwal bezeichnen.

Atlantischer Nordkaper – Kollisionen sind sein Schicksal
© Foto4440 / Getty Images / iStock
(Ausschnitt)

 Bild vergrößernAtlantischer Nordkaper – Kollisionen sind sein Schicksal

Der Atlantische Nordkaper (Eubalaena glacialis) gehört zu den seltensten Großwalen der Erde. Bis heute hat er sich praktisch nicht von der Jagd erholt, durch die sich der einst rund 100 000 Tiere große Bestand drastisch reduziert hat: Nur etwa 300 bis 500 Exemplare schwimmen noch vor der nordamerikanischen Atlantikküste. Die europäische Population ist dagegen wohl ausgestorben. Im Englischen heißt die Art auch „right whale“, weil diese Tiere die richtigen Meeressäuger am Anfang der Waljagd waren. Sie zogen langsam in Küstennähe dahin und ließen sich daher leicht erbeuten. Heutzutage besteht die größte Gefahr für sie in der Kollision mit Schiffen. Die Zusammenstöße während der letzten Jahrzehnte sind für ein Drittel aller geklärten Todesfälle der Wale verantwortlich. Häufig sterben die Tiere auch, weil sie sich in Fangleinen und Netzen verheddern. Wegen des kleinen Bestands bedeutet der Verlust jedes einzelnen Exemplars einen Rückschlag für den Artenschutz.

Pottwale – Vorsicht, wenn sie stranden
© piola666 / Getty Images / iStock
(Ausschnitt)

 Bild vergrößernPottwale – Vorsicht, wenn sie stranden

Im Januar 2016 strandeten mehrere Pottwale an der deutschen und niederländischen Küste, obwohl sie laut Autopsie gesund waren – abgesehen vom Plastikmüll im Magen, der jedoch nicht unmittelbar zum Tod geführt habe, so die Veterinärmediziner. Wahrscheinlich hatten sich die Tiere auf ihrem Zug aus der Arktis nach Süden in die Nordsee verirrt, wo sie nicht ausreichend Nahrung fanden und schließlich im flachen Schelfmeer endeten. Prinzipiell können solche Strandungen weltweit auftreten. Die Ursachen dafür sind bisher nicht vollständig geklärt; diskutiert wird Verschiedenes, etwa dass Sonnenstürme die Magnetorientierung der Tiere beeinträchtigen, militärisches Sonar ihre Kommunikation fatal stört oder kranke Artgenossen sie ins Verderben leiten. Oft versuchen Menschen diesen Pottwalen wieder zurück ins Meer zu helfen, leider verendet jedoch die Mehrzahl am Strand. Für die Retter kann es sogar heikel werden – wenn Faulgase die massigen Leiber aufblähen. Denn bisweilen explodieren die Kadaver, wovon eindrucksvolle Videoaufnahmen zeugen. Manchmal werden die toten Wale auch präventiv gesprengt.

Schweinswal – Deutschlands einziger Wal
© BrendanHunter / Getty Images / iStock
(Ausschnitt)

 Bild vergrößernSchweinswal – Deutschlands einziger Wal

In deutschen Gewässern tummeln sich nur selten Wale. Mitunter verirren sich Pottwale in die Nordsee, doch sterben sie dann bald. Auch Finn- und Zwergwale sind nicht häufig Gäste. Und der Große Tümmler lebt zwar in der Nordsee, hält sich aber meist von unseren Küsten fern. Ganz anders sieht es dagegen beim Gewöhnlichen Schweinswal (Phocoena phocoena) aus, den man mit etwas Glück vom Sylter Strand aus beobachten kann. Denn hier pflanzen sich die Meeressäuger fort und ziehen ihre Jungen groß. Den Gesamtbestand in unseren Gefilden schätzt man je nach Jahreszeit auf 15 000 bis 50 000 Tiere. Die Art ist also nicht akut gefährdet. Allerdings haben die Schweinswale in der Nordsee durchaus Probleme: Sie verfangen sich in Fischereinetzen und gelten als lärmempfindlich, so dass sie beim Bau von Offshore-Windkraftanlagen aus den betroffenen Regionen fliehen.

Vaquita – er stirbt leider gerade aus
© Getty Images / Minden Pictures / Flip Nicklin
(Ausschnitt)

 Bild vergrößernVaquita – er stirbt gerade aus

alles lesen …

Plastikplanet: Noch ein Müllstrudel im Pazifik

http://www.spektrum.de/news/noch-ein-muellstrudel-im-pazifik/1485775

Der pazifische Müllstrudel nördlich von Hawaii ist wohlbekannt. Nun zeigt sich: Es gibt ein südliches Gegenstück dazu.

Feuerfisch inspiziert Plastiktüte im Meer

© richcarey / Getty Images / iStock
(Ausschnitt)
Vermutet wurde es schon lange, doch erst jetzt gibt es die offizielle Bestätigung, dass auch im Südpazifik ein gewaltiger Müllstrudel vornehmlich aus Plastikabfällen kreist. Er nimmt eine Fläche von rund 2,6 Millionen Quadratkilometern ein und entspricht damit etwas mehr als der tausendfachen Fläche des Saarlands. Das berichtete Charles Moore von der Algalita Marine Research Foundation gegenüber „ResearchGate„, der mit seinem Team eine Schiffsexpedition in die Region durchgeführt hatte. Dabei entnahmen sie unter anderem rund um die Oster- und Robinson-Crusoe-Inseln Wasserproben, um den Plastikgehalt darin zu messen.

Im Gegensatz zum schon länger bekannten Müllstrudel im Nordpazifik besteht das südliche Pendant zumindest in diesem Seegebiet vor der südamerikanischen Küste weniger aus großen Abfällen wie Plastikflaschen, Zahnbürsten oder Schuhen, sondern vor allem aus Granulat: Das Material war bis dahin also schon länger im Ozean unterwegs und entsprechend zerkleinert. „Wir haben gewaltige Mengen Kunststoff gefunden“, fasst es Ozeanforscher Moore zusammen. Auch andere Indizien sprechen dafür, dass hier viel Müll kreist – und darunter nicht nur Kleinteile. Im Mai 2017 wurde beispielsweise eine Studie veröffentlicht, wie viel Kunststoff sich innerhalb weniger Jahre auf der unbewohnten und isolierten Henderson-Insel angesammelt hat. Auch sie liegt im potenziellen Einflussgebiet des Müllstrudels.

Das Problem scheint sich im Südpazifik zu verschärfen, denn eine Studie aus dem Jahr 2011 erbrachte deutlich weniger Müll als heute. In der abgelegenen Region fern von Siedlungszentren reichern sich also erst seit relativ kurzer Zeit Abfälle an, doch geschehe dies in hohem Tempo, so Moore. Woher sie stammen, ist noch unklar, denn sie müssen wegen der geringen Größe eine längere Reise hinter sich haben, was auf eine Quelle außerhalb des Südpazifiks hinweist. Womöglich stammen die Partikel aus dem nördlichen Gegenstück und driften über den Äquator. Laboranalysen sollen genaueren Aufschluss über die Herkunft geben. Die Datenauswertung soll zudem abschätzen helfen, wie viel Müll hier eigentlich unterwegs ist. „Nach dem, was ich gesehen habe, gehe ich davon aus, dass auf einer riesigen Fläche im Südpazifik Millionen Plastikteilchen pro Quadratmeter schwimmen“, schätzt Moore.

Potenziell kann jeder der fünf großen Meereswirbel im Atlantik, Pazifik und Indischen Ozean als Müllstrudel enden. Wirklich gut untersucht sind jedoch nur der nordpazifische und in etwas geringerem Umfang der nordatlantische Wirbel. Zu den anderen drei Wirbeln liegen hingegen kaum Daten vor. Vorherrschende Winde und Meeresströmungen sorgen dafür, dass Abfälle von den Küsten und aus der Schifffahrt hier eingetragen werden und dann für längere Zeit im Meer kreisen. Ein Teil des Mülls sinkt in die Tiefsee, wird zerkleinert und gelangt in die Nahrungskette oder endet schließlich doch wieder an den Küsten. Es existieren Pläne, diese Abfälle aus dem Wasser zu fischen und zu entsorgen, doch bislang ist noch kein Ansatz über Pilotprojekte hinausgekommen.

© Spektrum.de

Computermodelle: Wahrheit aus der Maschine

http://www.spektrum.de/news/wahrheit-aus-der-maschine/1483283

Computersimulationen werden in der Forschung immer wichtiger – erzeugen bald Algorithmen wissenschaftliche Fakten?

Simulation des Jetstreams

© NASA, GSFC
(Ausschnitt)
Die weiße Reaktorkuppel des englischen Kernkraftwerks Sizewell B leuchtet bei Sonnenschein weit über die flache, grüne Landschaft Suffolks. Auf der einen Seite der Anlage liegen Felder und Weiden, auf der anderen rollt die Nordsee an den Strand. Die ersten Häuser des Dorfs Leiston liegen zwei Kilometer entfernt, und direkt vor der Zufahrt zum Meiler wartet der Pub „Vulcan Arms“ auf Gäste. Es ist fast eine Provinz-Idylle.

Eher ungewöhnlich aber ist, dass sich zuletzt Fachleute aus gut 30 Ländern mit dem englischen Meiler beschäftigt haben. Sizewell B mit seinem Schornstein, dem Rohr für abfließendes Kühlwasser im Meer und den Dörfern in der Umgebung lieferte den Schauplatz für einen Wettstreit der Simulationsrechnungen, um zehn Modelle zur Ausbreitung radioaktiver Stoffe zu testen.

Alle Simulationen starteten mit den gleichen Daten über eine fiktive Freisetzung von radioaktivem Jod, Zäsium oder Kobalt. Die Programme sollten dann kalkulieren, wie sich die Stoffe in der Umwelt verbreiten. Die entscheidende Frage war, welche Strahlendosis die Bewohner der Gegend erhalten würden, wenn sie Muscheln aus dem Meer essen, lokale Möhren verzehren, die Milch ihrer Kühe trinken und am Strand schon mal etwas Sand in den Mund bekommen.

Simulationen für die Drecksarbeit

So etwas kann niemand in einem Experiment testen: Es wäre unethisch und unpraktisch. Darum kommen Simulationsverfahren zum Einsatz; sie lieferten hier bis auf einen Ausreißer vergleichbare Ergebnisse. Die Belastung lag unter einem Prozent der erlaubten Dosis. Solche Modelle seien „unverzichtbare Werkzeuge für die Kontrolle von Routine-Freisetzungen und die Planung von Maßnahmen für Unfälle“, stellte die Internationale Atomenergie-Organisation IAEA fest.

Die Strahlenschützer sind mit dieser Methodik nicht allein. Simulationen machen viele Projekte überhaupt erst möglich. Was in der Realität potenziell gefährlich ist wie Radioaktivität, kompliziert wie Rezeptoren in Nervenzellen, weit weg wie ein Komet, was in der Vergangenheit liegt wie der Biss eines Dinosauriers oder in der Zukunft wie das Klima am Ende des Jahrhunderts, das können Wissenschaftler ohne Computersimulation praktisch nicht mehr untersuchen.

„Computermodelle haben die wissenschaftliche Arbeitsweise radikal verändert“, sagt die Wissenschaftsphilosophin Gabriele Gramelsberger von der Universität Witten/Herdecke. „Viele Fragen lassen sich ohne sie kaum noch untersuchen.“ Eine Online-Enzyklopädie ihres Fachs listet als eines von drei Einsatzgebieten der Simulation: Daten zu generieren, wo es keine gibt. Daraus ergibt sich sofort die Frage: Sind die Berechnungen zuverlässig, spiegeln sie die Realität wider? Oder knapper: Liefern Simulationen wissenschaftliche Fakten?

Diese simple Frage löst bei vielen Forschern Unbehagen aus, weil „Fakten“ in der Alltagssprache einen Nimbus haben, den die Wissenschaftssprache nicht teilt. Die Wissenschaftler sprechen daher lieber über den Wert der gewonnenen Erkenntnisse und die Frage, ob Modellrechnungen Experimente ersetzen können. Im Vordergrund stehen dabei meist Sorgen über die Qualität der erzeugten Daten. „Fakten“, das sind für Forscher eben am ehesten Datenpunkte.

Nützliche Fiktion

Zum Beispiel für Paul Gignac. Der Dinosaurier-Forscher von der Oklahoma State University hat vor Kurzem mit Computerhilfe einem Tyrannosaurus rex ins Maul geschaut. Für die Simulation versah Gignac den digitalisierten Schädel eines der Raubtiere mit virtuellen Muskeln und berechnete dann mit biomechanischen Methoden die Beißkraft sowie den Druck, den die Zähne ausübten. Das Modell warf konkrete Zahlen aus: 718 bis 2974 Megapascal – das ist in der Größenordnung des spezifischen Drucks, den ein Kilogramm des Sprengstoffs TNT bei der Explosion in einem Ein-Liter-Gefäß erzeugen würde.

Ob das Ergebnis stimmt, kann weder Gignac noch sonst jemand überprüfen; der Dino ist vor 66 Millionen Jahren ausgestorben. „Die Anordnung der Muskeln im Schädel ist unsere Hypothese, aber im Kontext dieses Modells sind die Werte für Beißkraft und Druck Fakten“, erklärt der Forscher aus Tulsa. Immerhin bestätigte die Rechnung, was die Forschung von Funden weiß: T. rex konnte auch die stärksten Knochen seiner Beute sprengen und zermalmen.

Fakten mit Simulationen geschaffen hat bereits die Europäische Raumagentur ESA, als im August 2014 die Raumsonde Rosetta am Kometen P67/Tschurjumow-Gerasimenko ankam. „Ohne Modelle und Computer könnten wir überhaupt nichts machen“, weiß der Flugdirektor Andrea Accomazzo von der ESA. „Sie liefern uns schon im Design eines Raumschiffs entscheidende Daten und auch noch beim Flug zum Ziel.“ Die Bahn durch das Sonnensystem, auf der das Raumschiff bei Vorbeiflügen an der Erde und dem Mars Schwung holte und zwei Asteroiden begegnete, hat das Team im Kontrollzentrum Darmstadt am Computer ausgetüftelt.

Vergleich Experiment mit Computermodellierung von Einschlägen mit flachen Auftreffwinkeln
© Peter Schulz
(Ausschnitt)

 Bild vergrößernVergleich Experiment mit Computermodellierung von schrägen Einschlägen

Im oberen Teilbild wurde eine Aluminiumplatte mit einem sechs Millimeter großen Projektil aus Aluminium unter einem Winkel von 15 Grad beschossen. Dabei entstanden eine Wolke aus verdampfendem Aluminium und kleine Partikel, welche über die Oberfläche der Aluminiumplatte schrammten und dabei Furchen aushoben. Im unteren Teilbild ist eine Computersimulation zu sehen, die den Einschlag eines rund 100 Kilometer großen Asteroiden auf der Mondoberfläche unter einem Winkel von 30 Grad modelliert. Das Verteilungsmuster der Schrammen ähnelt jenem aus dem Schussversuch.

Eine besondere Schwierigkeit bestand darin, dass die Experten für das Einschwenken in die Umlaufbahn um P67 Messwerte von Rosetta brauchten, die die Sonde erst kurz vor Ankunft liefern konnte. Wie schnell und zuverlässig das Team solche Daten würde verarbeiten können, hat die ESA darum vorab mit fiktiven Kometen in ihrem Computersystem erprobt – das war also sozusagen die Simulation einer Simulation. Diese Abhängigkeit vom Computer führe bei Raumfahrtplanern am Anfang der Karriere oft dazu, „dass sie Simulationen mehr vertrauen als der Realität“, erläutert Accomazzo.

Erkenntnis statt Fakten

Den Bezug zur Wirklichkeit stellen viele andere Simulationsbetreiber mit zwei Techniken her, die sie Verifikation und Validierung nennen. Die erste prüft, ob das Modell die richtigen Gleichungen korrekt gelöst hat, ist also auf innere Konsistenz gerichtet. Die zweite aber testet, ob Ergebnisse der Simulation mindestens in Randbereichen zu Messwerten aus der Realität passen. Die Möglichkeit dazu ist oft sehr beschränkt. Eigentlich sei es sogar unmöglich, Simulationsrechnungen auf diese Weise zu bestätigen, stellte schon vor mehr als 20 Jahren die Wissenschaftshistorikerin Naomi Oreskes fest, die inzwischen an der Harvard University lehrt. Noch heute ist der Aufsatz vielen Modellbauern geläufig. Die Autorin hatte 1994 geschrieben, der Abgleich mit Messungen könne allenfalls ein Maß dafür liefern, mit welcher Wahrscheinlichkeit die Aussagen des Modells stimmen. „Darum glaube ich weiterhin nicht, dass Simulationen Fakten liefern“, betont Oreskes noch heute.

Manche Wissenschaftler stellen darum statt des ohnehin unliebsamen Wortes „Fakten“ lieber die „Erkenntnis“ in den Vordergrund. Sie kann in der Forschung aus einer Wahrscheinlichkeitsaussage erwachsen, aus einem Korridor möglicher Werte, aus einer Reihe von Szenarien, selbst aus einem Fehlschlag. Dann weiß man immerhin: So geht es nicht.

Auch Messungen enthalten in der Wissenschaft ja meist eine Wahrscheinlichkeitsaussage. Wer zum Beispiel eine Länge mit einen Zollstock bestimmt, der kann das vielleicht plus/minus einen Drittel Millimeter genau tun, und in diesem Plus/Minus steckt eine Aussage darüber, wie wahrscheinlich die Messung mit dem wahren Wert übereinstimmt. Aus Daten nicht mehr herausholen zu wollen, als in ihnen stecken kann, ist eine frühe Lektion für angehende Wissenschaftler. Über Erkenntnisse statt über Fakten nachzusinnen, bestimmt dann auch den Umgang mit den Resultaten von Simulationen.

Erkenntnisgewinn statt Faktenproduktion – so sieht es auch Jochem Marotzke vom Max-Planck-Institut für Meteorologie in Hamburg. Das übersetzt sich in den Sprachgebrauch seiner Disziplin, der Klimaforschung: Hier betonen Wissenschaftler stets, dass sie „Projektionen“ liefern, keine „Vorhersagen“. Sie berechnen also nicht, ob es am Heiligabend 2087 in Nürnberg schneit, sondern höchstens, wie wahrscheinlich Schnee Ende Dezember in Franken in den 2080er Jahren ist. Generell geht es um Muster des Wetters, der Temperaturen, der Niederschläge – Klima eben. Die Berechnung ist ein mühsamer Prozess, bei dem ein Supercomputer über Myriaden von Zeiteinheiten und Raumelementen immer wieder die gleichen meteorologischen Zustandsgleichungen löst.

Realitätscheck

Ein wichtiger Test für Klimamodelle ist das so genannte Hindcasting: Die Simulationen bekommen Anfangswerte aus einem Jahr weit in der Vergangenheit und müssen dann ohne weitere Hilfe die Entwicklung bis zur Gegenwart im Detail nachvollziehen. Versagt die Simulation dabei, trauen die Forscher auch dem Ausblick auf die Zukunft nicht und machen sich daran, ihr Modell zu verbessern. Doch selbst wenn der Test gelingt, so Marotzke selbstkritisch, „ist eigentlich nicht überprüfbar, ob die Aussagen für eine Zeit 80 Jahre in der Zukunft noch stimmen. Wir wissen ja nicht einmal, ob wir richtige Ergebnisse auch aus den richtigen Gründen bekommen haben.“ Und 80 Jahre zu warten, um dann zu erfahren, ob die Simulation von 2017 korrekt war, sei ja auch sinnlos.

Darum testen die Klimaforscher sich zum einen mit Rechnungen über nur ein Jahrzehnt Zukunft, die umso schneller mit der Realität abgeglichen werden können. Zum anderen vergleichen sie ihre Resultate mit Kollegen aus vielen anderen Ländern, die die Aufgabe ganz anders gelöst haben. So teilen zum Beispiel viele Gruppen die Atmosphäre in lauter eckige Kästchen, die von Höhenlinien, Längen- und Breitengraden begrenzt werden. Die Hamburger hingegen rechnen mit Kugelschalen und sphärischen Gleichungen. Liefern derart unterschiedliche Ansätze ähnliche Ergebnisse, steigt das Vertrauen genau wie bei den Raumfahrern der ESA und den Strahlenschützern der IAEA.

„Wir sollten Simulationen wie Experimente behandeln“, fordert Marotzke. „Wir müssen damit herumspielen, Randbedingungen variieren, die Umgebung der Parameter erkunden, herausfinden, was mögliche Messfehler oder Lücken in den Daten bewirken.“ Der Klimaforscher schlägt sich damit eindeutig auf eine Seite der Debatte in der Wissenschaftsphilosophie, die sich seit Langem fragt, ob Modellrechnungen eher zur Theorie oder zur Empirie gehören. Einerseits werden im besten Fall bekannte Gleichungen gelöst, wenn nötig numerisch und iterativ, andererseits erkunden viele Forscher genau wie Marotzke das Verhalten ihrer Modelle unter Hypothesen und mit planmäßiger Variation von Größen und Variablen.

Gabriele Gramelsberger, die Philosophin von der Universität Witten/Herdecke, schlägt darum einen sprachlichen Kompromiss vor: „Simulationen sind Theorie, mit der sich numerisch experimentieren lässt.“ Die Modellrechnung ist damit eine Art Zwitterwesen und dringt von der einen Seite in den Graben zwischen Theorie und Empirie vor. Von der anderen Seite aber dehnen sich auch die Daten und Messwerte zur Mitte hin aus. Was Satelliten zur Erde funken oder was die turnhallengroßen Detektoren an einem Teilchenbeschleuniger wie dem LHC am CERN in Genf liefern, sind schon längst keine direkten Messwerte mehr. Es sind oft mit vielen Verarbeitungsschritten verfeinerte und gefilterte Zahlenkolonnen, in denen Annahmen und Rechenschritte stecken. „Modelldaten werden dann mit Datenmodellen verglichen“, schildert Gramelsberger.

Besser als das Experiment?

Angesichts rapide wachsender Computer-Power ist auch nicht verwunderlich, dass manche Disziplinen beginnen, Simulationen nicht nur wie Experimente, sondern auch als Experimente zu behandeln. Die Biochemie ist ein Beispiel, wenn es um die Funktion von Membranrezeptoren geht. „Inzwischen kommen wir mit Simulationen näher an die biologische Wirklichkeit als mit unseren Messverfahren“, teilt Timothy Clark von der Universität Erlangen-Nürnberg mit. Das liegt am Sujet: Rezeptoren sind komplizierte Eiweißmoleküle in der Zellwand zum Beispiel von Neuronen. Eine Verbindung wie der Serotoninrezeptor, der für den Seelenhaushalt des Menschen sehr wichtig ist, ragt in den synaptischen Spalt zwischen Nervenzellen und wartet auf Neurotransmitter. Passt einer genau in sein aktives Zentrum und bindet sich an ihn, verändert sich die dreidimensionale Struktur des Rezeptors und löst so ein Signal im Inneren der Nervenzelle aus.

Dieser Mechanismus hängt entscheidend von der Form des Rezeptors ab. Wenn Chemiker diese experimentell bestimmen wollen, müssen sie erst eine Möglichkeit finden, eine große Zahl der (oft empfindlichen) Zielmoleküle in einem Kristallgitter zu verankern, und dieses dann mit Röntgenstrahlen untersuchen. Doch viele der so genannten g-Protein gekoppelten Rezeptoren (GPCR) lassen sich nicht in einer Form kristallisieren, die sie jemals in der Zelle annehmen würden, berichtet Clark. Die Röntgenanalyse wäre also praktisch wertlos für biochemische Fragestellungen. „Im Computer hingegen können wir das Verhalten eines Rezeptors während der Reaktion nachvollziehen. Und die Modellrechnung liefert uns Vorhersagen etwa für die freie Energie, die wir im Experiment überprüfen können.“

Der nächste Schritt ist, mögliche Arzneimittel-Moleküle virtuell an den simulierten Rezeptoren zu testen. Das könnte die Prüfung möglicher Wirksubstanzen in der Pharmaforschung deutlich beschleunigen. Wenn Präparate dann in klinischen Tests einen therapeutischen Nutzen zeigen und als Arzneimittel zugelassen werden, ist allerdings noch nicht unbedingt bewiesen, ob die Simulation am Anfang korrekt war.

Das zeigt gerade der Serotoninkreislauf. Er ist seit Jahrzehnten das Ziel von Medikamenten gegen Depression, zum Beispiel unter dem Handelsnamen Prozac. Sie wurden noch ohne Simulationen entwickelt, damals lag eine Idee für den Ansatzpunkt zu Grunde, aber ihr genauer Wirkmechanismus ist bis heute umstritten. So könnten Simulationen selbst dann Fakten schaffen, wenn kein Mensch wissen kann, ob sie korrekt sind.

© Spektrum.de

http://platform.twitter.com/widgets/follow_button.861dfa4968a7fc0e69901a06f838af03.de.html#dnt=true&id=twitter-widget-0&lang=de&screen_name=spektrum&show_count=true&show_screen_name=true&size=m&time=1501066904525

Naturschutz: Insektensterben – und keiner will es gewesen sein

http://www.spektrum.de/kolumne/insektensterben-und-keiner-will-es-gewesen-sein/1484979

Schwindet unsere Insektenvielfalt – und die Zahl der Tiere? Diese Frage kann nur mit Ja beantwortet werden. Schuld daran sind aber nicht nur die Landwirte.

Toter Schmetterling

© krusunshiro / Getty Images / iStock
(Ausschnitt)
Seit 1905 existiert der Entomologische Verein Krefeld. Doch so viel Aufmerksamkeit wie 2017 haben die Insektenforscher vom Niederrhein wohl noch nie seit Beginn ihrer Arbeit erfahren. Um bis zu 80 Prozent sei die Zahl fliegender Insekten in einem von ihnen betreuten Naturschutzgebiet seit 1989 zurückgegangen: Schmetterlinge, Schwebfliegen, Wildbienen. So stand es unter dem Titel „Ermittlung der Biomassen flugaktiver Insekten im Naturschutzgebiet Orbroicher Bruch in den Jahren 1989 und 2013“ in einer Mitteilung des Vereins, doch erregte diese erst einmal wenig mediale Aufmerksamkeit. Zwar bezog sich unter anderem der NABU 2015 in einem Artikel auf diesen Schwund, aber der drastische Befund verhallte ohne größeres Echo in der Presselandschaft.

Zwei weitere Jahre gingen ins Land, bis dieser Rückgang dann plötzlich doch Schlagzeilen machte. Erstaunlicherweise geschah dies zuerst auf Englisch in „Science“, wo Gretchen Vogel im Mai eine gut recherchierte Geschichte rund um die Daten der Krefelder Insektenkundler herausbrachte. Zwei Monate später sprang schließlich auch die deutsche Presse auf und widmete sich in dutzenden Artikeln dem Ende unserer Kerbtiere. Aber warum? Die Grünen hatten das Thema im Wahlkampf für sich entdeckt und die erschreckende Aussage des Bundesumweltministeriums mit den 80 Prozent Rückgang verkündet. Danach wurde es von zahlreichen Zeitungen aufgegriffen und weiterverbreitet.

Seitdem tobt der Kampf um die Meinungshoheit. Die Daten werden angezweifelt. Ihre Übertragbarkeit auf die gesamte Republik wird in Frage gestellt. Und bei der Suche nach einer potenziellen Ursache weisen alle potenziell Verantwortlichen mit dem Finger weit von sich. Insektensterben? Ja, vielleicht. Aber ich bin nicht schuld …

Sicher ist, dass die Daten stimmen: Akribisch haben die Mitglieder des Vereins teils über Jahrzehnte mit wissenschaftlich anerkannten Methoden Insekten gesammelt, bestimmt und die Daten ausgewertet. 1989 gingen ihnen 1400 Gramm Insekten in die Falle, 2013 waren es nur noch 300 Gramm. Eine weitere Wiederholung 2014 erbrachte übrigens ähnlich niedrige Zahlen, so dass beispielsweise ein kalter Winter 2012/13 nicht als Hauptursache in Frage kam. Mehr noch: Dank ihrer Sammlung konnten die beteiligten Hobby- und Profiforscher den Negativtrend ebenso für zahlreiche andere Standorte nachweisen, wo Insekten gesammelt wurden.

Nicht übertragbar, aber im Trend

Dennoch beschreiben die Daten nur eine spezifische Region am Niederrhein – wie Martin Sorg vom Entomologischen Verein Krefeld gegenüber der „Frankfurter Allgemeinen Zeitung“ betont. Natürlich ließe sich das nicht auf ganz Deutschland übertragen. Es handle sich um punktuelle Messungen. Aber überall, wo man nachschaue, seien die Bestände rückläufig, so der Biologe zur „FAZ“. Diese Generalisierung war ein Werk der Politik und wurde von manchen Medien unkritisch übernommen – was später die Zweifel an den Zahlen befeuern sollte. „Die Ergebnisse von Hobbyforschern aus zwei Messpunkten in einem Krefelder Naturschutzgebiet zu einem deutschlandweiten Massensterben der Insekten aufzublasen, ist dagegen unseriös bis skandalös. Das schadet nicht nur der Sache, sondern vor allem der Glaubwürdigkeit aller Beteiligten“, schreibt beispielsweise der Kommunikationsexperte Hasso Mansfeld in seinem Beitrag auf „Meedia“, der seitdem in sozialen Medien eifrig diskutiert wird. Und in der „Süddeutschen Zeitung“ wird die mediale Verzerrung der Krefelder Studie unter dem Titel „Wenn jede Alltagsbeobachtung zu Alarmismus führt“ kommentiert.

Bei weniger kundigen Betrachtern dürfte sich nach der drastischen Warnung jetzt wahrscheinlich schnell der Eindruck festsetzen, dass die Umweltschützer einfach mal nur wieder übertreiben – so wie heute auf das Waldsterben in den 1980er Jahren zurückgeblickt wird, das mittlerweile nur noch als ein angebliches gilt (eine Betrachtung, welche die zahlreichen in der Folge eingeführten Gegenmaßnahmen wie die Rauchgasentschwefelung schlicht unterschlägt).

Dabei ist die Krefelder Studie nur ein markantes Ausrufezeichen, das Trends aus vielen Regionen der Bundesrepublik bestätigt. Gut untersucht sind beispielsweise die Schmetterlinge: Mehr als zehn Prozent aller in Bayern heimischen Arten sind demnach in den letzten Jahrzehnten ausgestorben, und sogar die Bestände noch häufiger Spezies wie des Tagpfauenauges befinden sich im freien Fall. Das ist die Quintessenz einer Analyse von 400 000 Datensätzen dazu, falls jemand Zweifel anmelden möchte. Noch schlimmer steht es um Wildbienen und Hummeln: Von den rund 560 in Deutschland heimischen Arten nehmen rund 60 Prozent an Zahl drastisch ab und sind gefährdet. Insgesamt steht knapp die Hälfte aller Insektenarten auf der Roten Liste. Wer diese Zahlen nicht glauben mag, kann sich an der viel besser erfassten Gruppe der Vögel orientieren. Denn als besonders bedroht gelten mittlerweile neben bodenbrütenden Wiesenvögeln vor allem jene Vertreter, die wie Schwalben, Mauersegler oder Neuntöter auf reichhaltige Insektennahrung angewiesen sind. Auch wenn es neben der Krefelder Studie nur wenige fest verortete Langzeitstudien gibt: Die Indizien aus allen Teilen der Republik sind eindeutig und werden durch Studien aus den Niederlanden oder Großbritannien bestätigt.

Tote Insekten am Kühlergrill
© RiverNorthPhotography / Getty Images / iStock
(Ausschnitt)

 Bild vergrößernTote Insekten am Kühlergrill

In der Diskussion ums Insektensterben wird gerne erwähnt, dass heute viel weniger tote Insekten an den Fahrzeugen kleben als früher. Manche führen das auf aerodynamischere Autos zurück. Wahrscheinlicher ist aber, dass es einfach viel weniger Kerbtiere gibt.

Schwierige Ursachenforschung

Deutlich komplizierter ist hingegen die Ursachenforschung. Zuerst wird natürlich auf die Landwirtschaft gedeutet – und das durchaus zu Recht. Zwischen 1995 und 2005 lag der Absatz von Pflanzenschutzmitteln in Deutschland konstant bei rund 35 000 Tonnen jährlich – bis 2015 ist er auf 49 000 Tonnen im Jahr angestiegen. Die Mittel werden direkt gegen Schadinsekten eingesetzt oder gegen Unkräuter. Selbst wenn Gruppen wie Wildbienen nicht gezielt bekämpft werden, so leiden sie unter dem Nahrungsmangel, wenn Maisfelder bis zum Feldweg reichen und bunte Ackerränder verschwinden. Und auch direkte Folgen sind nicht ausgeschlossen: Als besonders umstritten gelten die Neonikotinoide – eine Gruppe rein synthetisch hergestellter Wirkstoffe, welche auf das Nervensystem von Insekten abzielen –, die womöglich den Rückgang von vielen Bestäubern ausgelöst haben könnten.

Pestizide sind aber nur ein Faktor. Die Intensivierung der Landwirtschaft allgemein zeigt Folgen: Wiesen werden heute oft fünf- bis sechsmal im Jahr gemäht und damit doppelt so häufig wie noch vor 30 bis 40 Jahren – blühende Kräuter werden daher bis auf wenige robuste Arten wie den Löwenzahn zurückgedrängt. Dazu kommt die gezielte Düngung oder der Eintrag von Stickstoff aus der Luft, der artenreiche Magerrasen in eintönige Wiesen umwandelt. Dadurch verlieren viele Arten ebenfalls ihre Nahrungsgrundlage, Spezialisten sterben aus. Diese Probleme kann man jedoch nicht allein den Bauern anlasten. Bürokratische Hindernisse etwa sorgten dafür, dass Landwirte nur schwer Blühränder neu an ihren Äckern anlegen können, so „topagrar“. Die Intensivierung ist zudem auch unserem Verhalten als Verbraucher geschuldet, denn wir wollen vielfach günstige Lebensmittel, was sich auf dem Feld im Dünger- und Pestizideinsatz niederschlägt.

Eine Studie aus „Ecological Indicators“ wiederum deutet an, dass die Zahl der Schmetterlinge in britischen Städten noch schneller schwindet als auf dem offenen Land. Brachflächen werden überbaut, Parks besenrein aufgeräumt, Gärten großzügig mit Insektiziden behandelt, damit keine Raupe an den Zierpflanzen knabbert. Hunderte Tonnen an Pflanzenschutzmitteln gehen jährlich für private Verbraucher in Deutschland über den Ladentisch. Oder aber die Gärten werden gleich auf Pflegeleichtigkeit optimiert und bestehen neben dem Zierrasen aus Kies und immergrünen Exoten. Hier lebt kein Insekt mehr. Die noch flächendeckend vorhandenen Straßenlaternen mit weißem Licht saugen dazu den Nachthimmel leer, weil nachtaktive Insekten von ihnen angezogen werden. Diese Motten umkreisen dann die Lampen, bis sie vor Erschöpfung sterben oder als leichtes Mahl für Fledermäuse dienen. Rund eine Milliarde Insekten könnten nach einer Hochrechnung pro Sommernacht hier zu Lande an den Laternen verenden. Und die Suche nach weiteren Ursachen ließe sich noch problemlos fortsetzen.

Ja, das Insektensterben ist also real und kein Medienhype, der von den Grünen geschickt im Wahlkampf platziert wurde! Jetzt gilt es, die Entwicklung umzukehren und die Beteiligten an einen Tisch zu holen. In der Landwirtschaft muss es ebenso ein Umdenken geben wie bei Privatleuten (als Verbraucher oder Gartenbesitzer). Dass viele Bauern durchaus gewillt sind, dem Negativtrend etwas entgegenzusetzen, zeigt sich unter anderem bei der Aktion „Ein bunter Meter für den Stieglitz“ – ein Vogel zwar, aber er ist wie viele Insekten auf blütenreiche Nahrungsreviere angewiesen. Es wäre schön, wenn die Krefelder Studie dieses Umdenken beschleunigen könnte, selbst wenn sie nicht für ganz Deutschland repräsentativ ist.

Daniel Lingenhöhl

Daniel LingenhöhlDer Autor ist Redaktionsleiter von Spektrum.de.

© Spektrum.de

Meeresbiologie: Massives Artensterben an Schwedens Küste

http://www.spektrum.de/news/massives-artensterben-an-schwedens-kueste/1484643

Das erste Mal seit den 1930er Jahren wurde eine Bestandsaufnahme der Nordseebewohner unternommen. Die Ergebnisse sind erschreckend.

Toter Vogel auf einem Strand

© heldor / stock.adobe.com
(Ausschnitt)
Über einen Zeitraum von 70 Jahren wurden 60 Prozent aller Tierarten in den Nordseeregionen Skagerrak und Kattegat ausgerottet – darunter viele seltene Spezies. Das hat eine groß angelegte Inventur des Meeresleben an der schwedischen Westküste ergeben, die ein europäisches Forscherteam durchgeführt hat. Die Ergebnisse haben die Wissenschaftler um Matthias Obst von der Universität Göteborg in der Fachzeitschrift „Marine Biodiversity“ veröffentlicht. Ein Vergleich mit einer Bestandsaufnahme des Gebiets in den 1920er und 1930er Jahren zeigt, dass sich die Bestände bei 75 Prozent der verbleibenden Arten verschlechtert haben.

ALLES LESEN …

http://www.spektrum.de/news/massives-artensterben-an-schwedens-kueste/1484643

Energiewende: Der Verbrennungsmotor wird noch gebraucht!

http://www.spektrum.de/kolumne/der-verbrennungsmotor-wird-noch-gebraucht/1484369

Verbrennungsmotoren gehören verboten, sagen die Grünen. Der Ingenieur Michael Khan widerspricht: Das Problem ist nicht der Motor, sondern der Treibstoff.

Ein verlassener Campingbus steht in der Landschaft herum.

© richardlyons / stock.adobe.com
(Ausschnitt)

Weg von fossilen Energieträgern und hin zu einem emissionsneutralen Straßenverkehr – darüber sollte man schon nachdenken. Deshalb fordern die Grünen ein Verbrennungsmotoren-Verbot bei Neuwagen ab dem Jahr 2030. Die Partei sagt, der Verbrennungsmotor sei im Kern eine Technik aus dem 19. Jahrhundert. Das stimmt … und?

Der lange Einsatz dieser Technologie bedeutet doch auch, dass inzwischen unzählige Ingenieursjahre an Erfahrung gewonnen wurden. Zudem existiert eine gewaltige Infrastruktur rund um den Verbrennungsmotor und seine millionenfache Nutzung. Warum sollte man das alles wegwerfen, statt es zum Vorteil von Umwelt und Menschen einzusetzen?

Die Tatsache, dass ein Fahrzeug von einem Motor angetrieben wird, in dem eine exotherme chemische Reaktion zwischen Sauerstoff und einem Treibstoff stattfindet, ist doch nicht von vornherein verwerflich. Problematisch ist vielmehr die Tatsache, dass in großen Mengen Kohlendioxid freigesetzt wird, das aus fossilen Kohlenwasserstoffen entsteht. Problematisch sind auch Partikelemissionen sowie Stickoxide und andere Schadstoffe, die im Verbrennungsprozess anfallen. Diese lassen sich aber durch geeignete Techniken und Wahl des Treibstoffs erheblich reduzieren.

Verbrennen – aber etwas anderes!

Wenn nun der Treibstoff synthetisch hergestellt und nicht aus fossilen Lagerstätten gewonnen wird, dann könnte der Gesamtprozess – von der Treibstoffherstellung bis zum Fahren des Fahrzeug mit Verbrennungsmotor – CO2-neutral sowie generell emissionsarm gestaltet werden. Das ist doch genau, was wir wollen, oder nicht? Der Verbrennungsmotor selbst und das Fahrzeug, in dem er eingebaut ist, ist da noch das geringste Problem. Ein Drucktank für CNG und einige Modifikationen in der Motorhardware und -elektronik, das war’s schon.

alles lesen …

http://www.spektrum.de/kolumne/der-verbrennungsmotor-wird-noch-gebraucht/1484369