Tag Deutschlandfunk

Der Grund, warum ich die GEZ-Gebühren entschieden verteidige: der Deutschlandfunk. Sein Name ist zwar selten dämlich, und seine Politikredaktion bringt mich regelmäßig zur Verzweiflung. Aber er hat z.B. mit Forschung aktuell oder auch Freistil auch wirklich hervorragende Sendungen. Und spätestens, nachdem ich eine Presseschau gehört habe, erinnere ich mich wieder daran, dass selbst die Politikredaktion in Relation zu privaten Medien immer noch das deutlich kleinere Übel ist.

  • „Seit bald acht Jahrzehnten nicht mehr“?

    Plot einer Badewannenkurve; die Ränder sind Mai 2022 und Februar 2022

    Der Olivindex mal als Linie geplottet (oh: das ist mit einem Acht-Tage-Gauß geglättet).

    Ich lese immer noch flächendeckend die Presseschau im Deutschlandfunk, um meinen Olivindex fortzuführen. Gedacht als grobes Maß für die bedenkliche Mischung aus Kriegsbegeisterung und Patriotismus ist der Olivindex in Wirklichkeit der Anteil der in der Presseschau vertretenen Kommentare, die ersichtlich voraussetzen, dass an deutschem Militär und deutschen Waffen die Welt genesen könnte oder gar müsste.

    Seit dem letzten Mai habe ich am Fuß jeder Blog-Seite unter „Kriegsfieber aktuell“ jeweils eine Visualisierung dieser Scores als olive Farbbalken. Oben hingegen zeige ich das Ganze mal als klassischeren Plot, unter Wiederverwendung der Gauß-Glättung aus der Untersuchung der CO₂-Zeitreihe[1].

    Es wäre wahrscheinlich interessant, das allmähliche Absinken des journalistischen Kriegsfiebers zwischen Mai und Juli mit den Ereignissen zu korrelieren, das kurzfristige Wiederaufflackern im Laufe des Septembers – ich glaube, im Wesentlichen im Gefolge der russischen Teilmobilmachung –, die kühleren Herzen im November und Dezember und das Wiederanschwellen des Bocksgesangs hin zu den weiter wachsenden Waffenlieferungen der letzten Zeit. Aber das ist wahrscheinlich eine Arbeit, die mit mehr historischer Distanz besser von der Hand gehen wird.

    Ich erzähle das jetzt gerade alles nur, um zu motivieren, wie ich auf den Preisträgertext gekommen bin für den

    Horst-Köhler-Preis für beunruhigend ernst gemeinte Worte.

    Der aktuelle Preisträger ist die Pforzheimer Zeitung, die ausweislich der gestrigen DLF-Presseschau (wenn der Link kaputt ist: sorry, der DLF depubliziert den Kram immer noch rasend schnell) ausgerechnet die doch eher zahme Frage der Faeser-Kandidatur mit folgendem ziemlich unprovozierten Ausfall kommentiert:

    Bundesinnenministerin will die 52-Jährige bis zur Hessen-Wahl bleiben – also ‚nebenher‘ auch noch Wahlkampf machen. In einer Phase, in der die nationale Sicherheit Deutschlands so wichtig ist wie seit bald acht Jahrzehnten nicht mehr.

    Ummmm. Acht Jahrzehnte sind achtzig Jahre, 2023-80 gibt 1943. Damals war nach Ansicht des Pforzheimer Kommentators die „nationale Sicherheit“, zumal von „Deutschland“ ganz besonders „wichtig“? Uiuiuiui… Nun. Pforzheim. Die Stadt, in der bei den Landtagswahlen 2016 24.2% der Abstimmenden die AfD gewählt haben – damit waren die damals stärkste Kraft im Wahlkreis.

    Eine gewisse Logik liegt da schon drin. Unterdessen herzlichen Glückwünsch an den/die PreisträgerIn.

    [1]Nun: weil mir hier die Ränder wichtig waren, habe ich etwas mehr „Sorgfalt“ (mensch könnte auch von „Großzügigkeit” reden) auf das Padding am Anfang und Ende der Zeitreihe verwendet, also die Stellen, an denen der Glättungskern über die Daten rausreicht. Ich mache das jetzt gerade durch Fortschreibung der jeweiligen Randelemente; das gibt diesen an den Rändern viel zu viel Gewicht, aber es ist immer noch besser als einfach mit Nullen fortzuschreiben. Wer mag, kann mein Tricksen in der smooth_gauss-Funktion in olivin ansehen.
  • Sympathie für myrmekophile Falter: Schwierig

    Foto eines blauen Schmetterlings

    Unsympath vom Dienst für diesen Post: Ein (Quandel-) Ameisenbläuling. CC-BY-SA PJC&Co

    Im Dezember letzten Jahres lief in der DLF-Sendung Forschung aktuell zur Begleitung der Weltnaturschutzkonferenz in Montreal eine großartige Miniserie mit Geräuschen von Tieren, deren Arten demnächst ziemlich wahrscheinlich aussterben werden. Ihr ebenfalls großartiger Titel: „Letzte Rufe“. Soweit ich sehe, haben die Deutschlandfunk-Leute keine eigene Seite für die Miniserie. Lasst mich geschwind einspringen:

    Ich finde, das ist ein sehr audiophiles Format. Und ich habe in jeder Folge etwas gelernt.

    Nur… nun, nennt mich einen Naturromantiker, aber speziell beim Ameisenbläuling fällt mir allzu viel Empathie schwer, auch wenn ich weiß, dass Parasiten in den meisten Ökosystemen stark stabilisierende Funktionen haben. Es klingt einfach zu garstig, was die Viecher treiben.

    Sie sind nämlich Myrmekophile. Ich habe das Wort auch erst eben gelernt. Es bezeichnet Organismen, die an Ameisen „gebunden“ (Wortwahl des/der Wikipedia-AutorIn) sind. Bei Ameisenbläulingen heißt das etwas weniger beschönigend gesprochen, dass sie sich von Ameisen in deren Bau tragen lassen – etwa, indem sie durch abscheuliches Krächzen vorgeben, sie seien Königinnenlarven – und sich dort von diesen füttern lassen beziehungsweise gleich die Eier und Larven der Ameisen aufessen. In den Worten des Wikipedia-Artikels zum Quendel-Ameisenbläuling:

    Dennoch kommen viele Raupen [im Ameisennest] um, weil sie entweder in Gegenwart der Königin von den Arbeiterinnen angegriffen werden, oder weil sie das Ameisennest leer plündern und sich so selbst die Nahrungsgrundlage entziehen.

    Beim Lungenenzian-Ameisenbläuling ist es deutlich harmloser:

    Für die betroffenen Ameisenarten kann der Parasitenbefall zu einer Verkleinerung der Kolonie führen, da die bevorzugte Fütterung der Schmetterlingslarven den eigenen Nachwuchs gefährdet.

    Aber immerhin sind diese speziellen Falter relativ wenig manipulativ:

    Nach dem Schlüpfen bleibt den Faltern nicht viel Zeit für die Flucht, denn sie besitzen keine Duftstoffe, die sie vor den Ameisen schützen.

    Zum Hellen Wiesenknopf-Ameisenbläuling weiß die Wikipedia zu berichten:

    Etwa 98 % der Biomasse der Puppe (und des späteren Falters) stammt so von den Ressourcen des Ameisenvolkes. Es wurde geschätzt, dass bei den räuberisch lebenden Phengaris-Arten (P. teleius, P. arion und P. nausitous) etwa 350 Arbeiterinnen mittelbar nötig sind, um eine Phengaris-Larve zu ernähren. Diese Zahl wird benötigt, um die Nahrung für die Ameisenbrut zu beschaffen, die von den Phengaris-Larven gefressen wird.

    Sagt, was ihr wollt: Als Sympathieträger gegen das Insektensterben würde ich mir eine andere Art aussuchen. Jedenfalls solange, bis auch Menschen wie ich deutlich mehr Instinkt entwickelt haben für Ökosysteme und die Rolle, die auch Tiere mit nach menschlichen Maßstäben nicht so feinen Manieren darin spielen. Bis dahin kann ich die spontane Reaktion einer Freundin gut nachvollziehen: „Die Biester sollen ruhig aussterben“.

  • Von Verblindung und fachbedinger Blindheit

    Foto eines Notebookdeckels mit Aufkleber „Elsevirus“ und einem vertrockneten Baum (ein Spoof des Elsevier-Logos)

    Nur ein Symptom, nicht die Ursache: das wissenschaftliche Publikationswesen und seine unsympathischen Profiteure.

    Angesichts meiner fundamentalen Skepsis im Hinblick auf die epistemologischen Meriten der Wirtschaftswissenschaften an und für sich (ahem) bin ich selbst etwas überrascht, wie viele Wiwi-Arbeiten auf diesem Blog vorkommen. Immerhin: dieses Mal geht es eigentlich gar nicht um die Publikation selbst.

    Die Aussage des Artikels „Nobel and Novice: Author Prominence Affects Peer Review“ von Jürgen Huber und Kollegen aus Innsbruck, Graz und Los Angeles, doi:10.2139/ssrn.4190976, ist nämlich ein Gemeinplatz: Das Begutachtungsverfahren wissenschaftlicher Arbeiten ist kaputt. In diesem speziellen Fall: Ein Artikel wird oft vollständig zurückgewiesen, wenn er von wem eingereicht wird, dessen oder deren Name afrikanisch klingt, und oft ohne Korrekturwünsche angenommen, wenn auf der AutorInnenliste eine anerkannte Kapazität hinreichend weit vorne steht. Hier hat das halt mal wer ausprobiert, zwecks der Demo mit jeweils dem (ansonsten) gleichen Artikel.

    Aber wenns doch klar war?

    Nun gut, die Größe des im Paper gefundenen Effekts überrascht auch mich. Ich hatte eigentlich erwartet, dass es ein paar mehr Leute gibt, die Papers von DoktorandInnen aus Weichherzgründen eher mal durchwinken, weil diese die Publikation ja viel nötiger haben als die, die in Rente sind oder auf einer Professur sitzen. Aber diese Überraschung hätte mich jetzt nicht an die Tastatur gerufen.

    Wirklich kommentarbedürftig fand ich stattdessen die Aussage des Hauptautors in DLF Forschung aktuell vom 14.12.2022 (ab Minute 1:30):

    Die Begutachtung von wissenschaftlichen Arbeiten durch andere Wissenschaftler ist ja für Publikationen wichtig, für Forschungsgelder, dafür, wer Jobs bekommt, wer Professor wird und so weiter. Also, das ist ganz wichtig, dass wir diesen Prozess so objektiv, so fair wie möglich gestalten, damit auch die Gelder, die ja oft von der öffentlichen Hand kommen, bestmöglich verwendet werden, damit wir Fortschritte haben.

    Huber benennt den wesentlichen Grund dafür, dass das System wissenschaftlichen Publizierens disfunktional ist: Artikel und Zitate werden missbraucht als Metriken in dem Wettbewerb, in den WissenschaftlerInnen – also Menschen, die eigentlich lieber Zeug rausfinden wollen – geschickt werden, und der mit Zuckerbrot („Karriere“) und Peitsche (die meisten werden rausgekegelt) auf alarmierende Hitzegrade gebracht wird.

    Gut für „den Fortschritt“ oder gar die Wissenschaft ist dieser Zirkus natürlich nicht. Sein Fallout im Publikationswesen führt zudem dazu, dass Leute innerhalb von fünf Jahren fünfzehn verdünnte Paper raushauen statt nach fünf Jahren eine profunde Arbeit zu publizieren und dass jede Menge Zeit und Nerven draufgehen beim Schreiben und Begutachten dieser Artikel. Er bewirkt zudem, dass Zitate immer schlechter den Fluss von Ideen abbilden (was ja ihr eigentlicher Zweck ist) und immer mehr taktische Erwägungen (was schade ist).

    Gute und schlechte Fragen

    Aus der Diagnose, dass der Missbrauch von Publikationen als ökonomische Metrik der Wissenschaft schadet, würde logisch doch zumindest die Frage folgen: Lässt sich das auch wieder entkoppeln?

    Nicht so aber für Huber, der stattdessen fragt: können wir die Metrik fairer machen? Diese Frage halte ich für besonders falsch gestellt, denn klarerweise würde selbst ein guter Plan in dieser Richtung (vgl. unten) nichts ändern an taktischen Zitationen oder der Flut von Papern, die rundrum nur Zeit verschwenden; er würde sie vermutlich noch verschärfen.

    Ich frage mich ehrlich, warum der naheliegende Ansatz zur Lösung der Probleme Huber offenbar gar nicht in den Sinn kommt, nämlich: weniger Wettbewerb, und vor allem das Ende des Missbrauchs von Publikationen und Zitationen als Metriken in den diversen Wettbewerben.

    Wie die Allokation von Forschungsmitteln sonst funktionieren soll, fragt ihr? Nun, solange wir noch das System von universeller Lohnarbeit unter Existenzdrohung haben, werden flachere Hierarchien[1], die Abschaffung befristeter Beschäftigungsverhältnisse[2], die Rückverschiebung der Finanzierung durch „Drittmittel“ (die in Wahrheit ja in den nicht-gruseligen Fällen auch vom Staat kommen) auf die Grundfinanzierung, womit auch der Zugang zumindest kleinen und mittleren Instrumenten weniger kompetetiv würde; so Zeug halt, Wissenschaft als Beruf mit ganz normalen Beschäftigtenrechten. Und wo doch noch Anträge geschrieben werden: Würfelt aus, wer gefördert wird. Das wird in etwa genauso „gute“ Ergebnisse liefern wie die gegenwärtige Begutachtung, macht aber viel weniger Arbeit und vermeidet einige Fehlsteuerungen, allen voran die Selbstverstärkung von Moden und Hypes durch den Geldhebel.

    Klar: Vielleicht arbeiten dann ein paar der Beschäftigten weniger. Aber erstens würde der Wegfall der ganzen Wettbewerbs-Reibungsverluste das garantiert mehr als kompensieren. Und zweitens hat Wissenschaft den großen Vorteil, dass sie sehr nah am Spielen ist und so Leute in aller Regel keine Motivation durch Existenzdrohung oder auch Karriere-Zuckerbrot brauchen[3].

    Das war jetzt die reformistische Version. Etwas langfristiger gedacht werden Menschen in einer Gesellschaft, die ihre Produktion rational (was produzieren wir so, dass Mensch und Natur minimal belastet werden?) organisiert, also in einer Gesellschaft, in der die Menschen grundsätzlich weit weniger erpressbar sind, auch weit weniger durchgeknallte Systeme ersinnen, ihre Erkenntnisse zu verbreiten als unsere derzeitigen Journals.

    Die Allokation von Produktionsmitteln oder Umweltressourcen auf die Forschungsfragen wäre dann ein ganz normales Thema gesellschaftlicher Debatte, ganz wie die Frage, ob mensch, sagen wir mal, dünne und kurzlebige Fahrradketten für Zehnfach-Ritzel in gesellschaftlicher Arbeit herstellen will oder nicht. Fragen dieses Typs müsste so eine Gesellschaft ziemlich regelmäßig erörtern, da kommt es auf ein paar Debatten mit Wissenschafts-Hintergrund auch nicht mehr an.

    Noch nicht mal Einfachverblindet

    Ich will noch ganz kurz anmerken, dass der Lösungsvorschlag aus dem DLF-Beitrag, die Begutachtung doch doppelt zu verblinden in den meisten Disziplinen eher zu „unmöglich“ als zur „schwierig“-Einschätzung von Anneke Meyer tendiert. Zumeist sind die Felder doch so übersichtlich, dass, wer genügend Überblick für ein qualifiziertes Review hat, sich auch denken kann, wer da schreibt – genau wie zumindest in der Astronomie die meisten Leute, die eine Weile in ihren Feldern sind, schon an den Reviews ahnen, wer wohl als GutachterIn gearbeitet hat.

    Selbst wo das – wie in ausgesprochenen Trendfächern – nicht der Fall ist, wären Methoden, Instrumente, Vorarbeiten und Kontext einer Arbeit so charakteristisch, dass Papers zur Verblindung komplett zerschrieben werden müssten. Damit würde nicht nur der Wettbewerb, zu dessen Austragung die Publikationsmetriken missbraucht werden, die Wissenschaft massiv schädigen – wie bereits jetzt bei den Zitationen würde schon die Erhebung der Metrik der Wissenschaft schaden, weil die Paper notwendig unklar und wirr würden.

    Wieder kann ich zum Ende einer Klugscheißerei nicht widerstehen: Wenn der DLF-Moderator behauptet, Vernon Smith habe 2002 den Nobelpreis erhalten, ist dem im Sinne von Alfred Nobel zu widersprechen – Smith hat den „Preis für Wirtschaftswissenschaften der schwedischen Reichsbank in Gedenken an Alfred Nobel“ bekommen, der seit 1969 verliehen wird (richtige Nobelpreise: seit 1901). Aber dann: die Aufregung um die Groß- und Kleinpreise („Preis der Bäckerinnung Berlin-Brandenburg für engagierte Berichterstattung zur Tortenkultur“) gehört natürlich auch zu den Dingen, die demnächst im Zuge des Wettbewerbsabbaus wegkönnen.

    [1]Dazu gehört insbesondere die Abschaffung des archaischen Lehrstuhlprinzips – Menschen außerhalb das Uni-Systems können sich das meist gar nicht vorstellen, aber an Universitäten sind MitarbeiterInnen tatsächlich ihren Profen zugeordnet, und es ist üblich, die Beschäftigten eines Lehrstuhls komplett auszutauschen, wenn einE neueR ProfIn „berufen“ (ja, so heißt eine Einstellung wirklich noch) wird. in der Praxis wird auf so etwas schon Jahre im Vorhinein geplant. Profi-Tipp: wenn ihr an einer deutschen Uni verdauert werden wollt (und es gibt gute Gründe, das derzeit lieber nicht zu wollen), sorgt dafür in den ersten drei Jahren eures Profs. Danach nämlich plant die Uni schon für die Berufung seines_r Nachfolger_in und wird alles tun, um entsprechende Stellen für Berufungsverhandlungen „verfügbar“ zu halten…
    [2]Oder jedenfalls: nicht mehr 80% befristete Beschäftigte im aktiven Wissenschaftsbetrieb, wie gegenwärtig an den Unis (Profen zähle ich dabei vielleicht etwas übertriebenermaßen zur Verwaltung).
    [3]Um nicht missverstanden zu werden: die intrinsiche Motivation gibts natürlich in vielen anderen Jobs auch, aber verglichen mit, sagen wir, Immobilienmakelei oder internationalem Wirtschaftsrecht ist Wissenschaft doch eine ganz andere Liga in Sachen erreichbarer Zufriedenheit im Beruf.
  • Papierrascheln am DLF

    Ich bin ein so großer Fan von Live-Programmen und vor allem Nachweisen ihrer Authentizität, dass ich hier einen eigenen Tag für diese habe: Live. Deshalb war ich auch begeistert, als ich in der Forschung aktuell-Sendung vom 5.12.2022[1] folgende, wie ich finde, professionell gemanagte Panne verfolgen durfte:

    Transkript der Sprecherin: Der Kohleausstieg wird im rheinischen Revier um… Ah, jetzt habe ich die falsche Meldung gelesen, tut mir leid (blättern) grad mal kurz die Richtige (leise distress signals) Wir wechseln bitte einmal kurz das Thema und machen die letzte zuerst… Der Kohleausstieg wird im rheinischen Revier um acht Jahre vorgezogen…

    Ich verstehe nicht ganz, wie es zu dieser Panne gekommen ist, aber erstens finde ich großartig, dass die SprecherInnen im DLF hörbar noch von Papier ablesen.

    Das ist auch nicht nur Nostalgie eines Menschen, der in seiner Jugend viel Tagesschau angeschaut hat. Tatsächlich ist das wahrscheinlich auch von einer CO₂-Perpektive nicht schlecht. Mike Berners-Lee[2] schätzt für ein Blatt Papier 10 g CO₂-Äquivalent. Na gut, bei ihm ist ein Papierhandtuch, also relativ mieses Papier und recyclet, aber andererseits schätzt er 400 g für ein Paperback, was gut zu 10 g pro A4-Seite passt. Für einen „einfachen“ Computer – also ein Tablet – schätzt er 200 kg CO₂e.

    Damit entspräche die Herstellung eines Tablets, das die SprecherInnen statt des Papiers verwenden würden, 200/0.01 = 20'000 Seiten Papier. Wenn pro Sendung 10 Seiten draufgehen, sind das 2000 Tage oder fünf Jahre. Wahrscheinlich hält kein täglich für eine Sendung verwendetes Tablet so lange.

    Zugegeben: das ist Unfug, denn die Seiten müssen ja auch bedruckt werden, und dazu braucht es Drucker und Toner (zusätzlich zu den Rechnern, auf denen die zu druckenden Texte geschrieben werden, aber die würde es beim Tablet auch brauchen), und die machen wahrscheinlich bereits einen größeren CO₂-Fußabdruck als Strom und Netzwerk, der beim Betrieb von so einem Tablet. Und dann sind 200 Kilo CO₂e über fünf Jahre für so eine Sendung ohnehin praktisch vernachlässigbar; so grob entspricht das (wiederum mit Berners-Lee) einer Recherche-Reise vom DLF-Standort Köln zum Wendelstein und zurück im ICE.

    Aber kurz zurück zur Frage, warum ich das Stück für erhaltenswert halte: ich finde, dass sich die Sprecherin Britta Fecke hier eigentlich recht elegant aus der Affäre gezogen hat. Deshalb verstehe ich nicht ganz, warum der DLF das in der Online-Version rausgeschnitten hat (wo das bei Minute 9:38 sein müsste; solche Schnitte machen sie nicht immer). Und ich finde es schade, denn zumindest mein Herz wärmt es, wenn da Papier raschelt und zu hören, ist, wie Leute Probleme lösen.

    [1]Ich habe das erst jetzt „live“ gehört, weil ich die Mitschnitte der Sendungen höre, wie ich Zeit habe. Wie schon seit Jahrzehnten kommt mein Material vom Livestrom, nicht aus dem RSS des DLF oder so.
    [2]Berners-Lee, M. (2011): How Bad Are Bananas, Vancouver: Greystone, ISBN 978-1-55365-832-0; nicht, dass ich nicht Berners-Lees Mahnung teilen würde, nicht jede Schätzung da drin auf die Goldwaage zu legen, aber für so schnelle Betrachtungen wie diese hier taugt das Buch bestimmt.
  • Machen Straßen auch nach 2000 Jahren noch Dreck?

    Foto: Straße mit braunem Tourismus-Hinweis: Limes

    Zumindest die Kolonnenwege am Limes sind heute meist grüne Wiese (oder Maisfeld oder Wald). Aber wie ist es mit Spuren größerer Römerstraßen?

    Neulich habe ich die DLF-Wissenschaftsmeldungen vom 23.11. gehört. Ab Minute 2:30 ging es römisch zu:

    Römerstraßen prägen noch immer den Wohlstand in Europa [...] Die anhand von Lichtspuren erkennbare heutige Verteilung von Siedlungen, Populationsdichte und Wirtschaftsleistung in Europa folgt noch immer den gleichen Mustern [wie das römische Straßennetz].

    Ich will nun gar nicht darüber schimpfen, dass ausgerechnet Licht- und damit Umweltverschmutzung als Maß für „Wohlstand“ (im Original etwas zweideutiger „prosperity“) genommen wird. Nein, meine spontane Reaktion war: „Boah, was für ein Wiwi[1]-Bullshit. Natürlich sind die römischen Straßen da, wo die damals ihre Städte gebaut haben, und natürlich haben sie ihre Städte im Groben da gebaut, wo wir das immer noch tun: dort, wo Schiffe gut hinkommen, wo das Wetter nicht zu garstig ist, wo nicht zu viele Berge sind, wo der Boden Ertrag bringt.”

    Damalige und heutige Produktions- und Bevölkerungsdichte werden also in jedem Fall stark korreliert sein, und das nicht, weil das eine das andere bedingen würde – immerhin trennt ein recht weitgehender und mithin kausal entkoppelnder Zusammenbruch[2] die beiden Sorten von Metriken –, sondern weil sie beide von ungefähr gleichen zugrundeliegenden Variablen wie „Verkehrsgunst“ oder meinetwegen „ökonomisches Potenzial des Bodens“ abhängen.

    Aber ich habe erstens einen Römerfimmel und will mich zweitens nicht unverdient des Natwi-Chauvinismus zeihen lassen. Deshalb habe ich das Paper herausgesucht. Es handelt sich um „Roman roads to prosperity: Persistence and non-persistence of public infrastructure“ von Carl-Johan Dalgaard und KollegInnen, erschienen leider bei Elsevier im Journal of Comparative Economics. Ich linke da nicht gerne drauf, zumal es nicht open access ist und selbst Leute mit Zugang derzeit durch ein dämliches Javascript-Fegefeuer müssen, um ein ordentliches PDF zu bekommen. Aber es hilft alles nichts: doi:10.1016/j.jce.2022.05.003.

    Korrelation oder Kausation?

    Die dänischen WirtschaftswissenschaftlerInnen – es hat offenbar niemand mit akademisch verbürgten Antike-Hintergrund mitgeschrieben – um Dalgaard prüfen in der Tat die Hypothese, dass sich Investitionen in die öffentliche Infrastruktur (also, ähh: Straßen) noch nach 2000 Jahren lohnen können, und die DLF-Zusammenfassung kommt auch insoweit hin, als sie diese Hypothese für den europäischen Teil des römischen Reichs bejahen.

    Natürlich war Dalgaard et al der Einwand der gemeinsamen Ursache der Korrelation durchaus bewusst, und so bieten sie bereits in der Einleitung an:

    Roman road construction did not follow the rules of infrastructure planning in the contemporary era. The Roman roads were built mainly with a military purpose in mind, and geographic obstacles in the landscape were often surmounted rather than evaded.

    Zum Beleg führen die AutorInnen den Prototyp der römischen Straße an, die Via Appia, die ohne viel Federlesens schnurgerade quer durch die Pontischen Sümpfe gelegt wurde. Aber schon ein schneller Blick auf die Abbildung A1 aus den Anhängen des Artikels stellt klar, dass die römischen PlanerInnen ihre Straßen sehr wohl den geographischen Gegebenheiten angepasst haben:

    Eine Landkarte des nördlichen Mittelitaliens, in die einige römische Straßen eingezeichnet sind; sie vermeiden ersichtlich bergige Gegenden.

    Straßen durch den Apennin gibt es, wenn überhaupt, nur in den Tälern, und wo niemand wohnt, ist auch keine Straße; ansonsten verbinden die Straßen halt Städte auf relativ direktem Weg und umgehen Unwegsamkeiten, wenn das ohne allzu große Umwege geht. Rechte: Dalgaard et al

    Richtig ist allerdings, dass die Römer durchaus auch größere Konstruktionen in Angriff genommen haben, wenn sie dadurch Strecke einsparen konnten. Schöne Beispiele dafür finden sich im Wikipedia-Artikel zur Via Claudia Augusta. Nebenbei zur Frage der Kontinuitäten: So sieht die Via Claudia Augusta heute bei Franzensfeste/Fortezza – wo das Tal übrigens so eng ist, dass es gar nicht so arg viele Alternativtrassen gibt – aus:

    Eine in den Felsen gegrabene Karrenspur, stark zugewachsen.

    Die Via Claudia Augusta belegt anonsten aber, dass römische Straßen den gleichen natürlichen Gegebenheiten unterworfen waren wie unsere heutigen Straßen auch. Damals wie heute sind Reschenpass und Fernpass halbwegs attraktiv, damals wie heute ging die Autobahn (oder damals halt die Via Raetia) schließlich über den bequemeren Brennerpass.

    Wer sich ein Bild zur Korrelation über die parallele Auswahl der Siedlungsräume machen will, möge eine Karte des obergermanischen Limes betrachten (zum Beispiel in den tollen Limes-Heften der Deutschen Limeskommission). Dort sind ein paar eigenartige Ausbuchungen zu sehen, insbesondere fürs Neuwieder Becken, für das die Provinzverwaltung den Limes extra noch ein Stück nach Norden gezogen hat, und die Wetterau, die insgesamt hübsch vom Limes eingeschlossen wird. Natürlich werden römische wie unsere Straßen mit solchen Gebieten korrelieren.[3]

    Oder ist da doch noch was?

    Damit könnte das Thema eigentlich erledigt sein, aber Dalgaard et al vermuten – so lege ich ihnen das mal in den Mund –, dass es da noch ein Extrasignal geben könnte, dass also der damalige Straßenbau heutige Umweltverschmutzung (in ihren Worten: wirtschaftliche Entwicklung) verursachen würde, die es bei sonst gleicher Geographie ohne den Straßenbau nicht gegeben hätte.

    Das Problem: wie findet mensch so einen Extra-Effekt? Die grundsätzliche Technik ist, in Analysen „für Confounder zu kontrollieren“, also im Groben zu versuchen, die (hier) störenden Einflüsse durch analoge Motivationen zum Straßenbau zu schätzen und dann herauszurechnen. Das ist tatsächlich kein völliger Hokuspokus, auch wenn es oft eine Familienpackung Modellierung und Annahmen braucht. Die englische Wikipedia deutet in controlling for a variable an, wie das gehen kann; wo sowas in der deutschen Wikipedia steht, weiß ich offen gestanden nicht.

    Die Achillesferse des Kontrollierens ist das Modell, was denn wohl (in diesem Fall) die möglichen gemeinsamen Einflüsse sein könnten. Dalgaard et al bieten dazu die Seehöhe an – auf den Bergen ist es kälter und unwirtlicher; etwas, das sie „Caloric Suitability“[4] nennen und das Boden, Wetter und Feuchtigkeit zusammenfasst zu einem Maß, wie viel Essen mensch aus dem Boden rausholen kann, getrennt nach vor-Kartoffel und nach-Kartoffel, so dass für die römische Zeit andere Kriterien gelten als für unsere; „agricultural suitability“, was so ähnlich funktioniert, aber andere AutorInnen hat; den Abstand zum nächsten größeren Fluss; den Abstand zum Meer; und antike Minen.

    Obendrauf meinen sie, moderne Systematiken rausrechnen zu müssen, vor allem den Einfluss von Sprache und Land auf die Wirtschaftsleistung, aber dann auch völlige Albernheiten wie die Entfernung zu Wittenberg als Proxy für Neigung zu Protestantismus – als sei dieser eine sich langsam ausbreitende Infektionskrankheit, die einfach noch nicht genug Zeit hatte, um sich, sagen wir, in Italien durchzusetzen – und inspiriert von Max Webers Theorie vom Protestantismus als Basisideologie des Kapitalismus. Wer schmunzeln will: die Arbeit sieht schwach signifikant, dass es mit wachsender Entfernung von Wittenberg im römischen Reich dunkler wird.

    Wie rechnet mensch die Verstraßung der Landschaft aus?

    Um ihre unabhängige Variable, die Straßendichte in römischer Zeit, auszurechnen, teilen Dalgaard et al das römische Reich in Zellen von ein Grad in Länge und ein Grad in Breite auf. Wenn ich das als Astronom mit Neigung zum Natwi-Chauvinismus sagen darf: In Zeiten von HEALPix ist das etwas fußgängerisch. Aber das römische Reich hat hinreichend wenig von der Kugelform der Erde mitbekommen, so dass zu Fuß laufen vermutlich keine nennenswerten Probleme einführt. Dann legen sie um die römischen Straßen aus dem Barrington-Atlas (ausleihbar in der Library Genesis) 5-km-Umgebungen – in der GIS-Szene „Buffer“ genannt – und rechnen das Verhältnis der so erzeugten Fläche zur Gesamtfläche in ihrer Zelle aus.

    Warum die das so machen, ist mir offen gestanden nicht klar, denn es benachteiligt ausgerechnet besonders gut vernetzte Orte, um die herum sich diese Buffer massiv überlagern werden. Als Zeichen für die Verbundenheit einer Zelle schiene mir jedenfalls die Gesamtlänge der Straßen in ihr als Metrik erheblich naheliegender. Wahrscheinlich ist das römische Straßennetz so grobmaschig, dass die Überlagerung allenfalls in ausgesprochenen Knotenpunkten wie Rouen überhaupt eine Rolle spielt. Aber etwas seltsam ist die Bufferflächen-Metrik doch.

    Damit fangen Dalgaard et al an zu rechnen. Sie fitten eine Unzahl linearer Zusammenhänge zwischen den Logarithmen aller möglicher dieser Metriken. Sachlich also unterstellen sie Potenzgesetze, a ∝ bγ, wobei sie endlose Tabellen dieser γ für alle möglichen Parameter ausrechnen, während sie für alles Mögliche kontrollieren.

    Ihr zentrales Ergebnis (aus der Tabelle 3, Spalte 7 im Paper) ließe sich etwa formulieren als: Die moderne Lichtverschmutzung geht ungefähr mit der Wurzel der antiken Straßendichte, also: 25 Mal mehr Straßen damals macht fünf Mal mehr Lichtverschmutzung heute[5].

    Zentral^WZahlenfriedhof

    Um ein Gefühl dafür zu kriegen, wie empfindlich dieses Ergebnis auf die diversen Kontrollen für Land, Leute, Höhe und Breite reagiert, kann mensch auf die anderen Spalten der erwähnten Tabelle spitzen: Das γ kann statt ungefähr 1/2 auch mal eher 3/2 sein (nämlich ganz ohne Kontrollen), was dann auf 125 Mal mehr Lichtverschmutzung für das 25-mal dichtere Straßennetz führen würde, oder auch mal 1 (wenn sie für die Zeit seit der lokalen neolithischen Revolution kontrollieren, wenn ich die etwas hemdsärmelige Beschreibug der Tabelle richtig lese), was einfach auf 25-fache Lichtverschmutzung führen würde.

    Ergebnisse, die je nach Modellierung so wild schwanken, rufen nach einer Plausibilisierung der zugrundeliegenden Modelle. Ich glaube, dass die Zahlenfriedhöfe, die das Paper und seine Anhänge durchziehen, dieser Plausibilisierung dienen sollen, und ich habe eine ganze Weile auf Tabellen dieser Art gestarrt (nur zur Illustration; die Werte, die ich für meine Betrachtung als relevant erachte …

  • Wird Thomas Watson Recht behalten?

    In der diesjährigen Buchmesse-Sendung von Forschung aktuell am Deutschlandfunk ging es vor allem um Bücher zur Zukunft an und für sich. In der Anmoderation dazu sagte Ralf Krauter:

    Die Geschichte der Menschheit ist denn auch voll von krass falschen Prognosen. Die vielleicht bekannteste – oder eine meiner Favoriten – kennen Sie womöglich. Tom Watson, der fühere IBM-Chef, sagte im Jahr 1943 mal: Ich denke, es gibt einen Weltmarkt für vielleicht fünf Computer. Kam dann anders, wie wir alle wissen, aber es zeigt schon: Selbst die Prognosen von absoluten Fachleuten sind mit Vorsicht zu genießen.

    Als ich das gerade gehört habe, wollte ich spontan einwenden, dass das Urteil über Thomas Watsons Prognose noch aussteht. Natürlich wird es auf absehbare Zeit hunderte Milliarden von Mikroprozessoren geben, aber die meisten von denen tun Dinge, für die es früher vielleicht diskrete Steuerungen oder Analogelektronik gegeben hätte – sie dienen genau nicht als die universellen programmierbaren Geräte, die Watson bei seiner Schätzung im Kopf gehabt haben wird.

    Viele andere sind verbaut in den späten Erben der Fernschreiber und Terminals der Großrechnerära: Den Mobiltelefonen, die heute vielfach kaum mehr sind als Ein-/Ausgabegeräte für eine Handvoll großer Computer. Dabei muss mensch nochmal die Augen etwas zusammenkneifen; wenn wir Watson geben, dass er von riesigen Mainframes gesprochen hat, mit vielen, vielen CPUs, dann sind die heutigen „Clouds“ von Google, Facebook, Microsoft und Alibaba im Wesentlichen jeweils ein Computer im Sinn von Watson. In dieser Zählung – in der Router und Endgeräte nicht, die Rechenzentren der „Hyperscaler“ jeweils als ein Computer zählen – teilen sich in der Tat fünf oder zehn Computer den Großteil der Computernutzung eines Großteils der Menschheit.

    Je dominanter das Modell wird, in dem dumme Clients unter Kontrolle von Apple bzw. Google („Smartphones“) Dienste ausspielen, die auf einer kleinen Zahl von Infrastrukturen laufen („Cloud“), desto näher kommen wir wieder Watsons Einschätzung. Noch gibt es natürlich ordentliche Computer in allen möglichen Händen. Wie sehr sich die Menschen jedoch schon an das Konzept gewöhnt haben, dass sie nur Terminals, aber keine eigenen Computer mehr haben, mag eine Anekdote von meiner letzten Bahnreise illustrieren.

    Ich sitze im Zug von Würzburg nach Bamberg; er steht noch im Bahnhof. Ich kann mich nicht beherrschen und linse kurz auf den Bildschirm neben mir, und ich bin sehr erfreut, als dort jemand halbwegs ernsthafte Mathematik tippt, natürlich mit dem großartigen TeX. Meine Freude trübt sich etwas auf den zweiten Blick, denn der Mensch benutzt Overleaf, ein System, bei dem mensch in einem Webbrowser editiert und den TeX-Lauf auf einem Server macht, der dann die formatierten Seiten als Bilder wieder zurückschickt.

    Ich habe Overleaf, muss ich sagen, nie auch nur im Ansatz verstanden. Ich habe TeX schon auf meinem Atari ST laufen lassen, der ein Tausendstel des RAM der kleinsten heute verkauften Maschinen hatte, dessen Platte in einem ähnlichen Verhältnis zur Größe der kleinsten SD-Karte steht, die mensch heute im Drogeriemarkt kaufen kann. Gewiss, mit all den riesigen LaTeX-Paketen von heute wäre mein Atari ST überfordert, aber zwischen dem TeX von damals und dem TeX von heute ist kein Faktor 1000. LaTeX ist wirklich überall verfügbar, und es gibt gut gewartete und funktionierende Distributionen. Wer mit anderen gemeinsam schreiben will, kann auf eine gut geölte git-Infrastruktur zurückgreifen. Am wichtigsten: die Menschen vom Stamme vi können damit editieren, jene der emacs-Fraktion mit ihrem Lieblingseditor, niemand wird auf das hakelige Zeug von Overleaf gezwungen.

    Aber zurück zur Anekdote:

    Obwohl er also ganz einfach TeX auch auf seinem Rechner laufen lassen könnte, klickt mein Sitznachbar nur ein wenig hilflos herum, als wir den Bahnhof verlassen und mit dem WLAN auch das Hirn von Overleaf verschwindet. Er versucht dann, mit seinem Telefon die Nabelschnur zum Overleaf-Computer wiederherzustellen, aber (zum Unglück für Herrn Watson) ist die Mobilfunkversorgung der BRD marktförmig organisiert. Die Nabelschnur bleibt am flachen Land, wo zu wenig KundInnen Overleaf machen wollen, gerissen. Schließlich gibt er auf und packt seinen Nicht-Computer weg. Zu seinem Glück geht auf seinem Telefon immerhin noch mindestens ein Spiel ohne Internetverbindung…

    Dass die gegenwärtige Welt offenbar gegen die Vorhersagen von Thomas Watson konvergiert, dürfte kein Zufall sein. Watson war ein begnadeter Verkäufer, und er hat vom Markt geredet. Spätestens seit das WWW breite Schichten der Bevölkerung erreicht, wird auch das Internet mehr von begnadeten VerkäuferInnen und „dem Markt“ gestaltet als von BastlerInnen oder Nerds.

    Wenn ihr die Welt mit fünf Computern für eine Dystopie haltet und das Internet nicht „dem Markt“ überlassen wollt: Arg schwer ist das nicht, denn zumindest Unix und das Netz haben noch viel vom Erbe der WissenschaftlerInnen und BastlerInnen, die die beiden geschaffen haben. Siehe zum Beispiel die Tags Fediverse und DIY auf diesem Blog.

  • Vögel von unten betrachten

    Grüne Papageien sitzen herum, einer davon lüftet seine Flügel

    VertreterInnen von Heidelbergs Halsbandsittich-Population im Dezember 2018. Beachtet, wie die Unterseite der Schwingen deutlich stärker gemustert ist als die Oberseite.[1]

    Schon im Juli hat Forschung aktuell im Deutschlandfunk kurz ein Paper erwähnt, das mein Amateurinteresse an Zoologie geweckt hat: In den Wissenschaftsmeldungen vom 6.7. hieß es ungefähr 2 Minuten in das Segment rein, die oft wilden Muster auf den Unterseiten von Vogelflügeln könnten der Vermeidung von Kollisionen zwischen den fliegenden Tieren dienen.

    Die zugrundliegende Arbeit ist „Contrasting coloured ventral wings are a visual collision avoidance signal in birds“ von Kaidan Zheng und KollegInnen von der Sun Yat-sen-Uni in Guangzhou[2] und der Uni Konstanz, erschienen in den Proceedings B der Royal Society, Vol. 289, doi:10.1098/rspb.2022.0678. Forschungsziel dieser Leute war, Risikofaktoren für Kollisionen – also etwa große Schwärme, Bedarf an hektischen Manövern (sagen wir: Paviane überfallen Flamingos), eingeschränkte Manövierfähigkeiten (z.B. bei großen, schweren Vögeln) – mit auffällig gemusterteten Flügelunterseiten zu korrelieren.

    Mich hat das wahrscheinlich vor allem deshalb angesprochen, weil im Garten von meinem Institut regelmäßig kleine Schwärme der oben abgebildeten Halsbandsittiche waghalsige Flugmanöver vollziehen, und dabei zwar viel Krach machen, aber erstaunlicherweise nie ineinander oder gar in die Äste der Bäume fliegen. Und ich bin jederzeit dafür, dass Wissenschaft sich solcher Alltagsrätsel annimmt.

    Die Studie hat auch meine Sympathie, weil sie ein Beispiel ist für Archive Science, also Wissenschaft, die auf der geschickten Nachnutzung bereits bestehender Daten basiert. Das macht fast immer weniger Dreck als neu erhobene Daten, spart besonders im Bereich der Biologie der Ethikkommission Arbeit, und, davon bin ich jedenfalls fest überzeugt, sie hat das Zeug dazu, unerwartete Zusammenhänge aufzudecken, die im üblichen Beantragen-Messen-Publizieren-Zyklus schwer zu finden sind.[3]

    Hunderttausend Blicke

    Wobei: Ganz ohne Leid ging auch diese Studie nicht ab. Die AutorInnen haben Bilder von 3500 Unterseiten von Vogelflügeln aus drei verschiedenen Archiven im Netz gezogen und dabei 1780 Spezies abgedeckt. Um den gesuchten Zusammenhang zu finden, mussten sie zunächst bestimmen, wie konstrastreich oder markant die jeweiligen Flügel eigentlich sind. Dazu haben sie vor allem 30 Studis der Sun Yat-Sen-Uni rekrutiert, die jeweils alle diese Bilder als „starker Kontrast“ oder „eher nicht“ klassifizierten. 3500 Bilder sind viel, wenn mensch sie beurteilen soll. Ich frage mich, wie sich wer nach so einer Sitzung fühlt.

    Um mal eine grobe Abschätzung einzuwerfen: Wenn die Leute schnell waren und alle 10 Sekunden so eine Klassifizierung hinbekamen, reden wir über 30 × 3500 × 10  s ≈ 106 Sekunden oder knapp zwei Wochen (nämlich: 1/30 Jahr) konzentrierter Bildbeurteilung, die in die Arbeit geflossen sind. Whoa.

    Daraus jedenfalls kommt der Score, mit dem das Paper vor allem arbeitet: Wie viele der KlassifiziererInnen haben den Flügel als kontrastreich klassifiziert? Der Score ist auch mal nicht-ganzzahlig, wie etwa beim Sperber in Abbildung 1, der auf 0.4 kommt; das passiert, wenn mehrere Bilder einer Spezies gemittelt werden.

    Für kontrolliert aufgenommene Bilder aus Museumssammlungen berechnet das Paper weiter als eine Art „objektiver“ Größe Standardabweichungen über die Grauwerte der Pixel der Schwingen. Zu dem Teil der Arbeit hätte ich einiges Rumgemäkel. Ganz vornedran gefällt mir nicht, dass dieses Maß kleinräumiges Rauschen, das plausiblerweise nicht gut als mittelreichweitiges Signal taugt (und das sie in ihren Anweisungen für ihre Studis auch wegfiltern wollten), genauso behandelt wie großräumige Strukturen. Mit etwas Glättung und Segmentierung wäre das sicher viel besser gegangen, und da sie eh schon opencv verwenden, hätten es dazu auch nicht schrecklich viel Aufwand gebraucht.

    Eigenartig finde ich auch, dass sie die Bilder in Grauwerte umgerechnet haben, während sie im Paper öfter über Farben reden. In der Tat muss mensch Vögel nur ansehen, um stark zu vermuten, dass sie (und ganz besonders die Vogelfrauen) sehr wohl Farben wahrnehmen. In der Tat sehen manche sogar UV und dürften in jedem Fall eher besser Farbwahrnehmung haben als wir.

    Ich hätte also die „objektiven“ Kontrastscores doch zumindest mal separat nach Farbkanälen ausgewertet – das wäre nicht viel Arbeit gewesen und hätte das Hedging in der Artikelzusammenfassung überflüssig gemacht. Aber dann: es spielt für den Rest des Papers nur eine eher untergeordnete Rolle, weil sie diese Standardabweichungen eigentlich nur dazu verwenden, ihre „manuellen“ Scores zu validieren, indem nämlich (für mich offen gestanden etwas überraschend) die beiden Typen von Scores recht stark korrelieren.

    Zu diesen Scores kamen schließlich aus anderen Archiven – vor allem wohl dem trotz Javascript- und local storage-Zwang bezaubernden Birds of the World – Merkmale wie Masse, Schwarmgröße oder „Koloniebrüterei“ für 1780 Spezies, wobei letzteres einfach wahr oder falsch sein konnte.

    Monte Carlo Markov Chain

    Und jetzt mussten die AutorInnen nur noch sehen, welche dieser Merkmale mit ihren Kontrast-Scores korrelierten. Dazu fuhren sie recht schweres Geschütz auf, nämlich über MCMC-Verfahren geschätzte Verteilungen – erfreulicherweise unter Verwendung der Freien Software R und MCMCglmm. Ich kann nicht sagen, dass ich verstehen würde, warum sie da nicht schlichtere Tests machen. Vermutlich würde es helfen, wenn ich wüsste, was „the phylogenetic relatedness among species was included as a random effect in these models“ praktisch bedeutet und warum sie das überhaupt wollen.

    Aber solche Fragen sind es, wozu mensch FachwissenschaftlerInnen braucht, und ich bin, was dieses Fach angeht, kompletter Laie (erschwerend: ich habe noch nicht mal in meinem Fach wirklich was mit MCMC gemacht). So will ich gerne glauben, dass das methodisch schon in Ordnung geht.

    Vielleicht ist das aber auch wurst, denn die nach den Modellen richtig überzeugende Korrelation ist auch in Abbildung 3 des Papers mit einer großzügigen Portion Augenzusammenkneifen zu erkennen:

    In klaren Worten: Bei Vögeln, die in Kolonien brüten, geht die Strukturierung der Flügelunterseiten deutlich stärker mit der Masse des einzelnen Vogels nach oben als bei Vögeln, die das nicht tun. Wer etwa die Pelikane von Penguin Island vor Augen hat:

    Foto: Pelikane und andere Vögel stehen in loser Gruppe, zwei landen in ziemlicher Nähe

    oder, viel näher und mit kleineren Vögeln, die Insel der Möwen in der Wagbach-Niederung:

    Foto: Insel mit sitzenden und brütenden Möwen

    mag schon ein Bild entwickeln von einem gewissen evolutionären Druck auf, sagen wir, Pelikane, Mechanismen zu entwickeln, die es leichter machen, nicht ineinander zu fliegen.

    Aber ganz ehrlich: so richtig schlagend finde ich das Paper nicht. Ein wenig mehr Betrachtung, warum zum Beispiel die Vögel, die den blauen Punkte rechts unten in der oben reproduzierten Abbildung 3 entsprechen, offensichtlich auch ohne wohlmarkierte Flügel relativ kollisionsfrei gemeinsam brüten können, hätte mir schon geholfen, etwas mehr Vertrauen zu den Schlüssen zu fassen.

    Oder umgekehrt: Koloniebrüter haben plausiblerweise auch andere zusätzliche Kommunikationsbedürfnisse als andere Vögel, z.B. beim auskaspern, wer wo brüten darf (cf. Kopffüßer in Octopolis). Vielleicht kommt der Extra-Aufwand bei der Gestaltung der Schwingen ja auch daher? Und die Korrelation mit der Größe hat vielleicht mehr was mit Beschränkungen bei der Strukturbildung zu tun? Hm.

    Referees, gebt euch etwas mehr Mühe

    Beim Lesen des Textes habe ich mir übrigens an ein paar Stellen gedacht, dass die GutachterInnen des Papers schon noch ein paar gute Ratschläge mehr hätten geben können. So schreiben die AutorInnen allen Ernstes „Birds are well known for their ability to fly, besides a few flightless lineages such as ratites and penguins“ – das kann mensch in einem Kinderbuch machen oder in GPT-3-generierten Textoiden, die die Aufmerksamkeit von Google gewinnen sollen; in einem Fachartikel in einer biologischen Fachzeitschrift wirkt es jedenfalls für einen Physiker ziemlich verschroben.

    Hätte ich das begutachtet, hätte ich weiter angemerkt, dass, wer Rocket Science wie verallgemeinerte lineare Modelle mit MCMC aufruft, besser nicht den Schätzer für die Standardabweichung (Gleichung 2.1) breit ausstellen sollte – und dann noch als einzige Gleichung im ganzen Paper. Das ist ein wenig wie bei dem Monty-Python-Sketch zur Kilimandscharo-Expedition: Wir fahren über die Gneisenaustraße zur B37, wechseln am Heidelberger Kreuz auf die A5 und dann fahren dann weiter zum Kilimandscharo.

    Natürlich ist Begutachtung von Fachveröffentlichung ein brotloser Job (auch wenn ich vermute, dass es fast jedeR macht wie ich und dafür jedenfalls mal eine gute Ecke Arbeitszeit verwendet; dann ist es eine weitere öffentliche Subvention für die Verlage). Aber trotzdem, Referees: Ratet zu weniger Text! Nicht zuletzt gibt es ja bei vielen Blättern noch (und im Zusammenhang mit Open Access gerade) Page Charges – Leute müssen also dafür bezahlen, dass ihre Artikel gedruckt werden, und um so mehr, je länger der Artikel ist. Weniger Text schadet also den Verlags-Geiern und ist mithin ein Gewinn für alle anderen! Ref: „Academic publishers make Murdoch look like a socialist“.

    [1]Disclaimer: Auch, wenn das hier anders aussehen mag, füttere ich mitnichten Papageien oder andere Wildtiere. Aber ich kann nicht lügen: Ich bin jenen dankbar, die es tun, weil ich ohne sie weit weniger hübsche Tiere zu sehen bekäme.
    [2]Stetige LeserInnen dieses Blogs sind der Stadt am Perlfluss zum letzten Mal in SARS-1 und das Zimmer 911 begegnet.
    [3]Noch ein Disclaimer: Ich werde dafür bezahlt, Archive Science zu ermöglichen. Es könnte also sein, dass ich in diesem Zusammenhang nicht mein übliches Neutralitätslevel „Salomon“ erreiche.
  • Schrödingers Tiger

    Wieder mal bin ich erstaunt über die Relation von Corona- zu sonstiger Berichterstattung. Während die Deutschlandfunk-Nachrichten um 7:30 aufmachten mit 800 Austritten aus der Linkspartei, gab es kein Wort dazu, dass derzeit hier im Land recht wahrscheinlich mehr SARS-2-Viren umgehen als je zuvor.

    Das ist aus den robusten Schätzern (Lang lebe small data!) zu schließen, die das RKI in seinen Wochenberichten veröffentlicht – die Inzidenzzahlen aus der Vollerfassung reflektieren ja inzwischen eher reales Verhalten als reale Verhältnisse, weil kaum mehr jemand PCR-testet. Bessere Zahlen sind zu schätzen aus dem, was ganz normale Leute über das GrippeWeb des RKI (Danke an alle, die mitmachen!) zu Erkältungen und Co berichten und aus den Diagnosen bei ÄrztInnen, wie viele Leute derzeit mit Symptonen Covid haben:

    Screenshot-Zitat: COVID-ARE-Inzidenz zwischen 1300 und 3100/100000

    (Quelle). Sehen wir uns an, wie das zum Höhepunkt der Omikron-Welle im Frühling aussah; die höchste Schätzung war für Kalenderwoche 11 im Bericht vom 24.3.:

    Screenshot-Zitat: COVID-ARE-Inzidenz zwischen 2000 und 3300/100000

    Nun gebe ich euch, dass das Mittel der damaligen Schätzung noch eine Ecke über der von heute liegt und inzwischen die Fehlerbalken größer sind. Aber wirklich signifikant verschieden sind die geschätzten Inzidenzen nicht.

    Und das sind nur Leute mit Symptomen. Weil inzwischen viel mehr Menschen SARS-2 schon einmal überstanden haben als im März, ist anzunehmen, dass auch viel mehr Menschen asymptomatisch erkrankt (aber vielleicht noch infektiös) sein werden als in Kalenderwoche 11. Wenn sich die entsprechende Dunkelziffer auch nur um ein Drittel erhöht hat, laufen jetzt fast sicher mehr SARS-2-infektiöse Menschen herum als damals.

    Dass „Infektionsraten wieder zurück auf Märzniveau“ gar keine Nachricht ist, finde ich zumindest in der Schrödinger-Interpretation des derzeitigen Pandemie-Umgangs interessant. Im Pandemie-vorbei-Zustand – und Abschnitt 1.6.3 im aktuellen RKI-Wochenbericht scheint in anzuzeigen –, wäre die Nachricht nämlich im Effekt „alle haben Schnupfen“, was eingestandenermaßen eher auf dem Niveau von „Hund beißt Mann“ ist und vielleicht wirklich nicht in die DLF-Nachrichten gehört. Stellt sich allerdings heraus, dass die Pandemie nicht vorbei ist, ist das, was da in der Schrödinger-Kiste ist, keine Katze mehr, sondern ein Tiger.

    Ich selbst – der gerade das erste Rhinoviren-Elend der Saison durchläuft – neige mittlerweile deutlich zur Einschätzung, dass wir mit „ist vorbei“ durchkommen werden, ohne noch unser Normal-Moralniveau im Bereich öffentlicher Gesundheit verlassen zu müssen.

    Aber wie es so ist mit den Kisten vom Schrödinger-Typ: Beim Öffnen kann es Überraschungen geben. Und so fände ich es schon ganz korrekt, wenigstens ein Mal die Woche, also nach dem Wochenbericht, kurz durchzusagen, dass, wer sich einschlägig Sorgen macht, derzeit die Ohren auf Märzniveau anlegen sollte.

  • Religion vs. Wissenschaft: Null zu Eins gegen kleine Geschwister

    Detail aus einem gemalten Bild: Benedikt gestikuliert, Scholastika betet ihn an

    Geschwisterliebe – hier zwischen Benedikt und Scholastika von Nursia – in der Fantasie des Illustrators der Klosterkirche Elchingen (Dank an den Wikipedia-Fotografen).

    Am 22. September musste ich etwas früher als normal aufstehen, und so bekam ich die Morgenandacht im Deutschlandfunk mit. Thema war unter anderem die große Geschwisterliebe zwischen Benedikt von Nursia und seiner Schwester Scholastika von Nursia. Die Geschichte ist, wie wohl die meisten Heiligenlegenden, etwas Stulle. Gregor ruft die Pflicht, Scholastika will aber noch etwas Zeit mit ihrem Bruder verbringen, was im DLF-Andachtsduktus so klingt:

    Sie kann nicht genug bekommen. Sie hat noch so viel auf dem Herzen. Und so betet sie. Und kurz darauf tobt ein Unwetter los. Benedikt kann erstmal nicht ins Kloster zurückkehren. Zum Glück für Scholastika.

    Geschwisterliebe?

    Nun wäre viel zu diesem Stakkatostil zu sagen, doch kann ich, der ich am liebsten jeden zweiten Satz mit einem „und“ anfangen würde, da nicht hinreichend sicher mit Steinen werfen. Mich hat aber ohnehin eher die Einleitung zu dieser Passage gereizt:

    Papst Gregor der Große hat dieses Gespräch, das sich im Jahr 543 ereignet haben muss, aufgeschrieben. [Hervorhebung ich]

    Umm… Schon zu Benedikt selbst steht in der Wikipedia zur Zeit:

    Eine Minderheit von Forschern bezweifelt aufgrund der problematischen Quellenlage, dass Benedikt eine reale historische Persönlichkeit war. [...] Der Theologe Francis Clark legte 1987 eine zweibändige Untersuchung der Dialogi [der angeblich von Gregor dem Großen verfassten Hauptquelle zu Benedikt] vor, in der er die Hypothese vertritt, das Werk sei unecht. Der Verfasser sei nicht der 604 gestorbene Papst Gregor, sondern ein Fälscher, der im späten 7. Jahrhundert gelebt habe.

    Der Wikipedia-Artikel geht noch weiter auf die darauf folgende Kontroverse ein, die ich als Laie mit „mehr oder weniger offen im Hinblick auf die Existenz einer einzigen Person mit den wesentlichen Punkten von Benedikts Biografie“ zusammenfassen würde.

    Zu Scholastika nun finden sich außerhalb der frommen Legenden von Gregor oder einem Gregor-Fälscher überhaupt keine Spuren. Dass „Benedikt“ als (mutmaßlicher) Erfinder von Ora et Labora eine Schwester, gar Zwillingsschwester, haben soll, die irgendwas wie Gelehrsamkeit heißt: Also bitte! Das kann mensch 400 Jahre nach Gallilei und fast 200 Jahre nach Baur und seiner Schule gerne mit mildem Spott oder meinetwegen auch freundlicher Verspieltheit rezipieren – aber jedenfalls nicht als „ereignet haben muss“.

    Nichts als Stress

    Die fromme Legende von der innigen Geschwisterliebe hat mich jedoch immerhin daran erinnert, dass ich noch einer anderen Geschichte zur Geschwisterthematik aus dem Deutschlandfunk nachgehen wollte, und zwar einem Segment aus Forschung aktuell am 13. September.

    Hintergrund davon ist eine Arbeit von Verena Behringer vom Deutschen Primatenzentrum (DPZ) in Göttingen und einigen KollegInnen, „Transition to siblinghood causes a substantial and long-lasting increase in urinary cortisol levels in wild bonobos“ (sagen wir: „Wilde Bonobos stresst es, kleine Geschwister zu kriegen“), die dieses Jahr in eLife erschienen ist, doi:10.7554/eLife.77227.

    Der Artikel hat mich schon deshalb interessiert, weil meine KollegInnen vom Max-Planck-Institut für Sonnensystemforschung, seit sie aus der niedersächsischen Provinz nach Göttingen gekommen sind, Nachbarn des DPZ sind und berichten, von dort seien öfter mal seltsame Geräusche zu hören. Insofern bin ich neugierig, was am DPZ so geforscht wird.

    Behringers Arbeit scheint allerdings kein Fall für die Ethikkommission zu sein, auch wenn da zweifelsohne eine draufgeguckt haben wird; dazu unten ein paar Worte. Als kleiner Bruder habe ich aber auch ein persönliches Interesse an den Ergebnissen, denn wir kleine Geschwister kommen in der Arbeit gar nicht gut weg. Grafisch dargestellt:

    Die Punkte in den Plots entsprechen Konzentrationen von Cortisol im Urin von jungen Bonobos. Cortisolspiegel gelten in vielen Spezies als Proxy dafür, wie gestresst ein Individuum gerade ist. Beachtet, dass die Ordinate logarithmisch aufgeteilt ist; auch wenn ein linearer Zusammenhang zwischen „gefühltem“ Stress und dem Spiegel ausgeschlossen werden kann, ist hier jedenfalls viel Dynamik im Graphen.

    Auf der Abszisse stehen die Jahre vor bzw. nach der Geburt des jeweils ersten kleinen Geschwisters. Der senkrechte Strich zwischen Null und Eins markiert fünf Monate nach der Geburt des Geschwisters. Schon ohne tiefergehende Analyse fällt auf, dass in diesen ersten fünf Monaten als Schwester oder Bruder die Bonobos nie entspannt waren und sich die Stresslevel (wenn mensch denn an den Cortisolproxy glaubt) durchweg stark am oberen Rand bewegen. Danach, immerhin, normalisiert sich die Situation erkennbar.

    Die Linien mit so einer Art Konfidenzintervallen drumrum sind Modellfits für den „typischen“ Verlauf des Cortisolspiegels, jeweils getrennt nach Jungen und Mädchen (die Bestimmung der Farbzuordnung ist dem/der LeserIn zur Übung anempfohlen). Der Schluss ist fast unausweichlich: kleine Geschwister sind Stress, jedenfalls für eine ganze Weile. TTS nennen das Behringer et al, Transition to Siblinghood.

    Alle zehn Tage ein paar Tropfen Urin

    Wer sich fragt, wie die Leute an die Urinproben gekommen sind: Nun, die Max-Planck-Gesellschaft betreibt im Kongo eine Einrichtung namens LuiKotale, die in der Openstreetmap als tourism:camp_site getaggt ist. Es lohnt sich, die Karte etwas rauszuzoomen, um ein Gefühl dafür zu kriegen, was für eine einsame Angelegenheit das ist und wie klein das Risiko, dass sich wirklich mal TouristInnen dorthin verirren könnten. In der Umgebung des Camps leben einige Stämme von Bonobos, die sich an urinsammelnde und zuguckende Menschen gewöhnt haben, ansonsten aber offenbar ihrem üblichen Leben nachgehen können.

    Die DPZ-WissenschaftlerInnen haben zwischen Juli 2008 und August 2018 – ich bin allein schon wegen der zehn Jahre beeindruckt – Urin vom Bonobonachwuchs gesammelt, wenn er (der Urin, nicht der Nachwuchs) auf Blättern gelandet ist und nicht verkotet war. Aus diesen Proben konnten sie offenbar Konzentrationen verschiedener Hormone – darunter Cortisol – bestimmen. Ich verstehe zu wenig von den Laborprozeduren, um beurteilen zu können, wie groß die Fehlerbalken an den Punkten im Plot oben wohl sein sollten. Alleine die Überlegung, dass die Blätter nicht immer trocken gewesen sein werden, schlägt schon sehr große statistische Fehler vor. Andererseits würden selbst Fehler von 50% in der logarithmischen Darstellung nicht besonders auffallen und jedenfalls nichts an den grundsätzlichen Ergebnissen ändern.

    Am Schluss kamen über die zehn Jahre 319 nutzbare Urinproben von passenden Kindern zusammen. Die Leute haben also weniger als alle zehn Tage eine Probe gewinnen können. Ihre Methode mag ethisch weitgehend unbedenklich sein, sie braucht aber ganz klar viel Geduld und Glück.

    Etwas verblüffend finde ich, dass im Sample 20 Mädchen, aber nur 6 Jungen vorhanden sind. Ein solches Ungleichgewicht ist – ohne das jetzt wirklich durchgerechnet zu haben – fast sicher kein Zufall. Sind die Jungen vielleicht scheuer? Sie hängen jedenfalls signifikant mehr an ihren Müttern (Abb. 2 D im Artikel). Gibt es in den beobachteten Stämmen vielleicht einfach weniger von ihnen? Wenn die Studie das kommentiert, habe ich es überlesen.

    Versuch einer Ehrenrettung

    Die Arbeit verwendet einige Sorgfalt darauf, herauszukriegen, was genau diesen Stress auslöst. Zusammengefasst sind die zentralen Ansätze in der Abbildung 2 im Paper, die betrachtet, was sich postnatal sonst noch so alles ändern könnte im Verhältnis von Mutter und großem Geschwister. Die zugrundeliegenden Daten wurden durch stundenweise Beobachtung der jeweiligen Kinder gewonnen. Ja, diese Leute kennen ganz offenbar ihre Affen.

    Es zeigt sich, dass weder beim Säugen (oder entsprechenden Ersatzhandlungen) noch beim Kuscheln oder der gemeinsamen Nahrungsaufname über die Geburt hinweg viel passert, denn die Mütter entwöhnen größtenteils schon vorher. Beim Rumschleppen („Riding“) der älteren Kinder tut sich tatsächlich etwas, jedenfalls, wenn diese älteren Kinder selbst noch jung und männlich sind (Abb. 2 D und E im Paper). Dieser Alterseffekt ist aber in den Cortisoldaten nicht nachweisbar, so dass „weniger getragen werden“ als Grund des starken Stresssignals wohl ausfällt.

    Die AutorInnen spekulieren über weitere Gründe für das erhöhte Stressniveau, beispielsweise, dass die Geschwister mit dem Baby spielen wollen, aber nicht dürfen (yeah, right), oder dass sich die Mütter perinatal von der Gruppe absetzen und so auch die Geschwister isolierter sind. Stress könnten auch die üblichen Grobiane in den Stämmen machen, indem sie die älteren Kinder ärger quälen, während die Mutter anderweitig beschäftigt ist. Richtig überzeugend ist das alles nicht. Kleine Geschwister sind wohl einfach an und für sich stressig.

    Und es handelt sich klar um ein starkes Signal. Aus den Modell-Fits ergibt sich, dass sich bei der TTS die Cortisolniveaus verfünffachen. Demgegenüber kommen Menschen, wenn sie den Tieren im Labor Stress machen wollen, gerade mal auf eine Verdoppelung der Cortisolniveaus, bei Kämpfen zwischen Bonobo-Stämmen ist es kaum ein Faktor 1.5. Erst eine schlimme Lungenseuche, an der ziemlich viele Tiere starben – deutlich mehr als Menschen an SARS-2 – hat einen ähnlichen Effekt gehabt, so in etwa einen Faktor 10.

    Als Merksatz ließe sich also für die ersten fünf Monate des Große-Geschwister-Daseins feststellen: Kleine Geschwister sind ungefähr so schlimm wie Corona.

    Erstaunlicherweise gibt sich das alles nach den ersten fünf Monaten. Behringer et al machen den Scholastika-ErzählerInnen auch ein paar Friedensangebote.

    Alternatively, it has been suggested that early-life events of ‘tolerable stress’ [...] may serve to prime subjects to develop stress resistance later in life. Moreover, TTS may accelerate acquisition of motor, social, and cognitive skills [...] Having an older sibling may enhance the development and survival of the younger sibling that contributes to the inclusive fitness of both the older sibling and the mother.

    Würde ich die Dinge nur aus der …

  • Nur ihr werdet wissen, ob wir es getan haben

    Foto einer Gletscherzunge zwischen Bergen

    So sah der Ochsentaler Gletscher im August 2017 ungefähr von da aus aus. Ich wäre neugierig, wie sich das inzwischen verändert hat.

    In Forschung aktuell vom 26. August gab es ein Segment über mögliche Zukünfte der Alpengletscher. Darin wird von einer Art Grabstein für den inzwischen (praktisch) weggeschmolzenen isländischen Gletscher Okjökull[1] berichtet, dessen an die Nachwelt gerichtete Inschrift ich wunderbar pathetisch fand und so treffend, dass ich ihn hier schon mal für meine ZeitgenossInnen wiedergeben will, die es wahrscheinlich nicht nach Island schaffen werden:

    Wir wissen, was passiert und was wir tun müssen. Nur ihr werdet wissen, ob wir es getan haben.

    Utopia.de hat auch ein Bild davon; und nachdem ich mal eine Suchmaschine nach dem Text gefragt habe, bin ich überrascht, dass die Geschichte, die offenbar so gegen 2018 ihren Anfang nahm, bisher an mir vorübergegangen ist.

    [1]Ich vermute, dass der mal hier war. Die Openstreetmap hat da nur noch „bare rock“ – auch von daher ist das also durchaus plausibel. Die Openstreetmap-Tiles kamen bei mir übrigens nur sehr langsam. Ich vermute fast, dass da so selten wer hinguckt, dass die Tiles gerade frisch für mich gerechnet wurden. Und: von dem Grabstein ist in der OSM keine Spur zu sehen. Kennt wer wen in Island, der/die das fixen könnte?
  • Dialektik der Ökonomie

    Ich bin bekennender Skeptiker bezüglich allem, was sich Wirtschaftswissenschaft nennt (wobei ich die Verdienste einiger ihrer VertreterInnen um die angewandte Mathematik nicht leugnen will). Und ich wundere mich, warum das nicht viel mehr Menschen sind, sind doch die Vorhersagen, die aus dieser Ecke kommen, eigentlich immer im Einzelnen falsch („Wachstumsprognose nach unten korrigiert“). Tatsächlich kommen aber schon die qualitativen Aussagen offensichtlich nicht annähernd hin.

    Zu den zentralen Glaubenssätzen jedenfalls marktradikaler Ökonomie gehört ja, dass niedrige Zinsen Wachstum und Inflation steigen lassen und hohe Zinsen die Inflation eindämmen, aber das Wachstum abwürgen. Dieser Glaube ist sogar in vielen Geschichtsbüchern reflektiert, wenn etwa die Hochzinspolitik der späten Carter- und frühen Reagan-Jahre für die Überwindung der „Stagflation“ verantwortlich gemacht wird; glücklicherweise ist die (gegenwärtige) Wikipedia da etwas realistischer und benennt, was die eigentlichen Gründe der Inflation in den 1970er Jahren waren (nämlich die Stärke der OPEC; dazu wären noch Bankenspiele und starke Gewerkschaften zu nennen).

    Der Glaube an die Kraft des Zinssatzes ist offenbar durch keinerlei Tatsachen zu erschüttern, nicht einmal die Folgen der Nullzinspolitik der letzten zehn Jahre. Außer im schattigen Bereich von Immobilien, Aktien, Derivaten, Großkunst und Kryptogeld fanden diese nämlich nicht statt. Es gab weder nennenswerte Inflation noch nennenswertes Wachstum (allen Gottheiten sei dank – Zukunft hätte das eh nicht).

    Um so unverständlicher ist, dass Klemens Kindermann aus der Deutschlandfunk-Wirtschaftsredaktion (nun: vorher Handelsblatt) vorhin die EZB schalt, weil sie die Zinsen so lange niedrig ließ und deshalb Schuld habe an den hohen Inflationsraten im Euro-Raum. Wörtlich:

    Fehler Nummer 2: Allerspätestens seit Beginn des Angriffs Russlands auf die Ukraine hätte das Ruder herumgerissen werden müssen. In den USA hat das die Zentralbank erkannt und massiv gegengesteuert.

    Damit meint er: sie haben die Leitzinsen erhöht. Nun: wenn das so ist, was war die Wirkung? Sehen wir bei aller Reserviertheit gegenüber der Kennzahl Inflationsrate mal auf Zahlen meinethalben von irgendeinem Datensammler: Inflationsrate USA 8.5%, Inflationsrate BRD 8.5% (für Juli).

    Wer erklären kann, warum HandelsblättlerInnen und ihre Adpeten diese Zinsgeschichte so unbeirrt auspacken, wenn doch ganz offensichtlich ist, woher die Preisentwicklung kommt – derzeit: diverse Schwierigkeiten im Chinageschäft und ein Stellvertreterkrieg von fast vietnamösen Ausmaßen[1] –: Für mich wäre der oder die einE heißeR KandidatIn für den Wirtschafts-„Nobelpreis”.

    [1]Der Vietnamkrieg ist in diesem Zusammenhang vor allem deshalb zu erwähnen, weil seine Kosten wesentlich zur Aufgabe des an sich halbwegs vernünftigen Bretton-Woods-Systems geführt haben. Die daraus resultierenden „freien“ Wechselkurse wiederum haben der Freihandelspolitik und dem ganzen Elend, das mit ihr einherging, nochmal einigen Extraschwung gebracht. Nun sind die tatsächlichen Kriegskosten in der Ukraine im Vergleich zu Vietnam ziemlich klein – es sind ja nicht unsere Jungs, die „den Russen“ da bekämpfen, und auch in Tonnage von Bomben und Entlaubungsmittel ist das noch eine andere Liga –, aber es wird trotzdem spannend, ob der patriotische Rückenwind noch für ein paar komforable neue Umverteilungprogramme reichen wird…
  • Das BESTE Bildungssystem in Deutschland

    Transparent der INSM im Berliner Hauptbahnhof: Deutschland fährt besser.

    Berlin Hauptbahnhof, August 2021: Würden Sie von Leuten, die Menschen an öffentlichen Orten mit solcher Werbung belästigen, Bildungsstudien kaufen?

    In den DLF-Nachrichten vom 17.8. war in der 16:30-Ausgabe folgende Nachricht zu hören:

    Sachsen hat laut einer aktuellen Erhebung das beste Bildungssystem in Deutschland. Das ergab eine Vergleichsstudie des Instituts der Deutschen Wirtschaft, das dieses [sic] im Auftrag der Initiative neue Soziale Marktwirtschaft erstellt [sic]. Bayern und Thüringen liegen auf den Plätzen zwei und drei. Schlusslicht ist hinter Nordrhein-Westfalen und Sachsen-Anhalt der Stadtstaat Bremen.

    Als ich eben einen Mitschnitt davon beim Radfahren gehört habe, musste ich in aller Öffentlichkeit hysterisch lachen. In Momenten wie diesen bin ich froh, dass die Gesellschaft längst an unpassende Interaktionen zwischen Menschen und ihren technischen Gerätschaften, auch und gerade mitten auf der Straße, gewöhnt ist.

    Sowohl das zugrundeliegende Ereignis als auch das Framing durch die DLF-Redaktion werfen mal wieder die Frage auf, was Satire eigentlich alles darf. Lieber DLF, was wäre verkehrt gewesen an neutraler Berichterstattung, sagen wir:

    Die Abteilung INSM der Werbeagentur Scholz & Friends versucht, mit der Behauptung, ausgerechnet das immer wieder durch die Prävalenz sehr eigenartiger Ansichten auffällige Sachsen habe das – im Sinne von der INSM geeignet definierter Kriterien – beste Bildungssystem, Einfluss auf die Bildungspolitik zu nehmen; die rechtsgerichteten Unternehmer*innen, die Scholz & Friends bezahlen, fordern: a, b und c.

    —Nicht der DLF

    Full disclosure: Ich habe nicht versucht, die Studie zu lokalisieren oder gar rauszukriegen, was a, b und c in diesem speziellen Fall sein mögen, also auf welche Ideologeme hin die Metriken gestaltet wurden. Ich habe seit den 90er Jahren zu viele von Papieren dieses Genres gelesen, um noch im Geringsten auf dieses neugierig zu sein. Am Ende wird es halt wie üblich auf Privatisierung, mehr Industrieplunder in den Schulen, bevorzugt noch mit Staatsknete finanziert, und eine Brandmauer zwischen Schülis und fortschrittlichen Ideen rauslaufen.

    Nur ein Datenpunkt zu „bestes“ und Sachsen: Die AfD hat bei der dortigen Landtagswahl 2019 28,4% der Stimmen bekommen, bei den gerade dem INSM-zertifiziert „besten“ Bildungssystem Deutschlands entwachsenen 18-24jährigen nach Aussage des MDR immer noch 19% (knapp hinter den Grünen mit 21%). Wenn das das Ergebnis des aus der Sicht reaktionärer UnternehmerInnen besten Bildungssystems ist, fällt es schwer, keine unangemessenen Parallelen zu ziehen.

    Und wo ich schon von der INSM rede: Dass sich diese Leute nicht gelegentlich einen neuen Namen einfallen lassen, wundert mich sehr. Nachdem gerade die, die die INSM wohl am dringendsten beeinflussen möchte – junge Leute mit zumindest rudimentärem politischen Interesse – fast flächendeckend in Marc-Uwe Klings Känguru-Chroniken gelesen haben:

    Initiative neue soziale Marktwirtschaft – Propagandanetzwerk des Schweinesystems. Vgl. dazu auch: Du bist Deutschland, Freundeskreis der Kernkraft, Anbeter des Arbeitsplatzes, Gläubige der Gleichschaltung,

    würde ich an deren Stelle doch mal über eine, hust, Weiterentwicklung des, hust, Markenkerns nachdenken. Aber vielleicht verstehe ich auch nur nicht genug von Marketing.

  • Schon die Werbung für Fahrradhelme schadet

    Fahrradschilder, links „Auto zu Gast“, rechts „It is compulsore to wear a bike helmet”

    Was RadlerInnen helfen soll: links Niederlande, rechts Australien. Ihr müsst wohl nicht lange nachdenken, wo mehr Leute radfahren – und wo AutofahrerInnen weniger von ihnen zermanschen.

    Ich bin fest überzeugt, dass es Fahrradhelme ohne die Autolobby nicht gäbe; wichtigstes Indiz ist, dass der Anteil der HelmfahrerInnen stark korreliert ist mit der Rate zermanschter RadlerInnen pro geradeltem Kilometer. Das ist dann recht gut erklärbar, wenn Helmtragen und schlechte Bedingungen fürs Radfahren eine gemeinsame Ursache haben. Ein sehr naheliegender Kandidat für diese Ursache ist eine starke Autolobby (dort, wo es viele Helme gibt und also viel zermanscht wird).

    Vielleicht kommt das etwas konspirologisch daher, aber es dreht den hervorragend recherchierten DLF-Hintergrund vom 10. August nur ein klein wenig weiter. Dessen Thema ist, wie Leute die Niederlande in das Fahrradparadies verwandelt haben, das sie (jedenfalls im Vergleich zu sonst fast allem) sind. So macht er beispielsweise den Punkt, dass Menschen in den 1970er und 1980er Jahren kräftig für die richtige Verkehrspolitik gerungen haben („es brauchte fast Straßenkämpfe in Amsterdam […], um das System zu ändern“), übrigens gegen erheblich stärkeren Widerstand als wir ihn heute haben. Die Nachricht, dass sich die Dinge nicht von selbst ändern, dass sie sich aber ändern lassen, finde ich höchst wichtig.

    Im Hinblick auf die Helmfrage zitiert der Beitrag Meredith Glaser vom Urban Cycling Institute der Uni Amsterdam (Übersetzung DLF):

    Die Forschung zeigt: Wenn es Gesetze gibt, die das Tragen von Helmen vorschreiben, dann geht die Fahrradnutzung zurück. Das hat sich auch in Kopenhagen gezeigt. Dort hat die Regierung eine gewisse Zeit lang für das Tragen von Helmen geworben. Und in diesem Zeitraum wurde weniger Fahrrad gefahren.

    Vom Schaden der Helmpflicht wusste ich schon aus den Studien aus Australien (wo sie den Unfug, soweit ich weiß, immer noch nicht wieder aufgehoben haben); dass schon die Werbung schädlich ist, war mir neu. Um so naheliegender ist der Schluss der Sendung. Er kann aber nicht oft genug wiederholt werden, da ja nun die Autolobby ihre Sprüche auch unermüdlich daherbetet:

    Eine Helmpflicht würde auch dazu führen, dass weniger Radfahrer auf den Straßen unterwegs wären. Und das wiederum habe dann tatsächlich Einfluss auf die Sicherheit der Radlerinnen und Radler.

    Das ist der Grund für meine betretene Miene, wenn ich RadlerInnen mit Helmen sehe: Sie gefährden mein Leben.

    Für den Fall, dass hier Helm-Fans vorbeikommen, will ich noch kurz auf ein paar irrige Argumente eingehen:

    • „Na gut, dann hilft das Plastikding vielleicht nicht, wenn mensch vom Auto zermanscht wird, aber bei normalen Stürzen ist es doch super“ – nun, die Studienlage dazu ist, was Alltagsradeln angeht, allenfalls knapp über Globuli-Niveau. Das liegt daran, dass Alltagsradeln an sich eine recht sichere Angelegenheit ist. Wer nun in eine recht sichere Sache global eingreift, muss genau aufpassen, dass der Nutzen (d.h. leichtere Verletzungen bei der kleinen Klasse von Unfällen, bei denen der Helm wirkt) größer ist als die Summe der unerwünschten Nebenwirkungen (weniger vorsichtige Fahrweise, weniger Rücksicht durch Autofahrende, Fummeln am Helm zur falschen Zeit, erhöhte Umweltbelastung durch Produktion, Transport und Entsorgung der Helme, und natürlich: weniger Räder auf der Straße). Nur zur Sicherheit: Diese Abwägung mag bei tatsächlich gefährlichen Tätigkeiten („Sport“, hier: Rennradfahren; ggf. auch E-Bikes) anders ausgehen. Das normale Fahrrad aber zeichnet sich eben durch sein menschliches Maß aus.
    • „Och, das sind dieselben Abwehrgefechte wie bei der Gurtpflicht oder der Helmpflicht für Motorradfahrer“ – Nein, sind sie nicht. Erstens, weil die Epidemiologie bei diesen beiden Maßnahmen ganz klar war: Es braucht keine großen Studien, um zu zeigen, dass bei den im motorisierten Individualverkehr (MIV) herrschenden Gewalten Menschen viel größere Überlebenschancen haben, wenn sie ordentlich Rüstung anlegen. Aber auch wenn Fahrradhelme erwiesenermaßen günstige Gesundheitseffekte hätten, wäre die Situation immer noch eine ganz andere, denn während es ein willkommener Effekt wäre, weniger Autos und Motorräder auf der Straße zu haben, hätte eine Verdrängung vom Fahrrad auf den MIV dramatisch negative Effekte auf die allgemeine Gesundheit (Lärm, Dreck, Bewegungsmangel, unzugänglicher öffentlicher Raum). Angesichts dessen müssten die Effekte bei Fahrradhelmen schon gigantisch sein, um ihre Einführung oder auch nur Bewerbung zu etwas anderem als einer menschenfeindlichen Operation zu machen.
    • „Aber man kann doch Helm tragen und trotzdem was für besseren Fahrradverkehr tun.” – Klar. Wenn nicht Helme die Leute in die Autos treiben würden und die Leserbriefspalten bei jedem zermanschten Radler noch lauter „da, hätte er mal einen Helm getragen“ röhren würden, dann wäre es so oder so wurst. Aber so ist es nicht.
    • Dein Argument hier – das Feedback-Formular wartet auf dich.

    Bei der Gurtpflicht lohnt sich übrigens noch ein anderer Gedanke: Was wäre, wenn das autobedingte Blutvergießen damals nicht durch Aufrüstung (also Sicherung und stärkere Panzerung), sondern durch Abrüstung (also: global Tempo 30 für den MIV) angegangen worden wäre? Ich gehe hohe Wetten ein, dass das hunderttausende Leben gerettet hätte, ganz speziell welche ohne Lenkrad. Und wir hätten sehr wahrscheinlich viel weniger Autos auf den Straßen von heute. Wenn das international geklappt hätte, hätte es vielleicht sogar ein, zwei Zehntelgrad Klimaerwärmung ersparen können, zumal, wenn mensch einrechnet, dass es auf diese Weise wohl auch weniger Einfamilienhäuser gegeben hätte.

    Das führt zwanglos auf die Schlüsse der Hintergrund-Sendung, die sich nämlich genau mit Visionen für den öffentlichen Raum beschäftigen. Es heißt dort, eine weniger durchgeknallte Verkehrspolitik würde bewirken, „dass Straßen dann wieder als öffentlicher Raum wahrgenommen würden und nicht nur als Verkehrssystem.“

    Genau meine Rede.

  • Adenauer vs. Ägypten: Frühe Einsichten zur Arbeit

    Vielleicht passe ich gerade nur etwas besser auf, aber mir kommen derzeit besonders viele Fundstücke zum Thema Postwachstum und der Frage der Arbeit unter – die beiden sind ja, so behaupte ich, eng verbunden. Wenn wir nämlich wirklich in eine Gesellschaft übergehen, die den Menschen materielle Sicherheit bei einer minimalen Belastung von Natur und Mensch gewährleistet (und anders wird das wohl nichts mit der „Nachhaltigkeit“, vgl. Meadows ff von neulich), würden wir beim heutigen Stand der Produktivität locker mit zehn Stunden pro Woche Lohnarbeit auskommen – oder halt das, was in so einer Gesellschaft statt Lohnarbeit stattfinden würde.

    Ein Beispiel für das genaue Gegenteil dieser aus meiner Sicht positiven Utopie war im DLF-Kalenderblatt vom 6.8. zu hören. Es erinnerte an die Eröffnung des ersten deutschen Autobahn-Teilstücks durch den Kölner Oberbürgermeister Konrad Adenauer. Fans von Volker Kutscher wissen das gleich zeitlich einzuordnen: Es war 1932. Die zentrale Nachricht des DLF-Beitrags sollte wohl sein, dass der postfaschistische Mythos von den Nazi-Autobahnen Quatsch ist. Für mich – da mir die Rubrizierung der Autobahnen als Nazimist eigentlich immer gut gepasst hat – viel eindrücklicher war aber die entspannte Selbstverständlichkeit, mit der der Potsdamer Historiker Ernst Piper in der Sendung die Aussage illustriert, der Autobahnbau sei eine „Maßnahme zur Bekämpfung der damaligen Massenarbeitslosigkeit“ gewesen.

    Deswegen gab es zum Beispiel ja auch die Vorgabe – es galt auch für das kleine Stück, was Adenauer eingeweiht hat, das war dort genauso –, dass Maschinen nicht eingesetzt werden sollten. Es sollte alles, was irgend möglich war, mit Handarbeit erledigt werden, um möglichst viele Leute dort in Lohn und Brot zu bringen.

    Ich finde es schlicht empörend, dass wir wegen der verrückten Religion von „wer nichts arbeitet, soll auch nichts essen“ Leute völlig sinnlos schinden. Mal abgesehen davon, dass netto die Menschheit wahrscheinlich besser dran wäre, wenn es keine Autobahnen gäbe und so die ganze Arbeit besser nicht gemacht worden wäre: Hätte, sagen wir, ein Zehntel der Leute mit ordentlichen Maschinen gearbeitet und die anderen, die da geschunden wurden, derweil vielleicht ein wenig gegärtelt und sich ansonsten ausgeruht, hätte es die Autobahn und wahrscheinlich sogar mehr Essen oder sonstwas Schönes oder Nützliches gegeben.

    Die Schinderei hatte also auch dann überhaupt keinen Sinn, wenn die Autobahn als solche wertvoll gewesen wäre.

    Dass dieser ziemlich ins Sadistische spielene Irrsinn noch nach 90 Jahren nicht zu einem Aufschrei der Empörung angesichts von solchen Mengen mutwilliger Zufügung von Leid führt, sagt, soweit es mich betrifft, viel darüber aus, wie viel Aufklärung noch zu besorgen ist gegen die Marktreligion und ihre Anhängsel.

    Es mag etwas ironisch sein, dass ausgerechnet der Aberglaube im antiken Ägypten in diesem Punkt moderner, ehrlicher, aufgeklärter und nicht zuletzt pragmatischer wirkt. Gelernt habe ich das aber erst gestern, als ich im hessischen Landesmuseum in Darmstadt folgende Exponate sah:

    Jede Menge Tonfiguren in einer Glasvitrine

    Diese Tonfiguren sind Uschebtis. Zu deren Funktion erklärt die Wikipedia in Übereinstimmung mit den Angaben des Museums:

    Wurde der Verstorbene nun im Jenseits zum Beispiel dazu aufgerufen, die Felder zu besäen oder die Kanäle mit Wasser zu füllen, so sollte der Uschebti antworten: „Hier bin ich.“ (6. Kapitel des Totenbuches). Damit der Uschebti die dem Toten aufgetragene Arbeit, insbesondere Feldarbeit, verrichten konnte, wurden ihm in älterer Zeit kleine Modelle der Geräte mitgegeben, die der Uschebti in den Händen hielt. In späterer Zeit wurden die Geräte auf die Figuren gemalt.

    Ist das nicht großartig? Wie wenig ÄgypterInnen mit der modernen (und nein, Herr Weber, nicht nur protestantischen) Arbeitsmoral anfangen konnten, lässt sich an der Unmenge von Uschebtis ablesen, die wir noch nach 3000 Jahren finden. Die Museums-Leute haben erzählt, die Dinger seien im 19. Jahrhundert sehr populäre Mitbringsel von Ägypten-Urlauben gewesen, denn sie seien eigentlich überall zu finden gewesen.

    Klar, außerhalb ökonomischer Diskussionen sind sich auch heute alle einig, dass Lohnarbeit stinkt – vgl. die „Endlich Freitag“-Spots der ARD –, aber kaum zwei Ecken weiter kommt doch wieder die fast nie öffentlich in Frage gestellte Gegenunterstellung, ein Leben ohne Lohnarbeit müsse traurig und sinnlos sein (wäre das so, würde das, wie schon Bertrand Russell bemerkt hat, ein sehr schlechtes Licht auf unser Bildungssystem werfen). Zumindest diesen Unfug hat es schon im ägyptischen Totenbuch nicht mehr gegeben.

    Dass wir 4500 Jahre nach dessen ersten Anfängen wieder Mühe haben, diese Dinge klar zu kriegen, zeigt erneut, dass der Prozess der Zivilisation schwierig ist und es immer wieder Rückschläge gibt.

    Übrigens will ich natürlich mitnichten zurück zu ägyptischen Praktiken. Abgesehen davon, dass die Herstellung der Uschebtis zweifellos in die Klasse der wirtschaftlichen Aktivitäten fällt, deren Einstellung die Welt besser gemacht hätte: Die Sitte, die zunächst so sympathisch wirkt (solange mensch nicht ans Totenreich oder jedenfalls die Leidensfähigkeit von Tonfiguren glaubt), hat sich im Laufe der Jahrhunderte in Weisen entwickelt, die an moderne Freihandelszeiten erinnert. Nochmal die Wikipedia:

    Während es in der 18. Dynastie meist nur einzelne Exemplare waren, konnte die Anzahl in der Spätzeit weitaus höher sein. [...] Ab dem Ende der 18. Dynastie, vom Höhepunkt des Neuen Reiches bis zu den Ptolemäern, wurden sie durch Aufseherfiguren ergänzt [...] Der Aufseher hatte zu überwachen, dass der Uschebti die Arbeiten ordnungsgemäß durchführte. Er wurde dafür mit Stock und Peitsche ausgeführt.
  • Mary Lea Heger: Interstellares Natrium und Geburtstage

    Fotonegativ eines hellen Sterns und des umgebenden Sternfelds.

    Der Stern δ Orionis in einer Aufnahme von 1927 (B5232a aus HDAP) – das war eines der zwei Objekte, in deren Spektrum Mary Lea Heger das interstellare Natrium entdeckt hat.[1]

    In der DLF-Sternzeit vom 13. Juli ging es um Mary Lea Heger, die vor rund 100 Jahren entdeckte, dass es Natrium im Raum zwischen den Sternen gibt (auch wenn sie sich im verlinkten Artikel von 1919 noch nicht ganz sicher war, wo genau). Wer mal Himmelsaufnahmen aus der Zeit gesehen hat, wird ahnen, wie haarig das gewesen sein muss.

    Heger hat nämlich Spektren aufgenommen, was damals überhaupt nur für sehr helle Sterne wie den oben abgebildeten δ Orionis alias Mintaka (der am weitesten rechts stehende Gürtelstern des Orion) sinnvoll ging. Aus diesen Spektren hat sie dann Radialgeschwindigkeiten abgeleitet, also im Groben beobachtete Wellenlängen von Spektrallinien bekannter Elemente mit deren auf der Erde messbaren Wellenlängen verglichen, daraus die Blau- bzw. Rotverschiebung abgeleitet und daraus wiederum bestimmt, wie schnell sich die Objekte gerade auf uns zu oder von uns weg bewegen.

    Ehrlich gesagt weiß ich gar nicht, wie das damals gemacht wurde. Heute malt einem der Computer schöne Kurven und kann dann auch beliebige Funktionen dranfitten. Damals hingegen war, denke ich, schon die numerische Erfassung der Schwärzungen der Fotoplatte (bei der ihrerseits doppelte Schwärzung mitnichten doppeltes Licht bedeutet) eine echte Herausforderung. Die Wikipedia schreibt leider unter Densitometer nichts zur Geschichte dieser Geräte, und zu einer richtigen Recherche kann ich mich gerade nicht aufraffen.

    Mintaka und Hegers zweites Objekt, der von uns aus kaum ordentlich zu beobachtende β Scorpii alias Akrab[2], sind beides ziemlich heiße Sterne, im Jargon Spektralklasse B mit Oberflächentemperaturen deutlich über 20000 Kelvin (die Sonne: 6000 K). Weil bei diesen Temperaturen die Atome recht schnell unterwegs sind, wenn sie Photonen absorbieren, sind die Linien solcher Sterne in der Regel breit (vgl. Dopplerverbreiterung); auf den Fotos, aus denen solche Spektren gewonnen wurden, wirken die Linien sozusagen ausgewaschen.

    Tanzende und stehende Linien

    Heger hat nun aber auch ein paar recht scharfe Linien von Kalzium und Natrium in den Spektren dieser Sterne gefunden, und zwar in Absorption, was heißt: Irgendwo zwischen da, wo das Licht herkommt und Hegers Spektrographen muss es Kalizum- und Natriumatome geben, die das Licht der passenden Wellenlängen absorbiert (und dann wieder woandershin emittiert) haben. Und davon nicht zu knapp.

    Plot einer Kurve, beschriftet mit Wellenlängen

    Ein modernes Spektrum von β Ori (vom FEROS-Spektrographen der ESO, HD36485_1069462_2014-08-24T08:30:43.517_S0.5x11_1x1_UVB_NOD). Auf der x-Achse ist die Wellenlänge in Nanometer, auf der y-Achse die Flussdichte in Instrumenteneinheiten. Gezeigt ist die Umgebung der Fraunhofer-Linien H (Labor: 393,368 nm) und K (Labor: 396,847 nm) des einfach ionisierten Kalziums. Links ist eine relativ schmale und unstrukturierte Linie zu sehen, wie sie Heger für die interstellare Absorption gesehen haben wird, rechts dann eine breite Linie mit vielen Komponenten von den Einzelsternen: die Höcker da drauf würden tanzen, wenn mensch einen Film machen würde. Nach etwas Überlegung habe ich beschlossen, mich nicht festzulegen, was welche Linie ist…

    Sowohl Akrab als auch Mintaka sind zudem recht enge Doppelsterne[3]. So enge, dass sie mit damaligen Techniken wie ein Stern erschienen. Dass es sich um Doppelsterne handelt, war bekannt, weil in ihren Spektren (im Groben) jede Linie nicht ein Mal, sondern zwei Mal vorhanden ist, und die Teile eines Paars darüber hinaus regelmäßig umeinander tanzen. Die Erklärung: jeder Stern macht für sich eine Linie, die je nach Stellung in der Bahn anders dopplerverschoben ist als die seines Partners. Nun sind solche Sterne sehr schwer, und sie umkreisen sich auf relativ engen Bahnen (bei Mintaka: das Jahr ist im engen Paar 5.7 Tage lang), so dass die Bahngeschwindigkeiten bis hunderte Kilometer pro Sekunde betragen können[4]. Damit sind auch die Dopplerverschiebungen der Linien recht ernsthaft, und so ist die Natur der ersten dieser spektroskopischen Doppelsterne schon Ende des 19. Jahrhunderts aufgefallen.

    Nur: Hegers scharfe Linien tanzen nicht. Sie bleiben stur stehen, während die Sterne umeinander rasen. Und damit ist klar, dass die absorbierenden Atome zumindest nicht zu den einzelnen Sternen gehören. Sie könnten im Prinzip aus der Erdatmosphäre kommen, denn die Natriumschicht in so um die 100 km Höhe, die heute für Laser-Leitsterne verwendet wird, ist in hinreichend empfindlichen Spektren durchaus zu sehen. Wie das mit damaligen Spektren war, weiß ich nicht, die Schicht als solche wurde aber erst 1929 entdeckt (was sich jedoch nur auf die spezifische Verteilung des Natriums beziehen mag – andererseits ist neutrales Natrium in Gegenwart von Sauerstoff nicht gerade stabil. Also: ich weiß es wirklich nicht).

    Abgeleitete Kopfzahl: mit 30⋅3600 Sachen um die Sonne

    Heger wird aber (auch wenn sie das im verlinkten Artikel nicht schreibt, weil die entsprechende Korrektur Teil der Standard-Datenreduktion war und ist) in ihren scharfen Linien doch eine Bewegung gesehen haben, nämlich um etwas weniger als 30  km ⁄ s. Das ist der Reflex der Bewegung der Erde um die Sonne, und der wäre in atmosphärischen Linien nicht zu sehen, da sich ja die Atmosphäre mit der Erde bewegt.

    Die Geschwindigkeit der Erde bei ihrem Weg um die Sonne ist übrigens mit zwei Kopfzahlen schnell abgeschätzt: erstens dem Dauerbrenner 30 Millionen Sekunden pro Jahr (oder π⋅107  s, was tatsächlich die Art ist, in der ich mir das merke) und dann die 150 Millionen km (was ich mir als 1.5⋅1011  m merke) für den Radius der Erdbahn. Die Geschwindigkeit ist dann einfach Umfang der Erdbahn geteilt durch ein Jahr oder in überschaubareren Einheiten

    (2⋅π⋅1.5⋅108  km)/(π⋅107  s) = 3⋅101  km ⁄ s

    Das “etwas weniger“ als diese 30  km ⁄ s kommt daher, dass die volle Amplitude dieser Bewegung nur bei Sternen in der Ekliptik, also der Abbildung der Erdbahn am Himmel, zu sehen ist. Geht mensch von dieser gedachten Linie weg, wird die Geschwindigkeitskomponente in Richtung des Sterns kleiner (nämlich mit dem Kosinus der ekliptikalen Breite), bis am ekliptikalen Pol gar kein Reflex der Erdbewegung mehr zu sehen ist[5].

    Akrab nun steht in einem Tierkreiszeichen und von daher quasi per definitionem nahe an der Ekliptik. Auch der Orion (gleich südlich vom Stier) ist nicht weit von ihr entfernt – die ekliptikale Breite von Mintaka ist ungefähr 23.5 Grad. Deshalb taugt 30  km ⁄ s schon als Abschätzung für die Amplitude der Radialgeschwindigkeit der beiden Sterne aufgrund der Bewegung der Erde um die Sonne.

    Mit 10⋅3600 Sachen mit der Sonne durch die Strom

    Tatsächlich konnte Mary Lea Heger die Rotverschiebungen ihrer scharfen Linien und unscharfen Linien messen und kam auf folgendes Geschwindigkeiten (alles in km/s):

    Objekt β Sco δ Ori
    Natrium -9.2 17.6
    Kalzium -8.5 18.7
    RG des Systems -11.0 15.2
    Sonnenbewegung -10.7 18.1

    Die „Sonnenbewegung“ ist dabei das, was damals schon gemessen war als Bewegung der Sonne gegenüber der allgemeinen galaktischen Rotation von etwa 200  km ⁄ s – wie die damals darauf gekommen sind, ist eine ganz eigene Geschichte –, projiziert auf den Richtungsvektor zum jeweiligen Stern. Die „Radialgeschwindigkeit (RG) des Systems“ hingegen ist die Geschwindigkeit, mit der der Schwerpunkt der jeweiligen Sternsysteme auf uns zukommt oder sich von uns entfernt.

    Dass die Sonnenbewegung und Radialgeschwindigkeiten hier recht eng beieinander liegen, ist übrigens kein Zufall. Beide Sterne sind wie gesagt heiße B-Sterne, und diese sind[6] nach astronomischen Maßstäben sehr jung, gerade erst (also: vor ein paar oder ein paar zehn Millionen Jahren) aus Gaswolken geboren. Die Gaswolken wiederum laufen sehr brav mit der allgemeinen galaktischen Rotation mit. Sie können gar nicht anders, denn anders als die Sterne kollidieren Gaswolken in Galaxien durchaus miteinander, wenn eine versucht, quer zum Strom zu schwimmen. Wenn sie dann kollidieren, verlieren sie rasch ihre Eigengeschwindigkeiten (und produzieren sehr wahrscheinlich noch eifrig Sterne). Was übrig bleibt, läuft wieder brav mit dem Rest der Galaxis.

    Sterne hingegen können sich frei durch die Galaxis bewegen, weil sie praktisch nie mit anderen Sternen kollidieren – für einen Stern, kompakt wie er ist, ist die Galaxis quasi ein Vakuum, wenn auch eins mit Gavitationsfeld. Gerät ein Stern allerdings in die Nähe schwerer Dinge (wie etwa solchej Wolken), wird er ein wenig aus seiner Bahn gehoben, und das äußert sich am Ende in Eigengeschwindigkeiten wie der Sonnenbewegung von oben. Junge Sterne hatten noch keine Zeit, diese Sorte Schwung zu holen, und so ist die Radialgeschwindigkeit oben eigentlich nichts anderes als die Sonnenbewegung.

    Auch wenn Heger keine Fehlerschätzungen angibt, ist die Übereinstimmung der Geschwindigkeiten der scharfen Linien und der Sonnenbewegung umwerfend gut, jedenfalls, wenn mensch die Schwierigkeiten der in diese Tabelle eingehenden Messungen bedenkt. Tatsächlich gibt die Wikipedia für die Radialgeschwindigkeit des Gesamtsystems Akrab  − 1±2  km ⁄ s gegen Hegers -11; in einem System aus sechs Sternen muss das noch nicht mal auf ein Problem bei Heger hindeuten, aber ganz ehrlich: Ich wäre sehr verwundert, wenn sie besser als auf, sagen wir, 5 km/s hätte messen können.

    Hegers Fazit

    Entsprechend war Heger in ihren Schlussfolgerungen vorsichtig:

    The agreement of the velocity obtained from the D lines …
  • Wird Bolsonaro Schuld sein an der nächsten großen Seuche?

    Diagramm mit Einflussfaktoren wie Wald-Dichte, Artenvielfalt, Stadtnähe und ihren Korrelationen untereinander und mit der Inzidenz von Zoonosen

    Wie verschiedene Metriken die Häufigkeit von Zoonosen beeinflussen: Abbildung zwei aus doi:10.1126/sciadv.abo5774. CC-BY-NC Winck et al.

    Auch wenn (oder gerade weil) in China ein SARS-Erreger schon mal aus enem Labor entkommen ist, glaube ich ja immer noch ziemlich fest daran, dass SARS-2 aus (zu) engem Kontakt von Menschen und Wildtieren entstanden ist. Wo es viele Tiere gibt, sind solche Krankheiten mit tierischer Beteiligung, Zoonosen, Regel eher als Ausnahme, und wo es viele verschiedene Tiere gibt, ist entsprechend mit vielen Überraschungen zu rechnen. So erscheint Brasilien als ideales Land, um quantitative Schätzungen zu bekommen zur Frage, wie insbesondere neuartige Krankheitserreger Artgrenzen überwinden können und was dann passiert.

    Das war das Projekt von Gisele R. Winck und Ciclilia Andreazzi vom Institiuto Oswaldo Cruz in Rio de Janeiro sowie KollegInnen von verschiedenen anderen brasilianischen Instituten, über das sie in „Socioecological vulnerability and the risk of zoonotic disease emergence in Brazil”, Science Advances 8 (2022), doi:10.1126/sciadv.abo5774, berichten – und auch gleich anmerken, dass Brasilien vielleicht doch kein ganz ideales Land ist, ist doch ein Großteil der derzeit in Brasilien grassierenden Zoonosen gar nicht in Amerika entstanden: Malaria, Dengue, Zika oder Gelbfieber kommen alle aus der alten Welt.

    Aber es gibt auch Beispiele für Zoonosen aus Südamerika, so etwa Chagas, ein von Trypanosomen – das sind einzellige Eukaryoten, also in gewissem Sinn einfache Tiere – hervorgerufenes Syndrom, das zu tödlichen Verdauungsstörungen führen kann, sich aber nur gemeinsam mit relativ memmigen Wanzen weiterverbreiten kann.

    Pfadanalyse

    Winck et al versuchen, der Frage nach künftigen Zoonose-Risiken mit einer Pfadanalyse auf den Grund zu gehen, einer statistischen Methode zur Aufklärung von Netzwerken einander beeinflussender Größen, von der der ich, soweit ich mich erinnere, zuvor noch nie gehört habe. Diese Lücke dürfte wohl damit zusammenhängen, dass die Methode in der Biologie entwickelt wurde (ihr Erfinder war Populationsgenetiker) und im Bereich von Physik und Astronomie wenige etwas damit anzufangen wussten.

    Eine entsprechende ADS-Anfrage (und das ADS hat eigentlich alles, was es in der Astronomie gibt) liefert dann auch vor allem Kram aus Randbereichen, darunter eine Studie in den Geophysical Review Letters, die fast in das aktuelle Thema passt: „Urban Vegetation Slows Down the Spread of Coronavirus Disease (COVID-19) in the United States“. Da allerdings wette ich ungelesen, dass von dem Effekt wenig übrigbleibt, wenn mensch die Korrelation zwischen graueren Vierteln und Armut auf der einen und SARS-2 und Armut auf der anderen Seite rausrechnet.

    Wie dem auch sei: Bei einer Pfadanalyse braucht es eine Zielgröße (also das, dessen Verhalten erklärt werden soll) und „Kausalfaktoren“ (also Größen, das Verhalten der Zielgröße erklären sollen). Die Zielgröße im Paper ist die Fallzahl von einigen Zoonosen[1] in den verschiedenen brasilianischen Bundesstaaten.

    Das grobe Modell, das der Arbeit zugrundeliegt, ist nun, dass enge Kontakte zwischen Menschen und Tieren, gerade wenn wie beim Verzehr von Bushmeat Blut im Spiel ist, die Zoonosen nach oben treibt. Es könnte auch indirekte Effekte geben, wenn es etwa Wildtieren schlechter geht, weil die Menschen gerade ihr Habitat zerstören, und daher Pathogene, die vorher selten und harmlos waren, genau dann durch die geschwächte Population rauschen, wenn Menschen und Wildtiere während der Rodungen und vor der Etablierung funktionierender Landwirtschaft besonders wahrscheinlich interagieren. Mit solchen Motivationen betrachtet die Arbeit folgende Kausalfaktoren (vgl. Tabelle 1 im Paper):

    • Exposition gegenüber Zoonosen (Wie viele wilde Tiere gibt es? Wie gut ist die medizinische Versorgung der Nutztiere? Wie viel Boden ist (artenarme und in der Hinsicht wahrscheinlich eher sichere) landwirtschaftliche Fläche? Wie ist der Anteil der im Wesentlichen unberührten Fläche? Wie schnell gehen unberührte Flächen verloren?)
    • Empfindlichkeit gegenüber Zoonosen (Bäume in Städten als Proxy für die Art der Besiedlung; Kontakt mit Hausmüll als Proxy für die Dichte des Kontakts zu Vektoren wie Ratten und Mücken; Zustand der Abwassererfassung; Bruttoinlandsprodukt pro EinwohnerIn als Proxy für die Armutsrate)
    • Resilienz (Wie viel Gesundheitspersonal gibt es? In wie vielen Einrichtungen? Wie weit ist es in die nächste Stadt, in der spezialisierte Kliniken verfügbar sein werden?)

    Ich muss an der Stelle ein wenig die Nase rümpfen, denn an sich kann dieses Modell nicht so richtig das, was die AutorInnen zu versprechen scheinen: Aufklären, was mensch tun könnte, um neue Zoonosen im Zaum zu halten. Die Zielgröße ist ja die Ausbreitung längst an den Menschen gewöhnter Erreger. Zudem wird die Mehrheit der untersuchten Zoonosen von einzelligen Tieren verursacht und nicht von Viren oder Bakterien, deren pandemisches Potenzial ich weit höher einschätze, zumal, wenn sie anders als die meisten Einzeller keine Zwischenwirte brauchen.

    Aber seis drum: Ganz unplausibel ist ja nicht, dass, wo bekannte Erreger besonders intensiv zwischen Menschen und Tieren ausgetauscht werden, sich auch unbekannte Erreger allmählich an Menschen gewöhnen können.

    BIP ist wurst

    Angesichts des betrachteten Reichtums an Faktoren ist schon erstaunlich, dass die Mathematik der Pfadanalyse mit den Daten von Winck et al das Bild am Anfang des Posts ergibt (nicht signifikante Kausalfaktoren sind dort nicht gezeigt), also etwa das Bruttoinlandsprodukt pro EinwohnerIn keinen signifikanten Einfluss auf die Zoonoserate hat (was aus meiner Sicht nur heißen kann, dass es in Brasilien kein nützliches Maß für den Wohlstand mehr ist). In den Worten des Artikels:

    Zoonotic epidemic risks, as inferred from the observed mean number of ZD cases, are positively associated with vegetation loss (path analysis coefficient = 0.30), mammalian richness (0.47), and remoteness (0.72) and negatively related to urban afforestation (−0.33) and vegetation cover (−0.82).

    Also: Bäume in der Stadt (hätte ich erstmal nicht als einen wichtigen Faktor geraten, aber siehe das oben erwähnte GeoRL-Paper) und vor allem intakte Wildnis sind gut gegen Zoonosen. Eine hohe Dichte wilder Säugetiere, mit denen Menschen im Zuge von Entwaldung eifrig interagieren und, noch stärker, die Entfernung von größeren menschlichen Ansiedlungen befördern demgegegenüber solche Krankheiten.

    Besonders stark ist dabei der Effekt der Bewaldung (bzw. Besteppung oder Bemoorung, wenn das die lokal vorherrschenden Ökosysteme sind): Sie fördert zwar sehr stark die Artenvielfalt von Säugetieren, doch hemmt sie dennoch Zoonosen insgesamt. Das passt erstaunlich gut zur Beobachtung von Jared Diamond in seinem lesenswerten Buch „Collapse: How societies choose to fail or succeed“[2], dass Entwaldung wohl der allerwichtigste Faktor für den Zusammenbruch von Zivilisationen ist.

    Und dann die Schurken

    Ich bin auf das Paper wie üblich über einen Beitrag in der DLF-Sendung Forschung aktuell gegekommen, in dem Fall vom 30.6. Darin wurde vor allem abgehoben auf den Schluss der AutorInnen, die aktuelle Herrschaft in Brasilien beeinflusse die Kausalfaktoren mit ihrer marktradikalen, reaktionären und teils auch anderweitig dummen Politik stark in Richtung Zoonose:

    Ein weiterer wichtiger Aspekt, dessen Relevanz sich gerade erst erwiesen hat, ist die Empfindlichkeit gegenüber fehlgeleiteten politischen Maßnahmen, wie sie von den augenblicklichen Regierungen veranlasst wurden.

    Besonders gut hat mir dabei gefallen die Rede von einer „increasing socioecological degradation“, also einem zunehmenden sozio-ökologischen Verfall, zumal ich dabei an meine eigene brasilianische Geschichte denken musste.

    Foto eines Schildes aus Portugiesisch: Vorsicht, Waldtiere auf der Straße

    Im Parco de Tijuca auf dem Stadtgebiet von Rio de Janeiro: Warnung vor den „Waldtieren“, die auf der Straße rumlaufen. Tatsächlich turnen Affen sogar durch die Telefonleitungen, die zum Nationalobservatorium führen.

    Im Jahr 2014 habe ich rund eine Woche am Nationalobservatorium in Rio de Janeiro gearbeitet. Ich denke, es ist nicht verkehrt, so etwa in dieser Zeit den Höhepunkt der Wirkungen der Sozialpolitik von Lula da Silva zu verorten, der speziell mit seiner bolsa familia Dutzenden Millionen Menschen ein halbwegs menschenwürdiges Leben ermöglicht hat.

    Das hatte sehr profunde Konsequenzen auch für Menschen aus der Mittelschicht. Mein Gastgeber etwa erzählte, er sei vor Lulas Sozialpolitik „Opfer ungefähr jedes Verbrechens gewesen, das es gibt“, und das sei eine recht typische Erfahrung der Cariocas gewesen. Demgegenüber sei in den vieleicht fünf Jahren vor meinem Besuch eigentlich nichts mehr in der Richtung passiert. Ein weiterer Kollege ergänzte, er sei in dieser Zeit nur einmal ausgeraubt worden, und zwar mit chirurgischer Präzision (seine Worte), als er in den frühen Morgenstunden schon ziemlich beschickert unterwegs gewesen sei und die Räuber die Nettigkeit hatten, ihm seinen Geldbeutel wieder zurückzugeben, zwar ohne Bargeld, aber mit allem Plastikwahnsinn, dessen Wiederbeschaffung wirklich viel Stress gewesen wäre.

    Diese Zeiten sind lange vorbei. Nach dem (rückblickend ist diese Charakterisierung wohl nicht zu bestreiten) Putsch gegen Dilma ging die Politik zurück zur Umverteilung von unten nach oben, mit den erwartbaren Konsequenzen für das Leben in einer Stadt wie Rio – und den weniger offensichlichen Konsequenzen für das Heranbrüten der nächsten großen zoonotischen Pandemie.

    Ich frage mich ja bei solchen Betrachtungen immer, wie Leute wie Bolsonaro eigentlich ruhig schlafen können. Aber dann: Die Frage stellt sich ja ganz analog für Scholz, Steinmeier, für Fischer und Schröder, die mit Hartz IV oder der versuchten Rentenprivatisierung ganz ähnliche Dinge, wenn auch vielleicht auf kleinerer Flamme, angerichtet haben. Und ich vermute, ich habe den Kern der Antwort schon berechnet: Allein der Umstand, dass diese Menschen Macht haben, macht es sehr wahrscheinlich, dass sie über erhebliche moralische Flexibilität verfügen.

    [1]Im einzelnen Bilharziose, Leishmaniose (innere und Haut-; wird im Rahmen des Klimawandels auch in der BRD häufiger), Leptospirose (letzter großer Ausbruch in der …
  • Der Markov-Preis für die ungewöhnlichste Wortfolge

    Ich bin kein besonderer Freund der Triggerwarnung an sich, aber hier warne ich mal: Es geht um Rassismus, schreckliche Gewalt (wenn das für euch einen Unterschied macht: obendrein gegen Kinder) und Religion. Eigentlich ist das alles viel zu ernst für einen Spaßpreis.

    Aber es hilft nichts: Der Markov-Preis für die ungewöhnlichste Wortfolge[1] geht heute an den Deutschlandfunk für den Hintergrund Politik vom 2. Juli, dessen Thema der Sender wie folgt umschreibt:

    Tausende indigene Kinder wurden zwischen 1870 und 1996 in Kanada von ihren Familien getrennt und in Internaten untergebracht. Oft wurden sie dort sexuell missbraucht, viele starben. Die Aufarbeitung dieses Kapitels der kanadischen Geschichte hat erst begonnen – und wird die Gesellschaft noch lange beschäftigen.

    Darin heißt es bei Minute 12:00: „Die Nonnen hatten alle Lederpeitschen.“ Nennt mich naiv im Hinblick auf die Realität des Christentums, aber: jedenfalls außerhalb der engeren BDSM-Szene ist das schon ein Satz, dem eine durchschnittliche künstliche Intelligenz eine eher geringe Wahrscheinlichkeit zuordnen würde. Der Neugier halber habe ich kurz meinen Müllbrowser angeworfen (in dem darf liberal Javascript laufen), um zu sehen, was Google dazu einfällt:

    Google-Suchfeld mit "Die Nonnen hatten alle" und vorgeschlagener Ergänzung "folgen"

    Bei näherer Überlegung muss ich die Preisvergabe allerdings relativieren, denn wenn ich (erneut) an Edgar Allen Poes Kurzgeschichte Die Grube und das Pendel denke, erscheint die prämierte Wortfolge und auch ihre BDSM-Konnotation gar nicht mehr so abwegig.

    Eine weitere Verbindung zu jüngeren Themen aus diesem Blog fand ich bei Minute 10:20. In der Übersetzung des Deutschlandfunks:

    Sie kamen mit diesen Lastwagen, mit denen sonst Vieh transportiert wird. Damit haben sie uns abgeholt…

    …nämlich in die besagten residential schools.

    Ich glaube, es ist kein Zufall, dass da Fahrzeuge eingesetzt wurden, die normalerweise Schlachttiere bewegen. Gegen Ende meiner Überlegungen zu Königinnenkämpfen neulich hatte ich schon darauf hingewiesen, dass die Charakterisierung von Menschen als lästige (oder im vorliegenden Fall zu tötende) Tiere ein „konstantes Feature so gut wie aller Kriege und anderer Massenmorde der Geschichte“ ist.

    Ganz gewiss hat es der Transport der Kinder in Schlachtvieh-Wagen den im Apparat beschäftigten Menschen erheblich leichter gemacht, so unmenschlich zu handeln. Und ja, das ist sowohl ein Argument für die Erhaltung der Empathie mit Schlachtvieh als auch ein Argument gegen den Transport von Menschen in Viehtranportern[2].

    [1]Benannt ist der Preis nach Andrei Andrejewitsch Markow in seiner in Fachkreisen üblicheren englischen Umschreibung (sich selbst wird er wohl vor allem Марков geschrieben haben). Markov-Ketten waren bis zum Durchmarsch der neuronalen Netze das Mittel der Wahl zur statistischen Modellierung sprachlicher Äußerungen, also letztlich zur Beantwortung der Frage, wie wahrscheinlich es ist, kurz nach dem Token „Nonne“ ein Token wie „Hostie“, „Backschaufel“, „Gesangbuch“, „Rohrstock“ oder eben „Lederpeitsche“ zu finden.
    [2]Auch wenn ich irgendwelche Nazigeschichten hier lieber raushalten würde (denn da ist nochmal was ganz anderes passiert), muss ich, wo ich schon grob das Thema habe, noch anmerken: Ich bin überzeugt, dass Adolf Eichmann nicht nur aus Sachzwang Viehwaggons gewählt hat, um all die Menschen in die NS-Vernichtungslager verschleppen zu lassen.
  • Libellen aufs Kreuz gelegt

    Eine Königslibelle sitzt senkrecht an einem Stück Holz; seitlich hängt eine leere Hülle einer Libellenlarve.

    Diese Libelle – ausweislich der leeren Larvenhülle halbrechts unten wahrscheinlich gerade erst geschlüpft – ist hoffentlich Zeit ihres Lebens (ein paar Wochen im Sommer 2020) mit sehenden Augen in der Gegend vom Weißen Stein herumgeflogen.

    Als ich in den Kurzmeldungen in Forschung aktuell vom 16.5. (ab Minute 1:50) davon hörte, wie Leute Libellen auf den Rücken gedreht und dann fallen gelassen haben, habe ich unmittelbar Lausbuben assoziiert, die strampelnden Käfern zusehen. Das hörte sich nach einer vergleichsweise eher gutgelaunten Angelegenheit für meine fiktionale Ethikkommission an. Jetzt, wo ich die zugrundeliegende Arbeit, „Recovery mechanisms in the dragonfly righting reflex“, Science 376 (2022), S. 754, doi:10.1126/science.abg0946, gelesen habe, muss ich das mit der guten Laune etwas relativieren.

    Zunächst beeindruckt dabei der interdisziplinäre Ansatz. Hauptautorin ist Jane Wang, Physikerin von der Cornell University (kein Wunder also, dass im Paper eine Differentialgleichung gelöst wird), mitgeholfen haben der Luftfahrtingenieur James Melfi (auch von Cornell; kein Wunder, dass rechts und links Euler-Winkel gemessen werden) und der Neurobiologe Anthony Leonardo, der am Janelia Resarch Campus in Virgina arbeitet, augenscheinlich eine Biomed-Edeleinrichtung im Umland von Washington DC.

    Zusammen haben sie mit Hochgeschwindingkeitskameras eine Variante des Schwarzweiß-Klassikers „Wie eine Katze auf den Füßen landet[1] aufgenommen, dieses Mal eben mit Libellen. Dabei haben sie den Libellen einen Magneten auf den Bauch geklebt, sie mit diesem in Rückenlage an einem Elektromagneten festgeklemmt, gewartet, bis sich die Tiere beruhigt hatten und dann den Strom des Elektromagneten abgeschaltet, so dass die Libellen (im physikalischen Sinn) frei fielen.

    Libellen rollen präzise nach rechts

    Wenn das exakt so gemacht war, war offenbar sehr vorhersehbar, was die Libellen taten. Wang et al geben an, es sei ganz entscheidend, dass die Füße der Tiere in der Luft hängen, weil sonst einerseits eigene Reflexe von den Beinen ausgelöst würden und andererseits die Libellen selbst starten wollen könnten: „voluntary take-off via leg-kicks introduces a large variability“.

    Bis dahin regt sich meine Empathie nur wenig. Zwar schätzen es die Libellen ganz sicher nicht, auf diese Weise festgehalten zu werden. Aber andererseits ist das alles ganz gut gemacht, und die Ergebnisse der Studie sind soweit ganz überzeugend und beeindruckend. Die Tiere drehen sich konsistent um ihre Längsachse, um wieder auf den Bauch zu kommen, fangen mit der Drehung nach gerade mal 100 ms an (als Reaktionszeit für Menschen gelten so etwa 300 ms; aber ok, wir haben auch viel längere Nerven) und sind dann nach gut zwei Zehntelsekunden oder vier Flügelschlägen fertig, also bevor unsereins überhaupt beschlossen hätte, was zu tun ist.

    Für mich unerwarteterweise findet die Drehung sehr kontrolliert und offenbar vorgeplant statt. Ich lese das aus der Tatsache, dass die Winkelgeschwindigkeit der Drehung zwischen 170 Grad (fast auf dem Rücken) und vielleicht 40 Grad (schon recht gut ausgerichtet) praktisch konstant ist. Abbildung 2 B des Papers fand ich in der Hinsicht wirklich erstaunlich: nicht vergessen, das Tier bewegt derweil ja seine Flügel.

    Die AutorInnen betrachten weiter die Stellung der beiden Flügelpaare im Detail, um herauszubekommen, wie genau die Libellen die präzise Drehung hinbekommen. Das ist bestimmt sehr aufregend, wenn mensch irgendwas von Flugzeugbau versteht, aber weil ich das nicht tue, hat mich das weniger begeistert. Außerdem war ich zu dem Zeitpunkt bereits etwas voreingenommen, nachdem ich erfahren hatte, dass, um die Flügelstellung mit den Analyseprogrammen, die Wang et al hatten, rekonstruieren zu können, die Libellen mit Nagellack sechs Punkte auf die Flügel gemalt bekamen.

    Die Erzählung wird düsterer

    Für die Libellen noch unangenehmer dürfte, so denke ich mir, das kleines Y-förmige Plastikgestell gewesen sein, das ihnen die ExperimentatorInnen auf den Thorax geklebt haben. Sie sagen, es sei nötig, um das Bezugssystem der fallenden Libelle bestimmen zu können. Und dann gibts noch den Magneten, der die Libelle vor dem Abwurf hält: alles zusammen wiegt ungefähr 25 mg, bei einer Libelle, die selbst gerade mal ein Viertelgramm wiegt. Andererseits, und das will ich gerne glauben, nehmen heranwachsende Libellen bis zu 50 mg am Tag zu (sie haben ja auch nur ein paar Wochen Zeit als Imago), so dass sie Massenänderungen dieser Art vielleicht wirklich nicht belasten.

    Tote Königslibelle hängt in der Luft an einem Spinnfaden

    Wie es eine Spinne hinbekommen hat, diese Libelle zu erlegen, weiß nicht nicht. Aber immerhin sind ihre Augen und Ocellen nicht zugepinselt.

    Wirklich geregt hat sich mein Mitleid – unter der Maßgabe der letzten Absätze der Geschichte mit den Wespen – aber, als es um die Frage ging, woher Libellen eigentlich ihre Orientierung kennen, woher sie also wissen, ob sie gerade auf dem Rücken fliegen oder vielleicht auf der Seite.

    Die Arbeitshypothese von Wang et al war offenbar, dass das im Wesentlichen der Sehsinn ist. Moment: „Der Sehsinn“? Nein: „Die Sehsinne“. Libellen haben nämlich gleich zwei davon, einerseits ihre Facettenaugen, dazu jedoch noch einfache, nicht abbildende Sensoren, die Ocellen. Ich sags ganz ehrlich: Ich habe das Paper vor allem gelesen, weil ich wissen wollte, wie sie den Libellen die Augen und Ocellen verbunden haben.

    Da ich das jetzt weiß, kenne ich die Stelle, an der ich als Ethikkommission nein gesagt hätte, denn die Sinne der Tiere wurden mit einem bestimmt nicht mehr entfernbarem Pamp aus schwarzer Farbe vermischt mit UV-blockierendem Kleber zugekleistert. Die Versuchsreihe mit geblendeten Libellen haben Wang und ein lediglich in den Acknowledgements erwähnter Leif Ristroph unabhängig von der ersten durchgeführt, dramatischerweise im Courant-Institut, grob als „Angewandte Mathe“ zu klassifizieren, unangenehm nah an dem, wofür ich bezahlt werde.

    „Drei kamen durch“ ist kein Rezept für gute Wissenschaft

    Diese beiden haben also vierzehn Libellen in New York City gefangen und elf weitere von KollegInnen bekommen. Und jetzt (aus dem Supplementary PDF):

    Beim Bemalen der Augen und Ocellen ist es wichtig, einen feinen Pinsel zu verwenden, damit keine Farbe auf den Hals oder Mund [des Tieres] tropft.

    Aus dieser Sammlung von Libellen haben drei die vollständigen Experimente überlebt, zwei der Gattung Perithemis tenera, eine der Gattung Libellula lydia. Dies umfasste die Tests mit normalem Sehsinn und mit blockierten Sehsinnen. Alle waren präzise [? Original: rigorous] Flieger. Mit funktionierendem Sehsinn rollten sie nach rechts. Sie überlebten auch mindestens zwei Kältephasen im Kühlschrank, eine vor dem Ankleben des Magnets, eine weitere vor dem Bemalen der Augen.

    Nennt mich angesichts dessen, was wir täglich 108-fach mit Hühnern, Schweinen, Rindern und Schafen machen, sentimental, aber wenn ein Protokoll von 25 Tieren 22 tötet, bevor das Experiment fertig ist, ist es nicht nur roh, sondern fast sicher auch Mist. Es ist praktisch unvorstellbar, dass bei so einer Selektion nicht dramatische Auswahleffekte auftreten, die jedes Ergebnis mit Fragezeichen in 72 pt Extra Bold, blinkend und rot, versehen.

    In diesem Fall war das Ergebnis übrigens, dass die Libellen ohne Ocelli etwa 30% später mit dem Drehen anfingen und anschließend nicht mehr ins Gleichgewicht kamen, bevor die Kamera voll war (ich hätte es trotzdem nett gefunden, wenn Wang wenigstens anekdotisch berichten würde, ob sie es am Schluss geschafft haben). Mit zugepinselten Facettenaugen sind die Libellen ins Gleichgewicht gekommen, wenn auch langsamer und weniger kontrolliert. Waren Ocellen und Facettenaugen blockiert, sind die Libellen häufig einfach nur runtergefallen „like leaves“.

    Was aber, wenn – ja vielleicht im Einzelfall doch existierende – nichtoptische Gleichgewichtsorgane Libellen anfälliger dafür macht, die Torturen des Experiments nicht zu überleben? Was, wenn auch die überlebenden Libellen anfangs ein nichtoptisches Gleichgewichtsorgan hatten, das aber durchs Einfrieren oder eine andere überwiegend tödliche Prozedur kaputt gegangen ist?

    Hätte ich das Vorhaben ethisch begutachten müssen, wäre ich vermutlich eingestiegen auf Abschnitt 2.3 der ergänzenden Materialien (wenn etwas in der Art im Antrag gewesen wäre), in dem es heißt, „Dragonflies perform mid-air righting maneuvers often during their prey-capture maneuvers”.

    Also… wenn die solche Manöver auch freiwillig fliegen, wäre es dann nicht besser gewesen, sie in solchen Situationen zu filmen? Klar, das wäre dann wahrscheinlich fies den Ködern gegenüber, die mensch ziemlich sicher fest positionieren (und damit ihrerseits festkleben) müsste, damit das mit dem Hochgeschwindigkeitsfilmen klappt. Aber trotzdem: Für mich wäre das das mildere Mittel gewesen.

    Außerdem hätten die Köder ja Mücken sein können.

    Nachtrag (2022-07-11)

    Meine Sorgen über ethisch grenzwertige bis unhaltbare Experimente mit Insekten liegen offenbar im wissenschaftlichen Trend. Am 10. Juli haben die Science Alerts einen Beitrag über die Schmerzwahrnehmung von Insekten veröffentlicht, der einige weitere beunruhigende Experimente anführt (etwa zu Phantomschmerzen bei Drosophilen). Immer mehr sieht es aber so aus, als fände bei vielen Insekten durchaus Schmerzverarbeitung statt, auch wenn diese im Detail etwas anders funktioniert als bei uns.

    [1]

    Das Genre „Wir drehen Tiere auf den Rücken und lassen sie fallen“ ist ausweislich des Papers beeindruckend fruchtbar. Zumindest heißt es …

  • Darf mensch Königinnen aufeinander hetzen?

    Nicht in meiner DLF-Lieblingssendung Forschung aktuell, sondern im Freistil vom 5.6.2022 bin ich auf den nächsten Fall meiner kleinen Sammlung von Fragen an die Ethikkommission bei Tierversuchen gestoßen. Im Groben: Ist es ok, Tiere bewusst und absichtlich gegeneinander kämpfen zu lassen? Und gibt es im Hinblick auf diese Frage Unterschiede zwischen Stieren und Regenwürmern?

    Aus meiner Sicht nicht weit von der Mitte der Wurm-Rind-Skala entfernt befinden sich die Papierwespen, für die die deutsche Wikipedia enttäuschenderweise auf die ordinäre Wespenseite weiterleitet. Speziell für die Stars dieses Posts, Polistes fuscatus – die biologische Normenklatur könnte mich der Physik abspenstig machen – gibt es immerhin einen Link auf der Feldwespen-Seite, doch hat sich noch niemand gefunden, der/die die zugehörige Seite angefangen hätte.

    Portraits von vier Wespen

    Fast noch spannender als die Frage, ob Wespen die Gesichtszeichnungen von Individuen auseinanderhalten können, finde ich ja die Frage, ob sie auch mal gut gelaunt aussehen können. Bildrechte: doi:10.1016/j.cub.2008.07.032 (bearbeitet).

    Bei Freistil klang es nun so, als habe jemand jeweils zwei Königinnen dieser Wespen miteinander bekannt gemacht; dass sie sich erkennen können, und zwar ziemlich sicher am Gesicht, ist offenbar spätestens seit den Arbeiten von Michael Sheehan und Elizabeth Tibbetts wohlbekannt. Unter den einschlägigen Artikeln, die ab den 2000er Jahren an der Uni von Michigan in Ann Arbor entstanden sind, ist viel zitiert „Specialized Face Learning Is Associated with Individual Recognition in Paper Wasps“ (viel zitiert vermutlich weil: Science 334 (2011), 1272, doi:10.1126/science.1211334). Das darin beschriebene Experiment ist erkennbar nicht das, von dem im Freistil die Rede war, wirft aber selbst eine ethische Frage auf:

    Darf mensch Königinnen elektroschocken?

    Sheehan und Tibbet gaben den Wespen nämlich eine T-förmige Flugzone, die überall Elektroschocks verabreichte, bis auf eine Stelle, die dann mit einem von einem paar von Bildern markiert war. Mithin war der Reiz, den die Leute zum Training der Wespen nutzten, die Abwesenheit von Elektroschocks, wenn es die Wespen richtig machten. Hm. Hrrmmmmmmmm! Wäre das nicht auch etwas freundlicher gegangen?

    Ausgangspunkt der Arbeit war die Vermutung, dass fuscatus-Wespen, die staatenbildend sind und deren Königinnen sich vor Gründung ihres Staates mit einem ganzen Haufen anderer Wespen raufen, zwei verschiedene Wespengesichter besser auseinanderhalten können („habe ich gegen die schon mal verloren?“) als metricus-Wespen, die meist allein leben und sich wenig prügeln. Um ein wenig sicherer zu sein bei der Frage, was da eigentlich beobachtet wird, haben Sheehan und Tibbetts auch Versuchstiere („healthy wild-caught adult female[s]“) auf Raupen (die die Wespen gerne essen), geometrische Zeichen (Kreuze, Dreiecke und sowas) und Wespenköpfe ohne Antennen trainiert.

    Das Ergebnis: Wespengesichter mit Antennen haben ausgelernte fuscatus-Wespen in 80% der Fälle vorm Elektroschock bewahrt (wobei der Nulleffekt 50% wäre), und sie haben die Gesichter schneller gelernt als die an sich viel einfacheren Zeichen. Waren die Antennen rausretuschiert, hat das Lernen länger gedauert, und bei 70% richtiger Wahl war Schluss.

    Wie viel Ausdauer braucht es für 10'000 Versuchsläufe?

    Und von wegen „Erst kommt das Fressen, dann kommt die Moral“: Wenn der Hinweis aus verschiedenen Raupensorten bestand, haben die Wespen nur in 60% der Fälle die trainierte Raupe gefunden, also fast nicht häufiger als durch Zufall zu erwarten. Und etwa genauso gut wie die einsiedlerischen metricus-Wespen, die mit den Gesichtern ihrer Artgenossinnen gar nichts anfangen konnten.

    Fleißbienchen am Rande: grob überschlagen müssen Sheehan und Tebitt die Wespen gegen 10'000 Mal haben fliegen lassen. Ich mag mir gar nicht vorstellen, wie viel Ausdauer es dafür gebraucht haben mag. Auf beiden Seiten. Aufgrund vorheriger Interaktionen mit Wespen vermute ich jedoch fast, dass für diese der repetetive Charakter der Unternehmung weniger problematisch gewesen sein dürfte. Ach ja, und ich würde gerne wissen, wie viele Stiche sich die beiden Menschen während der Arbeiten eingefangen haben.

    Wie ist es mit Kämpfen?

    Sheehan, der inzwischen an die Cornell-Universität in New York gewechselt ist, hatte schon zuvor (und hat noch weiter) mit den Wespen gearbeitet und berichtet darüber zum Beispiel in Current Biology 18 (2008), Nr. 18, R851 (doi:10.1016/j.cub.2008.07.032), „Robust long-term social memories in a paper wasp“. Für diese Studie haben die Leute ebenfalls einen Haufen fuscatus-Papierwespen gefangen, dieses Mal aber gezielt Begegnungen herbeigeführt. Dabei haben sie an Tag 0, 6 und 8 jeweils Wespen zusammengeführt, die sich nicht kannten, am siebten Tag dagegen nochmal die von Tag 0 vorbeigeschickt. Das fand ich schon mal ein recht cleveres Design: Wenn sich die Rauflustigkeit der Wespen generell geändert hätte, wäre das durch die Kontrollen an den Tagen sechs und acht aufgefallen.

    Aber das führt auf die Eingangsfrage: Ist diese Sorte Experiment nicht ziemlich eng verwandt mit Hahnenkämpfen, bei denen zwei Tiere, die, wären sie nicht in menschlicher Gefangenschaft, vermutlich friedlich vor sich hingelebt hätten, künstlich dazu gebracht werden, aufeinander einzuhacken? Wäre ich in einer Ethikkommission, müsste ich zumindest mal etwas nachdenken, ob ich Königinnenkämpfe eigentlich absegnen möchte, auch wenn es hier nicht um das Gaudium einer blutrünstigen Menge, sondern um die Förderung der Wissenschaft geht.

    Unter Bekannten doppelt so viele Begegnungen ohne Gewalt

    Immerhin scheinen die Kämpfe der Wespen relativ zivilisiert abzulaufen. Zumindest berichten Sheehan et al nicht davon, dass die Begegnungen an Tag 7 mal hätten ausfallen müssen, weil die Besucherinnen von Tag 0 inzwischen vielleicht totgestochen worden wären (Disclaimer: ich habe die Zusatzdaten nicht auf solche Vorkommnisse hin durchgesehen, denn ich war ja eigentlich auf der Suche nach etwas anderem).

    Das Ergebnis ist wieder recht beeindruckend; kannte sich ein Wespenpaar, gingen offenbar doppelt so viele Begegnungen ohne Gewalt aus wie andernfalls.

    Meine eingestandenermaßen oberflächliche Literaturrecherche hat aber leider kein Paper geliefert, bei dem jemand Wespen geschminkt hätte; ich hatte ich die Geschichte aus dem Freistil nämlich so verstanden, dass jemand zwei Wespen bekannt gemacht hat und dann das Gesicht einer der beiden verändert, um zu prüfen, ob es wirklich das ist, an das sich die Wespen erinnern und nicht etwa, sagen wir, der Geruch oder die Melodie des Summens. Auch wenn das Elektroschockexperiment das sehr nahelegt: Ich finde es völlig plausibel, so ein Schminkexperiment zu machen. Wer die dazugehörige Studie findet: das Antwortfomular gehört völlig euch.

    Empathietraining

    Wer die ganze Sendung hört, dürfte auf ein anderes ethisches Problem stoßen, eines, das mir, der ich nicht in einer Ethikkommission sitze, deutlich mehr Sorgen macht: Im O-Ton wird eingespielt, wie jemand eine Drosophile erst mit Wachs festklebt und dann immer weiter fesselt. „Drosophile“: Ihr merkt, ich habe rein emotional ein spezielles Verhaltnis zu Fruchtfliegen, weil ich in ihnen, die wie ich Obst nicht widerstehen können – je süßer, je besser – ganz entfernt Geistesverwandte sehe.

    Andererseits: Wenn ich den Kompostmüll leere, nehme ich, ehrlich gesagt, keine Rücksicht darauf, wie viele von ihnen ich dabei wohl zerquetsche. Die insgesamt vergleichbar menschenähnlichen Mücken und Zecken töte ich sogar gezielt, wenn ich kann. Und nun habe ich diesen Bericht gehört und musste mich sehr beherrschen, um mich nicht zu empören. Das mag ein wenig zu tun haben mit dem völlig überflüssigen Gag, Enrico Caruso durch das Drosophilenohr aufzunehmen, denn Folter[1] ist nochmal schlimmer, wenn irgendeine Sorte, ach ja, „Humor“ mitschwingt.

    Aber auch ohne das: Ist es verlogen, wenn ich mich über die Misshandlung von Lebewesen empöre, die ich andererseits ohne große Reue und ganz nebenbei – oder gar gezielt – töte?. Auf der anderen Seite will mensch, so glaube ich, diese Anflüge von Empathie auch nicht wirklich bekämpfen. Die Charakterisierung der Feinde als Ratten und Schmeißfliegen (der Namenspate des Münchner Flughafens, Franz Josef Strauß, war Meister dieses Genres), als Tiere also, mit denen Empathie zu haben wirklich schwerfällt, wenn sie sich erstmal ordentlich vermehrt haben, ist ein recht konstantes Feature so gut wie aller Kriege und anderer Massenmorde der Geschichte.

    Mit diesem Gedanken bin ich nach der Freistil-Sendung auf folgendes Fazit gekommen: Selbst wenn es nicht der Tiere selbst wegen geboten sein sollte, schon ganz speziezistische Humanität gebietet es, diese Sorte von Mitleid mit jeder Kreatur zu hegen und nicht zu kritisieren. Und vor den Feldzügen gegen die Nacktschnecken wenigstens noch ein wenig mit sich zu ringen.

    [1]Ja, ich behaupte, es ist Folter, wenn mensch so ein Lebewesen bei lebendigem Leibe immer weiter eingießt, bis es (nehme ich an) erstickt, weil die Tracheen alle dicht sind.
  • Zum Glück ist das nicht Hollywood

    Die ziemlich hörenswerte Miniserie über Pilze und Menschen in der Deutschlandfunk-Sendung Wissenschaft im Brennpunkt (Teil 1, Teil 2) endet mit folgenden Worten von (ich glaube) Oliver Kurzai von der Uni Würzburg:

    Deswegen müssen wir glaub ich nicht damit rechnen, dass wir in absehbarer Zeit tasächlich, ich sag mal, eine Killerpilz-Pandemie kriegen, die auch den normalen, gesunden Menschen bedroht.

    Wenn unsere Realität irgendeine Ähnlichkeit hat mit einem zünftigen Katastrophenfilm, wisst ihr, was als Nächstes passieren wird.

  • (Un)verstandene Infektionsdynamik

    Ich habe vorhin einen Beitrag zu den Wirkungen nicht-pharmazeutischer Maßnahmen gehört, der in der Deutschlandfunk-Sendung Forschung aktuell am dritten Juni lief. Darin hieß es:

    Vielleicht sind die vielen Einflussfaktoren ein Grund, warum auf diesem Gebiet überhaupt wenig geforscht wird. Die Bessi-Collaboration zur Erforschung sozialer, Umwelt- und Verhaltens-Pandemiemaßnahmen zählt aktuell nur 18 veröffentlichte Studien aus diesem Bereich, aber 974 zu Impfstoffen oder Medikamenten.

    Das hat mich daran erinnert, dass ich spätestens seit Oktober 2021 eine ziemlich grundsätzliche Lücke bei unserem Verständnis der Epidemiologie von SARS-2 gewittert habe, und zwar ganz unabhängig von meinen misslungenen Vorhersagen im letzten Herbst. Ich habe nämlich bis genau heute aufgrund von, Fanfare, Unabhängigkeitsargumenten für sehr unplausibel gehalten, dass sich die Varianten gegenseitig verdrängen. Lasst mich spoilern: Mein Instinkt, dass da was nicht stimmen kann, war falsch, Mensch soll einfach nie die Exponentialfunktion unterschätzen.

    Aber langsam. Zunächst habe mir die R-Wert-Schätzungen des RKI vorgenommen. Zur Erinnerung: Der R-Wert soll sagen, wie viele Leute einE InfizierteR zu einer bestimmten Zeit im Mittel ansteckt; ist er konstant größer als eins, wächst die Inzidenz exponentiell, ist er konstant kleiner als eins, schrumpft sie exponentiell.

    Ich möchte auf der Basis der R-Werte den Pandemieverlauf nacherzählen, um der Variantenverdrängung auf die Spur zu kommen. Dabei nutze dabei die Kurvenfarbe als Indikator für die geschätzte Inzidenz – beachtet, dass sowohl die Skalen auf dieser Hilfsachse als auch auf der Ordinate von Bild zu Bild drastisch verschieden sind.

    Plausibler Anfang

    Dabei habe ich mir nacheinander ein paar Phasen vorgenommen. Von März bis Juli 2020 konnte mich mir alles prima zusammenreimen:

    Kurve mit einem Peak von über drei, die dann Richtung eins abfällt.

    Fig 1: R-Werte der ersten Welle

    Die unkontrollierte Infektion lief anfangs mit dem geschätzten R0 (also: wie groß ist das R ganz ohne Maßnahmen und Immunität?) der Wuhan-Variante (im Winter etwas wie 3) los, dann griffen die Maßnahmen, und wie sie nacheinander so griffen, fiel auch der R-Wert.

    Ich war damals mit dieser Interpretation soweit glücklich, auch wenn Leute immer mal wieder an den Zeitskalen rumgemäkelt haben: Reagiert das nicht schon vor den Maßnahmen? Hätte das nicht schneller auf Schul- und Betriebsschließungen reagieren müssen? Zu letzterem Punkt zumindest ist einzuwenden, dass es einerseits zwei, drei Wochen gedauert hat, bis die Leute wirklich im Coronamodus waren. Andererseits sind für die Mehrzahl der Fälle auch nur Melde-, nicht aber Infektionszeitpunkte bekannt. Da diese ohne Weiteres um ein oder zwei Wochen auseinanderliegen können, wäre selbst eine scharfe Stufe in R in den RKI-Schätzungen weich ausgeschmiert; ein weiteres Beispiel übrigens für die Gefahren von Big Data.

    Ein merkwürdiger Balanceakt

    Gegen Ende des ersten Coronasommers kam mir aber schon komisch vor, wie sehr sich das effektive R immer ziemlich genau um die Eins herum hielt. Bei sowas Kitzligem wie einem Infektionsprozess, der davon lebt, dass sich immer mal wieder ein ganzer Haufen Leute ansteckt, ist es alles andere als einfach, diese Sorte von Gleichgewicht (es stecken sich in jeder Zeiteinheit ungefähr genauso viele Leute an wie gesund werden) zu halten – die Überdispersion der Wuhan-Variante soll was wie 0.1 gewesen sein, so dass vermutlich überhaupt nur ein oder zwei von zehn Infizierten zur Ausbreitung der Krankheit beitrugen (dann aber auch gleich richtig, also mit mehreren Angesteckten).

    Unter diesen Umständen einen R-Wert von um die eins zu haben, ist ein Balanceakt ganz ähnlich der Steuerung eines AKW (das zudem nicht mit der Überdispersion zu kämpfen hat): mach ein bisschen zu wenig und die Infektion stirbt rapide aus (der Reaktor wird kalt); mach ein bisschen zu viel und du bist gleich wieder bei enormen Zahlen (der Reaktor geht durch). Dennoch hat sich der R-Wert (abgesehen vom Tönnies-Zacken Mitte Juni, der ganz gut demonstriert, was ich mit „kitzlig“ meine) im Sommer doch recht gut rund um 1 bewegt:

    Kurve, die um Eins rumzittert

    Fig 2: R-Werte im Sommer 2022

    Was hat R so (relativ) fein geregelt? Sind die Leute in Zeiten ansteigender R-Werte wirklich vorsichtiger geworden? Und waren sie unvorsichtiger, wenn die R-Werte niedrig waren? Erschwerend im Hinblick auf so eine Regelung kamen zumindest im Juli und August nennenswert viele Infektionen nicht durch Reproduktion im Land zustande, sondern kamen mit Rückreisenden aus Gegenden mit höheren Inzidenzen. Wie das genau lief, ist aber wieder schwierig zu quantifizieren.

    Mein erstes kleines Rätsel wäre also, warum die Inzidenz im Sommer 2020 über ein paar Monate hinweg im Wesentlichen konstant war. Im Herbst 2020 schien mir das eher wie eine Anekdote, zumal es recht erwartbar weiterging:

    Kurve mit einigen Peaks

    Fig 3: R-Werte der zweiten und dritten Wellen

    Die hohen R-Werte im Oktober sind überaus zwanglos durch Schulen, Betriebe und ganz kurz auch Unis mit allenfalls lockeren Maßnahmen bei lausig werdendem Wetter zu erklären. Der Abfall zum November hin wäre dann der „Lockdown Light“. Wieder mag mensch sich fragen, warum der Abstieg schon Mitte Oktober einsetzte, während der Lockdown Light ja erst Anfang November in Kraft trat, aber seis drum. Der nächste Buckel, hier schon in rot, weil mit für damalige Zeiten enormen Inzidenzen einhergehend, dürfte ganz grob Weihnachtsmärkte (Aufstieg) und deren Schließung (Abstieg; ok, es hat auch noch einige weitere Lockdown-Verstärkungen gegeben) im Dezember 2020 reflektieren.

    Verdrängt oder nicht verdrängt?

    Dass bei gleichbleibenden Maßnahmen der R-Wert ab Mitte Februar stieg, habe auch ich mir damals dadurch erklärt, dass die Alpha-Variante infektöser ist. Richtig schöne Grafiken dazu gibt es erst später, so etwa hier aus dem RKI-Wochenbericht vom 7.10 (der gerade nicht im RKI-Archiv zu finden ist):

    Farbig markierte Anteile verschiedener SARS-2-Varianten, die sich offenbar verdrängen

    Fig 4: Anteile der verschiedenen Varianten vom Oktober 2021 (Rechte: RKI)

    Während der, sagen wir, ersten 13 Kalenderwochen des Jahres 2021 hat also Alpha den Wuhan-Typ im Wesentlichen kompett, nun ja, verdrängt. Und das schien mir bis jezt sehr unplausibel. Anschaulich gesprochen nämlich kann Alpha den Wuhan-Typ nur dann verdrängen, wenn die Varianten „sich sehen“, also überhaupt nennenswert viele Menschen, die der Wuhan-Typ infizieren möchte, schon zuvor Alpha gehabt hätten[1].

    Das war im Frühling 2021 ganz klar nicht so. Der RKI-Bericht vom 16.4.2021 (in dem sich übrigens auch die damaligen Gedanken zu den Varianten spiegeln) spricht von rund 3 Millionen Infizierten. Plausible Dunkelziffern werden den Anteil der bereits mit SARS-2 (in der Regel noch nicht mal Alpha) Infizierten kaum über 10% heben. Die Wuhan-Variante kann also im Wesentlichen nichts von Alpha gesehen haben, und damit kann sie auch nicht verdrängt worden sein[2].

    Mit einem zweiten Blick stellt sich heraus, dass es das auch nicht brauchte, denn unter den recht drakonischen Maßnahmen vom Januar 2021 – wir reden hier von der Zeit nächtlicher Ausgangssperren – hatte der Wuhan-Typ so in etwa einen R-Wert von 0.9 (das lese ich jedenfalls aus Fig. 3). Nun rechnet(e) das RKI den R-Wert in etwa so, dass er das Verhältnis der Infektionen in einem Viertageszeitraum zum vorherigen Viertageszeitraum angibt; der Gedanke ist, dass es (die „Serienlänge”) von einer Infektion bis zur Ansteckung in der nächsten Generation bei SARS-2-Wuhan sowas wie eben die vier Tage dauern sollte[3].

    Unter der angesichts konstanter Maßnahmen wenigstens plausiblen Annahme eines konstanten R-Werts (gegen Ende des Zeitraums mag er wegen Wetter sogar noch weiter gefallen sein), kann mensch ausrechnen, dass nach 13 Wochen vom Wuhan-Typ nur noch

    0.913⋅7 ⁄ 4 ≈ 10%

    übrig waren, und weil bei hinreichend niedrigen Inzidenzen der Bestand eines im Wesentlichen ausbruchsgetriebenen Erregers wie der Wuhan-Variante eh schon prekär ist: Eigentlich reicht das schon, um das praktische Verschwinden der Wuhan-Variante ganz ohne Verdrängung durch Alpha zu erklären.

    Zero Covid vs. die vierte Welle

    Wenn das die Erklärung ist, wäre das in gewisser Weise eine gute Nachricht für die Zero Covid-Fraktion: Wir haben Corona schon mal ausgerottet, inzwischen sogar drei Mal, nämlich den Wuhan-Typ, Alpha und (wahrscheinlich) Delta. Die „Maßnahmen“ für die jeweils infektiösere Variante haben offenbar ausgereicht, ihre Vorgänger (praktisch) vollständig auszurotten. Damit wäre zwar immer noch nicht das Langfrist-Problem gelöst – denn global wird SARS-2 sicher nicht verschwinden –, so dass ich nach wie vor eifrig gegen Zero Covid argumentieren würde, aber ein lokales Ende von Corona haben wir offenbar schon mehrfach hinbekommen.

    Gehen wir weiter in der Zeit:

    Bunte Linie mit zwei ausgeprägten zweigipfeligen Höckern

    Fig 5: R-Werte während des Anlaufs zur vierten Welle.

    Im Anlauf zur vierten Welle wird es unübersichtlich, weil nennenswert viele Menschen geimpft waren. Es mag sein, dass der Wuhan-Typ etwas empfindlicher auf die Impfung reagiert als Alpha, so dass es vielleicht glaubhaft ist, dass der R-Wert des Wuhan-Typs nicht wieder auf das „gut 1“ aus dem Sommer 2020 zurückgeschnappt ist, nachdem die Beschränkungen aus dem Winter 20/21 nach und nach wegfielen; dann wäre zumindest klar, warum der Wuhan-Typ nicht wiederkam.

    Bei Alpha und Delta liegen die Verhältnisse wahrscheinlich komplizierter. Der Umschlag von Alpha auf Delta war noch schneller als der von Wuhan auf Alpha; abgeschätzt aus Fig. 4 vielleicht zwischen den Kalenderwochen 21 und 27. Davor, also im Juni, lag der R-Wert um 0.8, angesichts relativ entspannter Verhältnisse zu diesem Zeitpunkt vermutlich bereits eher durch Impfung als durch nichtpharamzeutische Maßnahmen bedingt. Sechs Wochen R = 0.8 bringen die Inzidenzen, immer noch unter der Annahme der Unabhängigkeit der konkurrierenden Infektionsprozesse, wiederum runter auf

    0.86⋅7 ⁄ 4 ≈ 10%

    – das Aussterben von Alpha kommt also erneut so in etwa hin, wenn …

  • Aus der Geschichte lernen: Chios

    Landschaftsfoto: Felsen mit einzelnen Bäumen drin

    Für diese Landschaft haben sich Menschen 1822 in großen Mengen massakriert: Das Innere von Chios. CC-BY-SA FrontierNG

    Am 11. April gedachte das DLF-Kalenderblatt dem Massaker von Chios, das vor 200 Jahren den Höhe- oder eher Tiefpunkt einer jedenfalls rückblickend betrachtet völlig durchgeknallten Verkettung von Gewalttaten und Vergeltungsaktionen markierte.

    Ich muss gestehen, dass mir die ganze Geschichte völlig neu war; in der Kürze beim DLF klang es für mich zunächst so, als habe der osmanische Sultan die Bevölkerung der reichen Ägaisinsel Chios ausradieren lassen, weil sie gegen ihre manifesten (ökonomischen) Interessen mit Aufständischen paktiert hatte, die wiederum zuvor andere Untertanen des Sultans massakriert hatten.

    Mir klang das nach einem guten Beispiel, wie das allseite Nachgeben gegenüber der autoritären Versuchung zu einer Spirale von Bestialität führt, bei der jede Seite die moralische Berechtigung, wenn nicht gar Verpflichtung fühlt, den Feind zu töten. Da der Abstand den Blick schärfen mag, der bei analogen Ereignissen in der Nähe derzeit ganz offenbar vielfach getrübt ist, habe ich mir heute den zugehörigen Wikipedia-Artikel zu Gemüte geführt.

    Die Vorgeschichte

    Sehr bemerkenswert fand ich schon mal, dass die Wikipedia für die Vorgeschichte auf den Frieden von Küçük Kaynarca verweist, den 1774 das osmanische Reich und Russland geschlossen hatten. Bemerkenswert ist das einerseits, weil es damals schon um die jetzt gerade wieder umstrittenen Gebiete ging: Russland hat sich in diesem Vertrag den Süden der späteren Ukraine einverleibt, die Krim – die für zehn Jahre noch als autonomes Khanat weiterexistierte – folgte 1783. Nach allem, was danach kam, von Krimkrieg über die Verheerungen des zweiten Weltkriegs bis zum jetzigen Stellvertreterkrieg: Was für eine geschundene Gegend.

    Andererseits war diese Niederlage des osmanischen Sultans offenbar ein Segen für jedenfalls nennenswerte Teile seiner Untertanenschaft. In den Worten der Wikipedia:

    Wie im Rest Griechenlands wuchs nach dem Friedensvertrag von Kutchuk-Kaïnardji 1774 der Wohlstand auf Chios.

    Das bezieht sich, wie gesagt, auf die Verliererseite des Russisch-Türkischen Krieges von 1768-1774. Erneut zeigt sich die alte Weisheit, dass es weit schlimmer ist, einen Krieg zu führen als einen zu verlieren.

    Das Verhängnis von Chios begann indes, auch recht typisch, mit Patrioten, und zwar in diesem Fall mit griechischen. Diese nämlich legten 1821 einen zünftigen Aufstand auf der Peloponnes hin, als viele der dortigen (osmanischen) Besatzungssoldaten andernorts gebraucht wurden, nämlich für Kämpfe innerhalb der osmanischen Elite und weil, ganz modern, russische Truppen in das noch osmanische Moldawien eingefallen waren.

    Der zünftige Aufstand schlug erwartungsgemäß schnell in Barbarei um. Die tapferen und frommen Freiheitskämpfer eroberten^Wbefreiten im Oktober 1821 die Provinzhauptstadt Tripoli (nicht zu verwechseln mit dem zuerst durch unsere Flugverbotszone befreiten und dann seit inzwischen einem Jahrzehnt glühend umkämpften libyschen Tripolis) und metzelten gegen 8000 der verbliebenen BewohnerInnen nieder – schon während der Belagerung hatte sich die Bevölkerung auf etwa 15000 halbiert. Immerhin sind wohl nicht alle anderen 15000 dem Krieg zum Opfer gefallen, einige haben rechtzeitig fliehen können.

    Eine weitere Weisheit: Wenn es nach Krieg riecht, verpiss dich rechtzeitig. In der jungen Welt gab es am Wochenende eine Geschichte, wie es ganz aktuell zugeht, wenn du das mit dem „rechtzeitig“ nicht hinbekommst.

    In Chios

    Aber dies ist ja eine Geschichte über Chios, eine vor 1821 in weitgehender christlicher Autonomie von achtzehn, großartiger Titel, Demogeronten für den Sultan regierten Insel nicht weit vor der Küste der heutigen Türkei.

    Die DLF-Erzählung einer durch Mastix-Produkion und -Handel reich gewordenen Gemeinde trägt wohl; jedenfalls hatten die Demogeronten schon im April 1821 klar angesagt, dass sie lieber Wohlstand als (nationalen) Aufstand haben wollen. Für solche Anliegen hatten die Patrioten von der Peloponnes wenig Verständnis. Ein „Admiral“ Iakovos Tombazis – bei einem derart jungen Aufstand dürfte so ein „Admiral“ ungefähr drei Jollen befehligt haben – landete auf Chios, zog mit seinen Leuten ein wenig herum, um die satt & glücklich-Bevölkerung dort zum Abfall vom Sultan und zur Unterwerfung unter die neue christlich-griechische Regierung zu bewegen. Chios ist die zehntgrößte Insel im ganzen Mittelmeer, so dass er dafür elf Tage brauchte. Dann verschwanden er und seine Leute wieder.

    Bekannte von Bekannten berichten von ähnlichen Stunts der aktuellen PKK im türkischen Kurdistan. Zumindest diese Bekannten von Bekannten hat das nicht zu Fans der PKK gemacht, denn die Reaktion der derzeitigen türkischen Regierung ist in etwa so wie die der damaligen. In den Worten der Wikipedia:

    Der Dīwān entsandte den Gouverneur Vehid-Pacha. Er richtete sich in der Festung von Chora ein. Um sicherzustellen, dass die Chioten sich ruhig halten, forderte er 40 Geiseln an (darunter den Erzbischof Platon Franghiadi, die Demogeronten und Mitglieder der wichtigsten Familien der Insel [...]).

    Klar: Das war auch völlig überflüssiger Terror. Anständige Leute tun sowas nicht. Aber wer könnte es, „denkt an Tripoli!“, dem armen Dīwān verübeln, wenn er den Aggressor in die Schranken weist? Dazu gehören natürlich auch Soldaten. Erwartbarerweise sorgten diese Soldaten mitnichten dafür, dass irgendwas besser wurde:

    Es handelte sich um wenig disziplinierte Soldaten, die von der Plünderungsmöglichkeit angezogen wurden. Sie kontrollierten die ländlichen Gebiete der Insel und verbreiteten dort Schrecken.

    So wurden die ChiotInnen, die sich anfangs aus guten Gründen aus der ganzen für sie völlig nutzlosen Frage raushalten wollten, ob sie nun aus dem fernen Konstantinopel oder aus dem noch ferneren Athen regiert werden sollten, allmählich doch zu PatriotInnen.

    Wirklich schlimm wurde es allerdings erst, als bewaffnete Patrioten aus Samos im März 1822 versuchten, die inzwischen wieder etwas menschlicher gewordene Militärherrschaft auf Chios durch Rumballern zu beenden. Fast 3000 christliche Soldaten landeten auf der Insel und zwangen die osmanischen Truppen zum Rückzug in die Burg der Hauptstadt Chora.

    Das Verhängnis patriotischer Erhebung

    An diesem Punkt wurden auch die BäuerInnen aus dem Inselinneren vom nationalen Taumel erfasst und bewaffneten sich, übrigens gegen das Flehen ihrer alten Lokalregierung, die ja immer noch in osmanischer Geiselhaft saß:

    Sie zogen mit Kreuzen und Ikonen durch die Straßen und sangen patriotische Lieder.

    Das konnte sich nun wiederum der Sultan nicht bieten lassen und schickte weitere Verstärkung nach Çeşme, gleich gegenüber von Chios. Am 11. April 1822 landeten ungefähr 7000 osmanische Soldaten auf der Insel – ihr merkt, wie sich auch die Zahlen immer weiter aufschaukeln –, und machen mit christlichen Soldaten wie BäuerInnen recht kurzen Prozess, zumal ersteren zwischendurch die Munition ausgegangen war.

    Es entfaltete sich ein Massaker, das das von Tripoli nochmal weit überbot. Die Bilanz der Wikipedia ist ähnlich düster wie die des DLF:

    Die Bevölkerung der Insel betrug Anfang 1822 zwischen 100.000 und 120.000 Menschen, davon 30.000 Einwohner in Chora. Es waren auch etwa 2.000 Muslime auf der Insel. Für die Zeit nach den Massakern wird meist die Einwohnerzahl von 20.000 genannt. [...] Die häufigsten Schätzungen nennen 25.000 Tote und 45.000 versklavte Menschen. 10.000 bis 20.000 sei die Flucht gelungen.

    Zwar hat so schnell niemand den Griechen Panzerhaubitzen geliefert, und so hatten sie rein materiell keine Möglichkeit zur weiteren Eskalation. Sie brachten aber in der nächsten Runde immer noch 2000 osmanische Soldaten um, als sie am 6. Juni 1822 – die Besatzung war wegen Zuckerfest vermutlich nicht gut beieinander – das osmaische Flaggschiff in der Bucht von Chora abfackelten. Die türkischen Truppen haben zur Vergeltung eine weitere, letzte Zerstörungstour über die Insel unternahmen, konnten da aber auch nicht mehr eskalieren, weil ja schon fast alle BewohnerInnen tot oder verschleppt waren.

    Alles umsonst

    Wofür sind die Leute alle gestorben? Aus heutiger Sicht wird wahrscheinlich niemand bestreiten, dass das alles Quatsch war. Für die Griechen bestand ihre „Freiheit“ aus einem bayrischen König, der „Griechenland“ zwar exzessiv „liebte“, 1862 aber von einem britischen Schiff evakuiert werden musste, weil seine Machtbasis komplett erodiert war und schon wieder Aufstand herrschte. Sein letzter Nachfolger schließlich ging 1968 unter, als er selbst einen Militärputsch plante, ihm andere Militärs aber zuvorkamen (die Ereignisse in der Wikipedia). Diese Militärs waren wiederum die, über die ich in meinem Filmtipp von neulich geschäumt habe.

    Für die Osmanen hat sich das auch nicht gelohnt, denn die Griechen gingen mit Chios im Westen ähnlich wie heute die aktuelle ukrainische Regierung mit russischen Massakern hausieren. Sie konnten viel Sympathie für diese Sorte „Freiheitskampf“ wecken und bekamen viel politische Unterstützung für ihre Sezession, die 1830 auch stattfand. Sicher weniger dramatisch für die Hohe Pforte: Leute wie Lord Byron[1] zogen „für Griechenland” in den Krieg und starben dabei. Chios selbst ging 1912 doch an Griechenland, noch bevor das osmanische System zum Ende des ersten Weltkriegs gänzlich implodierte.

    Und die Leute auf Chios? Also: die, die übrig geblieben sind? Nun, von den gut 100'000 BewohnerInnen aus dem Wikipedia-Zitat von oben ist Chios immer noch weit entfernt; gegenwärtig wohnen rund 50'000 Menschen auf der Insel.

    Ach weh. Wer aus der Geschichte nicht lernen will, wird immer wieder zehntausende Menschen in irgendwelchen mehr oder minder romantischen Anwandlungen von Patriotismus umbringen und, wenns ganz schlimm läuft, auch noch den Rest der Welt davon überzeugen wollen, dass das groß, wichtig und gut ist. Den Akteuren von 1822, die noch keine Wikipedia hatten, möchte ich das nicht vorwerfen, auch wenn sie mit etwas mehr Mühe bereits hinreichend viel Anschauungsmaterial aus der Geschichte hätten gewinnen können.

    Uns Heutigen – tja, wir haben die Wikipedia.

    [1]

    Zu Byron will ich euch die Worte von Bertrand …

  • Hirsche im Zoo

    Foto: Hirsch, im Hintergrund radelnde PassantInnen

    Nicht weit vom Edersee – praktisch schon im Kellerwald-Nationalpark – laufen Hirsche auch mal bei Tageslicht über herbstliche Felder und bezaubern radelnde TouristInnen. Aber: was machen sie im Zoo?

    „Bikeshedding“ bezeichnet das in vielen Entscheidungsgremien zu beobachtende Phänomen, dass große und tiefgreifende Entscheidungen ohne große Kontroverse durchgewunken, Nebensächlichkeiten[1] jedoch in großer Breite diskutiert werden.

    Als ich heute morgen die DLF-Sendung Wissenschaft im Brennpunkt vom 15.5. hörte, hatte ich eine Art intellektuelles Bikeshedding. In der Sendung geht es um höchst raffinierte Verfahren der Metagenomik, bei der durch Sequenzierung von DNS in mehr oder minder blind aus der Natur entnommenen Proben tiefe Einsichten in Ökologie und Biologie gewonnen werden. Dass sowas geht, dass dabei etwas rauskommt, und teils schon, was dabei rauskommt: Das ist alles sehr beeindruckend.

    Doch mein Wow-Moment kam erst bei folgender Passage (bei ca. Minute 23; der Text auf der DLF-Seite ist leider nicht das Transskript der Sendung):

    Elizabeth Clair [...] berichtete in einer Vorveröffentlichung von einer DNA-Analyse der Luft in einem englischen Zoo. [...] DNA von 25 Arten konnte das Team aufspüren, darunter 17 Zootierarten [...], einige davon bis zu 300 m von der Untersuchungsstelle entfernt. Außerdem ein paar Wildtiere wie Igel und Hirsch.

    Ein wilder Hirsch? Im Zoo? Wie bitteschön soll das denn zugehen? Setzen die elegant über den Zaun des Zoos? Um den gefangenen Tieren vielleicht eine lange Nase zu drehen? Ich gebe zu, dass das verglichen mit den Wundern von Massensequenzierungen doch eher trivial wirkt. Aber ich wüsste wirklich gerne, was der Hirsch dort wollte.

    Aufbauend auf dieser Erfahrung würde ich „behirschen“ als neues Verb vorschlagen, mit der Bedeutung „sich an einer (scheinbaren) Nebensächlichkeit in einer Forschungsarbeit aufhängen und damit deren AutorInnen auf die Nerven gehen“? Nur nebenbei: Ich vermute, wir behirschen in der modernen Wissenschaft fast alle deutlich zu wenig.

    Nachtrag (2022-07-01)

    Auf eine Nachfrage von @StephanMatthiesen hin hat mich die Sache doch nicht losgelassen, und ich musste mal nach dem Paper sehen, von dem im DLF-Zitat die Rede ist. Es scheint, als sei es bereits Anfang 2021 erschienen, und zwar als „Measuring biodiversity from DNA in the air“ von Elizabeth Clare et al, Current Biology (2021), doi:10.1016/j.cub.2021.11.064. Darin heißt es:

    Of special interest was the detection of the European hedgehog (Erinaceus europaeus) in three samples [...] As of 2020, the hedgehog was listed as vulnerable to extinction in the United Kingdom (https://www.mammal.org.uk/science-research/red-list/), making it vital to develop additional methods to monitor and protect existing populations. [...] One commonly cited application of eDNA approaches is the detection of invasive species. We detected muntjac deer (Muntiacus reevesi) in five samples. These muntjacs are native to China but became locally invasive after multiple releases in England in the 19th century. They are now well established in eastern England, the location of the zoological park, and are frequently seen on site. They are also provided in food for several species; thus, the detection of muntjacs may reflect either food or wildlife.

    (Hervorhebung von mir, um die Verbindung zu den Igeln und Hirschen aus der DLF-Sendung zu belegen). Mithin: Wir reden hier von keinem stattlichen Zwölfender, der majestitisch an den Gittern entlangschreitet. Wir reden von Muntjaks, die, so die Wikipedia, „zwischen 14 und 33 Kilogramm“ wiegen und offenbar nur mit Mühe die Größe von Damhirschen erreichen. Und obendrauf kann es gut sein, dass die DNS dadurch in die Luft kam, dass andere Tiere die Muntjaks vertilgt haben und dabei eher ruppig vorgegangen sind.

    Selbst wenn die DNS nicht von Futter, sondern von einem Wildtier abgesondert worden wäre, wäre ihr Vorkommen kaum erstaunlich, wenn mensch die Lage des Tierparks bedenkt. Manchmal (aber selten) verlieren die Dinge doch ein wenig von ihrem Zauber, wenn mensch näher nachsieht.

    [1]Der Begriff „Bikeshedding“ bezieht sich tatsächlich auf überdachte Fahrradstellplätze; dass gerade so eine zentrale und wichtige Einrichtung als Prototyp des Nebensächlichen herhalten muss, sagt natürlich schon einiges aus über unsere Gesellschaft und den weiten Weg, den wir bis zur Befreiung vom Auto noch vor uns haben.
  • Angst ist eine schlechte Beifahrerin

    Am ersten Mai hatte ich mich an dieser Stelle gefragt, wann wohl die „Dauerbeflimmerung“ – also: leuchtende Werbedisplays am Straßenrand – an der Heidelberger Jahnstraße dazu führen wird, dass Leute einander kaputtfahren. Fünf Tage später lief in Forschung aktuell ein Beitrag, der einen ganz speziellen Blick auf Gefahren durch Beflimmerung vom Straßenrand warf.

    Grundlage des Beitrags ist der Artikel „Can behavioral interventions be too salient? Evidence from traffic safety messages“ der Wirtschafts- hrm -wissenschaftler Jonathan Hall und Joshua Madsen aus Toronto und Madison, WI, erschienen in Science vom 22.4.2022 (doi:10.1126/science.abm3427)[1].

    Bevor ich den Blick nachvollziehen konnte, musste ich mich zunächst ärgern, denn alles, was ich beim Folgen des DOI gesehen habe, war das hier:

    Screenshot einer Cloudflare-Verzögerungsseite

    Der Fairness halber will ich einräumen, dass die drei Punkte animiert waren, und dann und wann hat die Seite, als ich ihr erstmal Javascript erlaubt hatte, einen Reload geworfen und dann eine neue „Ray ID“ angeboten. Dennoch ist das gleich in mehreren Richtungen Mist, verschärft hier dadurch, dass Landing Pages von DOIs statisch sein können und sollen. Es lässt sich kein Szenario denken, in dem mensch für statische Seiten auf einem ordentlichen Webserver einen „DDoS-Schutz“ (was immer das sein mag) braucht, und schon gar keinen, der ohne Javascript, Referrer und weiß ich noch was nicht funktioniert.

    Ich muss gestehen: ich war es müde, den Mist zu debuggen. Da der Artikel leider noch nicht bei libgen (die – Science, horche auf! – diese Sorte Unfug nicht nötig haben) war, habe ich in den sauren Apfel gebissen und statt meines Standardbrowsers einen überpermissiv konfigurierten Firefox genommen, der der Cloudflare-Scharlatanerie schließlich akzeptabel schien. Auch eine Art, das Web kaputtzumachen.

    Zur Sache

    In Texas hat das Verkehrsministerium über viele Jahre hinweg „Campaign Weeks“ gemacht, während derer auf den elektronischen Großanzeigen an vielbefahrenen Straßen – wer Falling Down gesehen hat, weiß, wovon die Rede ist – unbequeme Wahrheiten („Für Menschen zwischen 5 und 45 ist der Straßenverkehr die führende Todesursache“) angezeigt wurden.

    Der Effekt: Offenbar fahren die Leute nach so einer Mahnung nicht vorsichtiger, sondern abgelenkter. Jedenfalls gehen die Unfallraten hinter solchen Nachrichten merklich nach oben. In Abbildung eins des Papers sieht das so aus:

    Scatterplot -- Punktpaare gehen allmählich gegen Null

    Rechte: AAAS, Science

    Das „DMS” in der Beschriftung heißt „dynamic message signs“ – zumindest im Untersuchungszeitraum zwischen 2012 und 2017 war das aber sicher richtig fades Zeug im Vergleich zu moderner Werbebeflimmerung. Bei den roten Punkten kamen nach der ersten Tafel für 10 km keine weiteren mehr, so dass das das sauberere Signal ist.

    Auch wenn der Effekt im Vergleich zu den Fehlerbalken nicht sehr groß ist und es allerlei versteckte Confounder geben mag – die Autoren gehen aber erfreulich vielen nach und können viele glaubhaft kontrollieren –, überzeugt mich das Paper davon, dass mindestens auf dem Kilometer nach der Tafel die von alarmierenden Zahlen beunruhigten Menschen ein paar Prozent mehr Unfälle bauen.

    Ein Grund für meine Einschätzung der Zuverlässigkeit des Effekts ist, dass offenbar die Zunahme der Unfälle mit der Drastik der Nachrichten korrelierte: Spät im Jahr, wenn texanische Autos schon tausende Menschen zermalmt haben und also entsprechend große Zahlen auf den Tafeln zu sehen sind, sind die Effekte deutlich stärker als früh im Jahr:

    Scatterplot mit abnehmenden Punkten

    Rechte: AAAS, Science

    Zwar ist die Null auch hier überall innerhalb von „zwei sigma“, also der doppelten Fehlerbalken, so dass ich das nicht völlig überbewerten würde. Ich könnte insbesondere nicht erklären, woher ein negativer Achsenabschnitt der Ausgleichsgerade kommen könnte, warum Leute also besser fahren sollten, wenn die Zahlen klein (oder ihre Neujahrsvorsätze noch frisch?) sind. Dennoch entsteht, nimmt mensch alle Evidenz zusammen, durchaus ein recht robustes Signal, das wiederum nur schwer durch Confounder zu erklären ist.

    Und auch wenn was wie 5% nicht nach viel klingen: Der Straßenverkehr ist mörderisch (in den USA gibt es, Kopfzahl, in jedem Jahr so um die 50000 direkte Verkehrstote), und es gibt einen Haufen dieser Displays. Hall und Madsen schätzen, dass ihr Effekt in den 28 Staaten, die das ähnlich wie Texas machen, 17000 Unfälle mit 100 Toten verursachen dürfte.

    Verblüffung am Rande: Für ein Kontrollexperiment haben Hall und Madsen nach Tafeln gesucht, die mindestens 10 km vor sich keine andere Tafel haben (damit sich die Effekte der Vortafel hoffentlich bereits gelegt haben). Das hat die Samplegröße um 75% reduziert. 75%! Dass diese DMSe so sehr clustern – denn es sich sicherlich undenkbar, dass über das ganze riesige Straßennetz von Texas hinweg alle paar Kilometer Tafeln stehen –, hätte ich nicht erwartet. Warum planen Leute sowas?

    Und Werbetafeln?

    Nun gebe ich zu, dass Hall und Madsen über ganz andere Dinge reden als die Werbe-Displays von Ströer und JCDecaux, sie ja sogar auf die Wichtigkeit der Natur der Nachricht abheben und so das Medium eher aus dem Blick nehmen.

    Sie zitieren aber auch Literatur, die sich allgemeiner um die Frage der Ablenkung durch Beflimmerung kümmert. Davon gibts einiges, und offenbar ist umstritten, wie tödlich Werbetafeln wirklich sind. Vermutlich wäre es ein wertvolles Projekt, die Drittmittelgeber der entlastenden Studien zu ermitteln.

    Was Hall und Madsen zitieren, ist leider nichts in dieser Richtung. Dennoch habe ich mir ihre Quelle „Driving simulator study on the influence of digital illuminated billboards near pedestrian“ von Kirstof Mollu (aus dem Dunstkreis der Wiwis an der Universiteit Hasselt, Belgien) et al, Transportation Research Part F 59 (2018), S. 45 (doi:10.1016/j.trf.2018.08.013) kurz angesehen. Das braucht immerhin keine Beschwörungen von Cloudflare, ist aber wieder kein Open Access und zwingt NutzerInnen erstmal den "Elsevier Enhanced Reader" auf, der ohne Javascript gar nichts tut – eine sehr aufwändige Art, ein PDF runterzuladen.

    Nun: Mollu et al haben sieben Handvoll Führerscheinhabende rekrutiert und in einen einfachen Fahrsimulator (zwar force-feedback, aber keine Beschleunigungssimulation) gesetzt, in das Szenerio verschieden hektisch flimmernde Displays integriert und dann gesehen, wo die Leute hingucken und wie oft sie übersehen, dass FußgängerInnen über die Straße wollen.

    Wenig überraschende Einsicht: Die Leute gucken mehr, wenn die Bilder nur 3 Sekunden (statt 6 Sekunden) stehen bleiben. Was Filmchen (bei denen Bilder ja nur was wie 1/25stel Sekunde stehenbleiben) anrichten, untersuchen sie nicht. Überhaupt macht der Artikel quantitativ nicht viel her. Oh, abgesehen von Zahlen, die sie selbst nur zitieren: In den Fahrradländern Niederlande und Dänemark sterben nur drei bis vier FußgängerInnen pro Million Einwohner und Jahr. In den jüngst wild motorisierten Lettland und Litauen ist es ein Faktor 10 mehr, also etwas wie 35 pro Million und Jahr.

    Zur Einordnung will ich nicht verschweigen, dass ausweislich der aktuellen RKI-Zahlen SARS-2 in der BRD 1500 Menschen auf eine Million EinwohnerInnen umgebracht hat und das auch schlimmer hätte kommen können (aber: Caveat bezüglich dieser Sorte Zahlen). Andererseits: Wollte mensch den gesamten Blutzoll des Autos bestimmen, Verkehrstote, durch Verkehrsverletzungen verfrühte Tode, Opfer von Lärm und Luftverschmutzung, vielleicht gar von Bewegungsmangel, wäre es wohl nicht schwer, für die BRD auf 700 Autoopfer pro Million und Jahr zu kommen und damit ziemlich genau in den Bereich des durch Maßnahmen und Impfung gezähmten SARS-2. Aber diese Rechnung braucht mal einen anderen Post.

    [1]Leider hat Science den Artikel, dessen AutorInnen fast sicher aus öffentlichem Geld bezahlt wurden und die jedenfalls öffentliche Infrastruktur (U Toronto, Vrije Uni Amsterdam, U Minnesota) nutzten, weggesperrt, und er ist im Augenblick auch noch nicht auf libgen. Hmpf.

« Seite 2 / 4 »

Letzte Ergänzungen