Tag Wissenschaft

  • Replikationskrise: Ärgermanagement mit Schredder und Mülleimer

    Eine unregelmäßig ausgebrochene Bleischeibe mit eigenartigen Zeichen drauf

    Dieses Gekrakel ist auf einem römischen Fluchtäfelchen zu sehen, das im Rheinischen Landesmuseum in Trier ausgestellt ist. Der volle Text (weiter unten auf der Tafel) ist in der Übersetzung des Museums: „Eurer Macht gemäß, Diana und Mars, ihr bindenden, sollt ihr mich von dem Hitzkopf erlösen. Den Eusebius bannt mit Folterkrallen fest, mich aber befreit!“

    Im Januar 2019 lief im Deutschlandfunk-Sendeplatz Wissenschaft im Brennpunkt die hörenswerte Sendung Signifikant oder nicht – Wenn Studien einem zweiten Blick nicht standhalten. Der Titel lässt es ahnen: es ging um die Replikationskrise, die dank Erbsenzählerei bei der Jobvergabe und Wettbewerbsverdichtung die moderne Wissenschaft prägt, und dabei offenbar ganz besonders die Psychologie. In dieser, so heißt es in der Sendung, gelingt es für allenfalls die Hälfte der publizierten Experimente, den behaupteten Effekt bei einer Wiederholung nachzuweisen.

    Als zentrale Take-Home-Nachricht aus der Sendung würde ich empfehlen: die Geschichte von den erfolgreichen Männern, die sich schon als Kind beherrschen konnten („Marshmallow-Test”), ist eine bürgerliche Legende.

    Ach, das ist wirklich so?

    Die Marshmallow-Geschichte illustriert ein Muster für (nicht nur psychologische) Arbeiten, die bei mir einen Replikationsalarm auslösen: Kram, der gut in bestehende Denkschemata passt, aber doch noch einen Hauch von „ach, das ist wirklich so?“ hat. 1a Material für Party-Smalltalk, wenn ihr wollt.

    Etwas aus dieser Kategorie kam in den Wissenschaftsmeldungen vom 8.4.2024 im Deutschlandfunk: Die Behauptung ist, dass mensch Ärger viel besser loswird, wenn mensch die Steine des Anstoßes nicht nur zu Papier bringt, sondern dieses Papier auch noch wahlweise wegwirft oder schreddert. Hm. Das Schreddern ist also wichtig… Ist das wirklich so?

    Die Illustration oben lässt ahnen, dass das Muster alles andere als neu ist. Die antiken Fluchtäfelchen folgten einem durchaus vergleichbaren Muster: Schreibe auf, was dich bedrückt, und werde es dann in mehr oder minder ritueller Art wieder los: „Vor allem in Nordafrika, Rom und den östlichen Provinzen pflegte man Flüche, die Bezüge zu Wagenrennen aufwiesen, im Circus oder in Amphitheatern zu platzieren, wobei besonders gefährliche Stellen wie die Wendepunkte bevorzugt wurden. Eine ganze Reihe von Fluchtäfelchen wurde im Trierer Amphitheater gefunden,“ schreibt aktuell die Wikipedia.

    Die moderne Fassung

    Der Artikel hinter dem DLF-Beitrag ist „Anger is eliminated with the disposal of a paper written because of provocation“, Scientific Reports 14, 7490 (2024) doi:10.1038/s41598-024-57916-z von Yuta Kanaya und Nobuyuki Kawai. Von der Anmutung her könnte es die Publikation von etwas wie Kanayas Abschlussarbeit an der Universität von Nagoya sein. Wenn das so ist, hätten Kawai oder spätestens die GutachterInnen, so finde ich, schon intervenieren können, denn an einigen Stellen wirkt der Artikel stilistisch unnötig unbeholfen.

    Eher schrullig fand ich ja bereits die Attributierung „by a philosopher in Imperium Romanum“ für ein Zitat zum Wert des Gleichmuts. Der leicht angestaubt wirkende Verweis auf Griechenundrömer[1] – und schon gar zu einem Thema, das von hier aus gesehen ein Markenzeichen ost- und südasiatischer Weltanschauungen ist – wird durch das gleichzeitige idiomatische Stolpern – wenn schon westliche Antike, hätte zumindest der Name „Seneca“ fallen müssen, und „in Imperium Romanum“ ist wenigstens in seiner Anmutung, das sei eine Art Land, stark ahistorisch – ins Komische gezogen.

    Der Eindruck einer aufgeregten Erstlingsarbeit verstärkt sich etwas später in der Einleitung, als Kanaya und Kawai das vorliegende Projekt mit „aber: DIE KINDER!“ als Teil der Weltrettung zu positionieren versuchen. Ich bin noch nicht mal sicher, ob Wutkontrolle überhaupt eine Rolle spielen kann und sollte bei der Eindämmung von Gewalt gegen und Traumatisierung von Kindern. Aber es ist offensichtlich, dass kein Schütteltrauma verhindert werden wird, weil sich genervte Eltern hinsetzen, „der Schreihals soll jetzt endlich aufhören“ auf einen Zettel schreiben und den dann wegwerfen.

    Jenseits von Stilfragen

    Stilfragen beiseite ist das Paper durchaus lesenswert, zumal der Versuchsaufbau sich immerhin bemüht, irgendwie mit dem Grundproblem psychologischer Studien umzugehen: Sie sind fast nie verblindbar, weil die Leute ja merken, wie sie behandelt werden und was sie tun. Kanaya und Kawai versuchen, das Problem durch Tarnung des eigentlichen Erkenntnisinteresses zu umgehen.

    Um die ProbandInnen (insgesamt gut 100, die meisten davon Studis) zu ärgern, haben sie eine ungerechte, ja beleidigende Beurteilung (für japanische Verhältnisse dürften ein paar der verwendeten Phrasen wie „wer hat diesen Idioten an die Uni gelassen?“ klingen) eines frisch verfassten Aufsatzes gewählt. Nach der Lektüre der Beurteilung durften die ProbandInnen ihre Kränkungen auf einen Zettel schreiben. Diesen mussten sie entweder aufheben oder wegwerfen bzw. schreddern.

    Bemerkenswert fand ich dabei die Genderstruktur der ProbandInnen, die aus der Auswertung ausgeschlossen wurden, weil sie das Experiment durchschaut hatten. Klar sind die Zahlen sehr klein, aber es zeigt sich im ersten Durchgang des Experiments ein überraschend starkes Gender-Signal: von den ProbandInnen waren 37% weiblich, von denen, die es durchschaut haben, 71%.

    Im zweiten, dem Schredder-Experiment (in dem allerdings auch eine andere Demographie rekrutiert worden ist), hat sich dann aber kein solches Signal gezeigt; dort sollen überhaupt nur zwei überrissen haben, worum es ging (na ja: haben sich dabei erwischen lassen). Nun: Dass „Frauen sind empathischer“ nicht replizierbar ist, hätte ich jetzt auch gehofft.

    Zurück zum eigentlichen Experiment: Ich erlaube mir, die mir etwas esoterisch erscheinenden Überlegungen zu „grounded separation“ und die sie adressierenden Details wegzuabstrahieren, und ich spare mir hier die an sich notwendige Überlegung, ob es überhaupt ein Maß für Ärger gibt, ganz zu schweigen davon, ob die Methode der Autoren, dieses zu bestimmen, das eigentlich tut[2].

    Stattdessen zeige ich gleich das zentrale Ergebnis des Papers in diesen beiden Graphen:

    Was mensch sehen soll: In allen Fällen werden relativ ausgeglichene Menschen („baseline“) erfolgreich geärgert („Provocation“) und kommen durch Aufschreiben ihrer Beschwernisse sowie ggf. der Entsorgung des Aufschriebs wieder runter; dabei funktionieren Schredder (volle Punkte rechts) und Papierkorb (volle Punkte links) gleich gut und an der durch die Fehlerbalken angedeuteten Signifikanzgrenze besser als Aufschreiben und Behalten.

    Ich habe offen gestanden Schwierigkeiten, die so eng überlappenden Kurvenverläufe bis zur Provokation zu glauben. Wenn die Fehlerbalken so groß sind wie gezeigt (und das glaube ich bei so Fragebogenmaßen gerne), ist es ziemlich unwahrscheinlich, dass vier Punktepaare so eng beieinanderliegen. Mindestens ebenso erstaunlich ist, wie nahe die Post-Provocation-Punkte zwischen rechts und links beieinanderliegen, da bei der rechten Retention-Gruppe ein extra Plexiglasgestell ihnen ihre Beschwernisse recht aufdringlich in Erinnerung rief. Dieses Gestell alleine hätte mich schon zusätzlich zu allem anderen verärgert.

    Ich will damit nicht sagen, dass da die Autoren Daten absichtlich gegelättet oder frisiert haben. Es gibt eine Unzahl von Fallen, die so gute Übereinstimmungen vortäuschen können – wenn es einfach wäre, wäre es keine Wissenschaft. Ich sage nur, dass ich überhaupt nicht überrascht wäre, wenn sich dieses Ergebnis nicht replizieren ließe oder sich jedenfalls viele Details des Experiments als unwichtig erwiesen.

    Fragen zum Ärgern

    Aber wer weiß? Natürlich machen auch die Autoren quantitative Analysen, irgendeine ANOVA, und in dem Zahlenmeer finden sich dann trotz Bonferroni auch ein paar signifikante Ergebnisse.

    Ich habe ja unabhängig davon rein intuitiv wenig Zweifel, dass sowohl Verbalisieren von Bekümmernissen als auch Zeug kaputtmachen jeweils geeigneten Ärger mindern kann. Nur: Ist es eigentlich wichtig, dass es gerade der Zettel ist, den mensch weghaut? Hätte sich nicht der gleiche Effekt ergeben, wenn die ProbandInnen was ganz anderes kaputt gemacht hätten, vielleicht noch unterschieden nach denen, die etwas Charismatisches (einen Teddybären?) und etwas Widerliches (einen McKinsey-Bericht?) in den Schredder gepackt hätten? Hätten sie auch einfach Holz spalten können?

    Und dann gibts eine weitere gute Frage: Wenn Prüfungen und ihre Bewertungen für so viel Stunk sorgen: Sollten wir sie dann nicht einfach lassen, wo wir doch gerade gelernt haben, wie schlecht das für die Kinder ist? Oder vielleicht lieber erforschen, wie - wenn es doch vernünftige Gründe für sie geben sollte – wir die Prüfungen so gestalten, dass sie weniger zu Ärger als vielmehr zu Motivation führen?

    [1]Jaja, ich weiß schon, dass ich genau das in diesem Blogpost selbst mache. Wer mag, darf das als Selbstironie interpretieren, aber in Wahrheit habe ich halt einen Römerfimmel und habe das Fluchtäfelchen tatsächlich erst vorgestern fotografiert.
    [2]Die Autoren verwenden u.a. einen selbstgebastelten Fragebogen, auf dem ihre ProbandInnen jedem Begriff von (übersetzt) angry, bothered, annoyed, hostile, and irritated eine Zahl zwischen eins und sechs zuordnen, je nach dem, wie sie sich gerade fühlen; „anger experience composite“ nennen die Autoren ihr Maß, was sich für mich schon fast ein wenig nach Aktienindex anhört.
  • Namen, die morgen in aller Munde sein könnten: Dansgaard, Oeschger, NGRIP und Heinrich

    Ein Plot von δ18O (zwischen 0 und 2.5 Promille) über dem Abstand von Zentralgrönland (zwischen 0 und 20000) .  Bunte Punkte und schwarze Kreuze versammeln sich fast ausschließlich unterhalb der Diagonalen, eine türkise Gerade deutet eine schwach fallende Tendenz zwischen (0, 2) und (12000, 1.2) an.

    Das ist Abbildung 4 aus dem unten diskutierten Fohlmeister et al-Paper; das „NGRIP“ auf der Abszisse ist (im Effekt) ein Ort in Grönland, auf der Ordinate ist etwas, das mit irgendeiner Sorte Klimaänderung verknüpft sein wird. Mehr dazu unten.

    Ich fürchte, ich lebe im Hinblick auf die Klimawissenschaft ein wenig hinter dem Mond, denn: Ich habe bis neulich noch nie etwas von Dansgaard-Oeschger-Ereignissen (jedenfalls unter diesem Namen) gehört, und das, obwohl die sowohl extrem gruselig sind als auch ziemlich alte Hüte – die das Konzept einführenden Arbeiten sind um 1990 herum erschienen. Auch der Popstar der deutschen Klimawissenschaft, Stefan Rahmstorf, hat schon darüber geschrieben[1].

    Ich hingegen habe erst vor drei Wochen beschlossen, dass ich mir besser mal die Namen „Dansgaard“ und „Oeschger“ merke, bevor deren Unkenntnis eine peinliche Bildungslücke wird („Corona? Wie der Draht im Laserdrucker?“). Da nämlich hörte ich den Beitrag Was Tropfsteinhöhlen über das weltweite Klima verraten in der DLF-Forschung aktuell-Sendung vom 30.8.

    Warum soll mensch sich die Namen merken? Nun, im Rahmen des Klimawandels mag es durchaus sein, dass wir ein „inverses” Dansgaard-Oeschger Ereignis bekommen, über das gegen Ende des DLF-Beitrags der PIK-Klimaforscher Nils Boers sagt:

    Also ich bin da noch nicht überzeugt, dass es wahrscheinlich in diesem Jahrhundert passieren würde, ich bin da eher mit dem letzten IPCC-Bericht, der sagt, dass es in diesem Jahrhundert unwahrscheinlich ist.

    Wenn es denn passiert, dann hätte man, wie auch bei den Dansgaard-Oeschger-Ereignissen, massive Veränderungen der Monsun-Systeme, nur in die andere Richtung. Die intertropische Konvergenzzone würde sich nach Süden verschieben, was im Amazonas und im subtropischen Südamerika zu sehr komplexen Veränderungen der Niederschlagmuster führen würde, wo unklar ist, ob das den Amazonas eher positiv oder eher negativ beeinflussen würde.

    In Afrika ist es eine relativ einfache, vergleichsweise relativ einfache Situation, da würde sich einfach der westafrikanische Monsun so weit nach Süden verschieben, dass die Regionen, die aktuell an diesen Monsun angepasst sind, also auch vor allem die Gesellschaften, die Ökosysteme, dass die wirklich vor massive Probleme gestellt würden. Sehr ähnlich sähe es in Indien aus, ebenfalls massive Niederschlags-Reduktionen und möglicherweise ein Abbrechen des indischen Sommermonsuns, was dann auf einen Schlag über eine Milliarde Menschen sehr negativ beeinflussen würde, und ähnlich würde es auch in Südostasien aussehen.

    In Europa hätte man Abkühlung von, sagen wir mal, zwei bis zehn Grad, je nachdem, wie weit man nach Norden geht, aber in den mittleren Breiten, bei uns, wären die Temperaturunterschiede und auch die Niederschlagsunterschiede eher moderat. Die wirklich schlimmen Folgen wären in den Tropen.

    Dansgaard-Oeschger und ihre Vorgeschichte

    Um zusammenzufassen, was im Beitrag vor dieser Aussage kommt: die Dansgaard-Oeschger-Ereignisse sind Episoden einer sehr raschen (also: während vielleicht so eines Jahrzehnts) Erwärmung während der letzten Eiszeit (für ältere Eiszeiten gibt es, glaube ich, noch keine Daten in entsprechend hoher Auflösung). Die Amplitude dieser Änderung kann in Gegend von Grönland 10 K betragen, global ergeben sich allerlei wilde Wetterkapriolen. So in etwa: El Niño auf Steroiden und im hohen Norden.

    Warum das Klima dann und wann aus eiszeitlichen Verhältnissen in welche aufgetaucht ist, die mehr unseren heutigen ähneln, will offenbar niemand so ganz sicher versprechen, aber mein Außenseiter-Eindruck ist, dass doch alle glauben, der Zustand außerhalb der Dansgaard-Oeschger-Ereignisse sei der, wenn „der Golfstrom aus ist”. Im DLF-Beitrag wird das diskutiert als Unterbrechung der Atlantic Meridional Overturning Circulation (AMOC) – auf Deutsch der thermohalinen Zirkulation im Atlantik.

    Boers' Katastrophenszenario ist also der Zustand, wenn wir umgekehrt mal kurz in den Eiszeit-Grundzustand fallen. Spätestens seit dem Roland Emmerich-Reißer The Day After Tomorrow ist das eine relativ populäre Geschichte, doch den offiziellen Namen dafür habe ich auch erst neulich gelernt: Heinrich-Ereignis.

    In aller Kürze fließt dabei wegen steigender Temperaturen zu viel Süßwasser von Grönland in den Nordatlantik. Dann wird das ehemals warme, normalerweise salzreiche und damit dichtere Wasser aus niedrigen Breiten nicht mehr absinken, weil es zu sehr verdünnt und damit gegenüber dem Tiefenwasser nicht mehr dichter ist. Damit wird es auch nicht mehr untermeerisch zurück nach Süden fließen, und damit kann oben kein warmes Wasser mehr aus dem Süden nachkommen. Wie gesagt: „Golfstrom aus“.

    Wer sich mit der Gaia-Hypothese anfreunden kann, könnte sagen: Die Erde zieht die Notbremse gegen ein Abschmelzen der Eiskappen rund um den Nordpol.

    Reden wir lieber über Sauerstoff-Isotope

    Gegenüber diesen fast schon hollywoodesken Katastrophenszenarien ist das Paper, um das es im Interview eigentlich ging, nachgerade entspannend.

    Es handelt sich um „Global reorganization of atmospheric circulation during Dansgaard–Oeschger cycles“ von Jens Fohlmeister und KollegInnen aus dem Umfeld des Potsdamer Instituts für Klimafolgenforschung. Der DOI des Artikels, 10.1073/pnas.2302283120, führt (noch) auf eine Paywall. Wer dank Uni-Angehörigkeit da durch kommt, wird mit einem grässlichen Javascript-PDF-Renderer vom Verlag bestraft (was denken sich die Leute eigentlich? Dass ich mir bei der Wahl meines PDF-Renderers nichts gedacht habe?) Aber freut euch: Das Paper liegt unter (immerhin) CC-BY-NC-ND[2], so dass ich es hier ganz legal vernünftig verbreiten kann.

    Ich habe zunächst schon deshalb einen Haufen Wohlwollen für die Arbeit, weil sie sich zentral auf Archivdaten stützt. Da ich glaube, dass viel zu viele mit großem Aufwand erhobene Daten von viel zu wenig Hirnen überdacht werden, halte ich das für vorbildlich.

    Außerdem kann ich sehr lange über der Abbildung 1 grübeln, in der allerlei Signale in Klimaarchiven korreliert werden mit bekannten Dansgaard-Oeschger-Ereignissen (ihr merkt schon, ich versuche mich hier an Mnemotechnik durch häufiges Ausschreiben). Nicht zuletzt bin ich überrascht, wie viel der Eiszeit in diesen Warm-Einschüben (in Grau) verging. Was sich die damals schon allenthalben herumspringenden diversen Homo-Spezies wohl bei diesen Kapriolen gedacht haben?

    Grübeln kann ich, weil die Korrelation der meisten Signale per nacktem Auge nicht überzeugt: Kann sein, dass da im grauen Bereich was anderes passiert als im weißen, kann aber auch nicht sein. Zugegeben: ordentliche Tests dürften fast immer eine robuste Korrelation ergeben. Für einen spezifischen Satz von Signalen versucht das das Fohlmeister-Paper, und zwar für Veränderungen im Isotopen-Verhältnis von 18O zu 16O, kurz δ18O genannt.

    Isotopentrennung: Warum, wann und, na ja, nochmal warum?

    Die mikroskopische Theorie dahinter ist einfach und plausibel: Ein Wasserteilchen mit dem schweren Sauerstoff ist, wenn es die gleiche Energie hat wie eines mit dem normalen 16er-Sauerstoff („im thermischen Gleichgewicht“, was in der Regel eine ausgezeichnete Annahme ist), etwa 5% langsamer als das normale. Das kommt von der kinetischen Energie E = mv2 ⁄ 2; wenn ihr das nach v auflöst und die Energien gleichsetzt, ist das Verhältnis der Geschwindigkeiten gleich der Wurzel des Verhältnisses der Massen, das hier 0.9 ist.

    Wenn das schwere H₂18O langsamer unterwegs ist, kommt es plausiblerweise weniger leicht aus einem Wassertropfen raus. Es wird daher im zurückbleibenden Wasser angereichert und im Dampf abgereichert sein; je mehr aus einem Wasserkörper verdunstet (also vielleicht: je wärmer es ist), desto höher ist das 18O darin angereichert.

    Zusätzlich ist das 18O, das in den Dampf kommt, ja immer noch langsamer und wird daher eher in beginnenden Tröpfchen steckenbleiben und dann irgendwann runterregnen, so dass das in der Atmosphäre verbleibende Wasser nochmal an schwerem Sauerstoff abgereichert sein wird.

    Fohlmeister et al hoffen zunächst auf den ersten Effekt: Je höher die Temperatur in einer Tropfsteinhöhle, desto höher ist die Verdunstungsungsrate, desto größer die Anreicherung, desto positiver das δ18O-Signal:

    Speleothem [d.h. aus Tropfsteinen] δ18O is enriched compared to δ18O in cave drip water by temperature-dependent fractionation processes during carbonate deposition on speleothem surfaces.

    Wenn das der einzige Dreher am δ18O wäre, wäre das ein ideales Klimasignal, denn – und ich finde das auch immer wieder verblüffend – schon fünf Meter unter der Erde ist vom Jahreszeitengang der Temperatur nichts mehr zu sehen, und vom Wetter schon gar nichts. Leider jedoch ist die Welt nicht so, was Fohlmeister et al durch ihre Qualifikation „compared to δ18O in cave drip water“ reflektieren: Das Wasser kommt ja woher, und die Isotopenzusammensetzung von Regenwasser kann ziemlich schwanken. Der Wikipedia-Artikel mit dem hübschen Titel δ18O sagt nur qualitativ:

    Folglich enthält das Oberflächenwasser der Ozeane in den Subtropen größere Mengen an 18O, denn dort ist die Verdunstungsrate erhöht. Geringere Mengen an 18O gibt es im Ozeanwasser mittlerer Breitengrade, wo es mehr regnet.

    Trotz dieser Vagheit stecken hinter all dem echte Präzisionsmessungen: Bei der englischen Wikipedia findet sich das hier als typische Größenordnungen des 18O-Gehalts:

    Grönländisches Eiswasser 0.1981%
    Luft 0.204%
    Meerwasser 0.1995%

    (wobei ich nicht weiß, ob „Luft“ nur den Wasseranteil der Luft meint; da ist ja glücklicherweise durchaus auch kräftig molekularer Sauerstoff drin). Um nun zu δ18O-Zahlen zu kommen, müssen winzige Signale dieser Art noch voneinander abgezogen werden – es ist beeindruckend, dass bei diesem numerischen Alptraum irgendwas Konsistentes rauskommt.

    Ich glaube, die Arbeit versucht sich mit folgender Passage aus dem Problem wahrscheinlich mit dem Klima schwankenden δ18O im Regenwasser rauszuwinden:

    [E]specially as we investigate climate-driven changes in δ18O of two climate states, climate-independent cave site-specific offsets will cancel. Hence, drip water δ18O variations as derived …
  • Das Verschwinden der Nacht in der Skulpturensammlung

    Eine Sternkarte von Pegasus und Andromeda, in der die Position des Andromeda-Nebels markiert ist.

    Für große Gefühle im September: Verpasst nicht, einen Blick auf den Andromedanebel zu werfen – es ist einfacher, als ihr vielleicht glaubt.

    Die Frankfurter Liebieghaus-Skulpturensammlung (Warnungen: Google Analytics, ohne Javascript kaputt, besonders bizarres Cookiebanner[1]) stellt Skulpturen aller Art aus. In diese Dauerausstellung ist derzeit in ziemlich origineller Weise eine Sonderausstellung mit dem farbigen Namen Maschinenraum der Götter eingeflochten. Diese will die Verbindung zwischen Kunst und Wissenschaft in etlichen Kulturen Eurasiens beleuchten. So kommt es, dass plötzlich Uhrmacherei aus dem goldenen Zeitalter des Islams vor stilistischen Erwägungen zu irgendwelchen christlich-atavistischen Pieta-Figuren diskutiert wird.

    Lobenswert finde ich auch das Bestreben, der irgendwie aus dem Zeitalter des Imperialismus in heutige Laienvorstellungen herübergeschwappten Erzählung entgegenzutreten, dass es Fortschritt grob im perkleischen Athen und bei uns seit der Renaissance gab, während ansonsten wegen römischer Dekadenz, finsterem Mittelalter und Nicht-Europa-Sein nicht viel los war. Allerdings lassen sich die KuratorInnen im antikolonialen Überschwang manchmal zu etwas kurzsichtigen Aussagen hinreißen, etwa, wenn sie über Keilschrifttäfelchen von ca. 2000 vdcE[2], die die Aussage des Satzes des Pythagoras enthalten (dürften) den entscheidenden Beitrag der griechischen Mathematik – die Idee des Beweises – unnötig kleinreden.

    Wenn Gründe wichtiger sind als Fehler

    Manchmal mag es auch nur etwas fachfremdes Sprachstolpern sein, beispielsweise beim an sich hinreißenden Modell des Riesensextanten in Ulug Begs Observatorium (kurz vor 1500 ndcE), wo es klingt, als sei dort die (Rate der) Änderung der Schiefe der Ekliptik bestimmt worden. Was Ulug Beg dazu gedacht hat, weiß ich nicht, aber wirklich bekannt ist die Samarkander Astronomie für die verblüffende Genauigkeit ihrer Bestimmung der Größe selbst. Das ganz zu recht: mit einem Detektor, der nur etwa 2 Bogenminuten auflösen kann (das menschliche Auge) eine Größe auf ein paar Bogensekunden genau zu bestimmen, ist bereits aufregend genug.

    Von solchen Kleinigkeiten hätte ich mich jedoch nicht an die Tastatur rufen lassen. Postwürdig fand ich erst die Beschriftung des Himmelglobus von ʿAbd ar-Raḥmān aṣ-Ṣūfī (im Westen – mir aber bisher auch nicht – eher als Azophi bekannt; wir sind jetzt ca. 950 ndcE), und zwar weniger wegen Fehlern als wegen der Gründe dieser Fehler:

    Ein fotografierter Text, in dem u.a. steht „die sogenannte Große Magellan'sche Wolke [...] und den Andromedanebel auf, zwei Galaxien des südlichen Sternenhimmels“

    Dass der_die KuratorIn den Andromedanebel auf den Südhimmel schiebt, ist ein Alarmzeichen für Menschen wie mich, die den Nachthimmel für ein schützenswertes Gut halten.

    Von einem dunklen Platz aus ist der Andromedanebel nämlich klar am Nordhimmel mit dem bloßen Auge zu sehen. Wer das Ding mal gesehen hat und vielleicht dazu erzählt bekam, dass die Photonen, die das Nebelfleckchen auf die Netzhaut zaubern, gut 2 Millionen Jahre unterwegs waren, dass es damit auch gleich das entfernteste Objekt ist, das Menschen ohne technische Unterstützung sehen können, wird den Andromedanebel, so bin ich überzeugt, nicht mehr vergessen. Wer ihn umgekehrt mit „sogenannt“ qualifiziert auf den Südhimmel packt, hat ihn wahrscheinlich noch nie im Himmelskontext gesehen.

    Das finde ich von der Naturbetrachtung her ebenso schade wie angesichts einer verpassten Chance, eine Kopfzahl auf der kosmischen Entfernungsleiter mitzubekommen: „Die nächste ordentlich große Galaxie ist 2.2 Millionen Lichtjahre von der Milchstraße weg“.

    Der Lichtverschmutzung ein wenig entkommen

    Aber leider haben wir praktisch unseren gesamten Lebensraum so beleuchtet, dass vermutlich viele Menschen noch nicht mal die Milchstraße mit eigenen Augen gesehen haben, geschweige denn den viel unauffälligeren Andromedanebel. Nennt mich einen Naturwissenschafts-Chauvinisten, aber ich halte das für eine Bildungslücke von nachgerade Homer'schen Ausmaßen.

    Die gute Nachricht ist: schon mit einem winzigen Fernglas ist der Andromeda-Nebel demnächst wieder auch aus etwas dunkleren Stadtstandorten (ein Friedhof müsste reichen) zu sehen, wenn es mal etwas aufklart. Dazu habe ich mit dem großartigen Stellarium die Suchkarte oben gebastelt, die den Anblick Ende September gegen zehn Uhr (Sommerzeit) am Abend wiedergibt, wenn ihr grob nach Osten schaut. Das große Viereck des Pegasus könnt ihr am realen Himmel nicht übersehen, und wenn ihr das habt, ist der sich nach links erstreckende Anhang der Andromeda mit den paar nach oben strebenden Sternen nicht zu verfehlen (die Richtungen beziehen sich auf die Abendsichtbarkeit).

    Peilt mit eurem Fernglas den obersten Stern der aufstrebenden Sternkette an und sucht (bei höheren Vergrößerungen; bei niedriger Vergrößerung habt ihr den Nebel direkt im Blick) dann etwas rum. Der Andromeda-Nebel ist nicht zu übersehen. Wenn euch das noch nicht ergreift, dann macht euch nochmal klar, dass auf eurer Netzhaut gerade Photonen platzen, die das letzte Mal mit Materie interagiert haben, als der Homo Erectus sich gerade irgendwie aus dem Stammgestrüpp des Menschen herauswand.

    Wo ihr dann schon mit einem Fernglas unter dem Herbsthimmel draußen seid, haltet weiter Ausschau nach dem Perseus – das ist ein Sternbild, das ein wenig aussieht wie ein π. Darin befindet sich – leicht durch Absuchen in Streifen findbar – der wunderschöne Doppel-Sternhaufen h und χ Persei, der mit bloßem Auge schon bei nur schwacher Lichtverschmutzung sichtbar (ihr würdet indirekt blicken müssen) ist, im Fernglas aber auch innerorts klasse aussieht. Klar, kein bisschen so bunt wie das, was die Presseabteilungen von NASA und ESA unter die Leute bringen – aber in einer ganz eigenen Art vielleicht noch aufregender.

    Fehlende Daten aus dem Süden?

    Der dunkelheitsvergessene Text der Liebieg-KuratorInnen stand übrigens bei einem schimmernden Himmelsglobus, zu dem es weiter hieß: „Fuat Sezgin und dem Frankfurter Institut für Geschichte der Arabisch-Islamischen Wissenschaften ist der Nachbau des Himmelsglobus des ʿAbd ar-Raḥmān al-Ṣūfī gelungen.“ Ich würde auch da leise Zweifel anmelden: Das überlieferte Werk von al-Ṣūfī ist ein Himmelsatlas mit flach projizierten Karten, und eine oberflächliche Recherche hat nichts von einem Globus aus seinem Umfeld erbracht, der hätte „nachgebaut“ werden können. Und wenn er wirklich einen gebaut hat, wäre der fast sicher nicht im „material design“ metallschimmernd gewesen, sondern zeittypisch kunterbunt.

    Aber sei es drum – wirklich spannend im Hinblick auf das, was wir Magellanische Wolken nennen, ist die Südpolkappe, die bei den Liebiegs so aussieht:

    Schimmernder Südpol eines Messing-Himmelsglobus mit eingelegten silberfarbenen Sternen.  Auf ca. 10 Grad um den Südpol herum befinden sich keine Sterne.

    Bemerkenswert dabei finde ich, dass al-Ṣūfī offenbar keine Daten für die südlichsten, sagen wir, zehn Grad des Himmels hatte – denn natürlich gibt es auch in der auf dem Globus leeren Zone Sterne. Um diese beobachten zu können, müsste mensch sich aber etwas südlich vom Äquator befinden, denn es ist selbst bei guten Bedingungen – die in den Tropen fast überall rar sind – sehr schwer, in der Nähe des Horizonts nützliche Sternbeobachtungen anzustellen. Nun ist zur Geschichte des Sansibar-Archipels (auf fast sieben Grad Süd) in der Wikipedia zu lesen:

    Als die ersten Besucher gelten arabische Händler, die im 8. Jahrhundert die Insel bereisten. […] Schon im 10. Jahrhundert hatten Araber Niederlassungen in der Region gegründet, die sich zu blühenden Republiken entwickelten.

    Arabische Reisende waren also zu al-Ṣūfīs Zeiten schon weit genug im Süden gewesen, und da sie Seefahrende waren, konnten sie vermutlich Sterne vermessen. Ich wäre neugierig, ob bekannt ist, warum ihre Erkenntnisse nicht in al-Ṣūfīs Sternkarten eingeflossen sind.

    So eine Frage, das gestehe ich gerne zu, ist vielleicht doch zu nerdig für ein Museum dieser Art. Die bei aller Mäkelei an Details sehr sehenswerte Ausstellung bei den Liebiegs ist noch bis zum 24.1.2024 zu sehen.

    Der unvermeidliche Bahn-Rant

    Abschließend: Wer in Frankfurt wohnt, mag vermuten, dass ich mit dieser Geschichte zu einer Ausstellung, die schon seit März läuft, ausgerechnet jetzt komme, weil ich das Museumsufer-Fest zum Besuch einzeln vielleicht nicht ganz so attraktiver Museen genutzt habe. Das stimmt. Dieses Geständnis gibt mir Anlass zu einem Mikrorant gegen die Bahn: An drei Tagen hintereinander war die jeweils von mir angestrebte Ausgabe des RE 60 von Frankfurt nach Süden durchweg ein schlimmer Schmerz.

    Am Freitag fiel er ganz aus, am Samstag veranstaltete die Bahn neben der quasi obligatorischen Verspätung von 30 Minuten in Weinheim ein munteres Bahnsteighopping in Frankfurt von 11 auf 13 auf 12, am Sonntag schließlich war die davor auf der Strecke fahrende Regionalbahn ausgefallen und deshalb der RE knallvoll.

    Mein Beileid denen, die sich als Beschäftigte in diesem Laden abkämpfen. Ich hätte längst sieben Nervenzusammenbrüche erlitten, wenn ich das alles organisieren müsste – und wäre nach der Reha Vollzeit in den Kampf um eine Rückkehr der BeamtInnenbahn eingestiegen.

    [1]Wo ich schon über Techno-Murks jammere: Dass die Audiokommentare zur Ausstellung weggeschlossen sind in einer „App“, die Rootzugriff für Apple oder Google voraussetzt statt (zumindest auch) über die Webseite zugänglich zu sein: das ist auch doof.
    [2]Vgl. diese Fußnote
  • Escher in der ODEG: Ein Bahnfenster mit merkwürdiger Parkettierung

    Spätestens seit M.C. Escher[1] ist Parkettierung, die überlappungsfreie Füllung der Ebene mit mehr oder minder interessanten Teilfächen, nicht nur unter MathematikerInnen Kult. Sie gehört, im Zweifel via Douglas Hofstadters immer noch lesenswerten Gödel Escher Bach, auch zu den Klassikern der HackerInnenkultur. So hat sie sogar eine Rolle in Neal Stephensons (in der ersten zwei Dritteln wirklich sehr lesenswerten) Buch Anathem, das, in meiner Interpretation, eine Welt beschreibt, in der die Pythagoräer gewonnen haben und deshalb die technische Ziviliation schon zweitausend Jahre früher begonnen hat.

    Lasst mich eine Szene aus dem Buch zitieren, in der sich zwei Angehörige der aus diesen Urzeiten nachgebliebenen pythagoräischen Orden wie folgt unterhalten:

    „Seine Berufung waren die Fliesen,“ sagte Lio. „Er hat die prächtige Verfliesung der Neuen Waschstube gefertigt.“

    „Den Geometriekram,“ sagte ich.

    „Ja. Aber es scheint, dass das eher eine Art Vorwand war. In Wahrheit hat er wohl ein uraltes Geometrieproblem verfolgt, das Teglon. Es ist ein Parkettierungsproblem, und es geht bis auf den Tempel von Orithena zurück.“

    „Ist das nicht der Kram, der Leute verrückt macht?“ fragte ich.

    (Meine Übersetzung; der letzte Satz mag wieder eine Referenz auf Gödel Escher Bach sein: vgl. Gödels Krankheit).

    An diese Geschichte musste ich denken, als ich neulich in einem ODEG-Zug („RE 1“ ist dessen Berliner Name; allerdings heißen dort erstaunlich viele Linien mit erstaunlich vielen Anfangs- und Endpunkten so) im abendlichen Gegenlicht an oder in den Fenstern über dem oberen Stockwerk der Doppelstockwagen ein schwaches Muster sah:

    Zarte, wabenähnlich angeordnete orangefarbene Linien vor einem verwaschenen Hintergrund.

    Zunächst dachte ich, das sei eine einfach irgendein zufälliges Muster, mit dem die Hersteller die Splitterschutz-Folie im Verbundglas verstärkt hat, oder vielleicht gar ein Artefakt des Produktionsverfahrens. Wer genau hinsieht, wird jedoch finden, dass die Striche in Wirklichkeit aus parallelen Unter-Strichen bestehen (schaut in der Näher der Fokalebene), was mich etwas ins Zweifeln gebracht hat. An den Zusammenhang mit Splitterschutz glaube ich jedoch immer noch, trotz der Versuchung, an Strom oder Sensor zu denken; mein zweiter Erklärungs-Kandidat wäre Scheibenheizung gewesen, aber welchen Sinn sollte so etwas in einem Passagierwaggon haben?

    Zufällig oder produktionsbedingt ist das Muster aber überhaupt nicht. Live ist das durch hinreichend flaches Ansehen schnell zu erkennen, sobald mensch eine richtige Achse wählt. Für hier habe ich das mal etwas entzerrt und horizontal und vertikal zwei Geschwisterzellen markiert:

    Das Wabenmuster von eben, nur mit weniger perspektivischer Verzerrung und mit blau und orange markierten Polygonen, die sich jeweils untereinander ähneln.  Die blauen Zellen trennt ein Gitterplatz, die orangefarbenen zwei.

    Mensch muss also zwei Zellen horizontal oder drei Zellen vertikal weitergehen, damit das Gitter wieder in sich übergeht. Dass so eine relativ kurze Periode ein auf den ersten Blick jedenfalls für mich so chaotisches Bild hergibt, hätte ich schon mal nicht gedacht.

    Eingestanden: Wahnsinnig wie bei Stephenson wird mensch davon nicht. Aber es hat mich immerhin dazu gebracht, nochmal nachzulesen, was Penrose-Kacheln sind (sind die hier nicht) und danach die vielen hübschen Bilder im allgemeinen Parkettierungs-Artikel der Wikipedia zu betrachten. Mensch muss schon ziemlich weit scrollen, bis die hier vorliegende Klasse kurz angerissen wird: Parkettierungen mit sonstigen unregelmäßigen Polygonen ist im Augenblick so in etwa 63% runter.

    Das OBEG-Muster besteht aus unregelmäßigen Sechsecken, was die Wikipedia derzeit noch nicht diskutiert. Sie erwähnt immerhin, dass derzeit nur 15 kachelbare konvexe Fünfecke bekannt sind. Da mensch mit Sechsecken platonisch (also: regelmäßige Kacheln und alle Kacheln gleich groß) parkettieren kann, würde ich raten, dass es demgegegenüber bei Sechsecken beliebig viele Parkettierungen gibt; an sich sollte es ja kein Problem sein, jede Ecke ein wenig oder auch ein wenig mehr zu ziehen, wenns nicht drauf ankommt, dass alle Sechsecke gleich sind.

    Was dann auf die Frage führt: Hatten die Leute, die dieses Glas gemacht haben, starke Gründe, die Ecken gerade so zu ziehen, wie sie es gemacht haben? Und damit gleich auf die nächste Frage: Warum haben sie nicht überhaupt einfach regelmäßige Sechsecke („Wabenmuster“) genommen? Dazu wäre meine Vermutung, dass mit dem gewählten Muster nur viel schwächere Vorzugsachsen existieren, von denen es bei einem Wabenmuster ja mindestens 12 sehr deutliche gibt.

    Dass Vorzugsachsen bei einem Splitterschutz eher unwillkommen sind, scheint mir plausibel. Aber ich habe keine wirkliche Ahnung, und weder Wikipedia noch Duckduckgo haben mir unter Schlagwörtern wie Verbundglas und Wabe oder Hexagon halbwegs flott irgendwas Vielversprechendes geliefert.

    Wer etwas weiß: ich freue mich über Einsichten per Mail.

    [1]Escher ist erst 1972 gestorben, weshalb das Urheberrecht sein Werk noch lange aus Plätzen wie der Wikipedia heraushalten wird. Glaubt eigentlich irgendwer, Escher hätte eines seiner Bilder nicht gemacht, wenn es jetzt in der Wikipedia wäre? Aber egal: Bis irgendwer den Kram wegklagt, könnt ihr Escher-Werke auf einer Beispiel-Aufgabenstellung von der TU Darmstadt anschauen.
  • Warum CRISPR im Elfenbeinturm bleiben sollte: Entholzte Pappeln

    Zur Frage technischer Lösungen sozialer Probleme – sagen wir: Klimawandel –, die mich neulich bewegt hat, ist mir gestern noch eine bemerkenswerte Ergänzung untergekommen, und zwar in den Deutschlandfunk-Wissenschaftsmeldungen vom 14.7. Darin hieß es:

    Mit Hilfe der Gen-Schere CRISPR sollen Bäume nachhaltiger werden.

    Ein Forschungsteam der North Carolina State University hat Gen-Scheren eingesetzt, um einen Baum mit möglichst idealen [!] Holzeigenschaften [!] zu entwickeln [!].

    Die Holzfasern der genomeditierten Pappeln sollen sich besonders gut für die Verarbeitung eignen, zum Beispiel in der Papierindustrie oder sogar für Windeln. Dabei entsteht möglichst ebenmäßiges Material mit einem geringen Anteil an Lignin, einem besonders harten holzigen Bestandteil von Bäumen. Laut der Publikation im Fachmagazin Science könnten durch den Einsatz der genmodifizierten Holzfasern die Emissionen in der Holzverarbeitung deutlich gesenkt werden.

    Ich finde, diese Meldung illustriert ganz gut, warum Hoffnungen auf „Innovationen“ zur Erreichung von mehr „Nachhaltigkeit“ so lange Illusionen sind, wie wir nicht von der Marktwirtschafts- und Wachstumslogik loskommen: Die „Nachhaltigkeit“ von der die Redaktion hier redet, besteht nur in einer weiteren Intensivierung unserer Dienstbarmachung der Natur, mithin also in weiteren Schritten auf dem Weg ins Blutbad (ich übertreibe vermutlich nicht).

    Und dabei habe ich noch nicht die Geschacksfrage erwogen, wie freundlich es eigentlich ist, irgendwelche Organismen so herzurichten, dass sie besser zu unseren industriellen Prozessen passen, Organismen zumal, die uns über Jahrhunderte unsere Wege beschattet und Tempolimits erzwungen haben:

    Eine Pappelallee mit breiter Auto- und akzeptabler Fahrradspur, im Vordergrund ein dickes Schild mit Geschwindigkeitsbegrenzung 70.

    Die Pappelallee auf dem Damm, der die Bodenseeinsel Reichenau mit dem Festland verbindet, im Juli 2019 bereits mit einem akzeptablen Fahrradweg.

    Statt also einfach viel weniger Papier zu produzieren und nachzudenken, wie wir von der ganzen unerfreulichen Einwegwindelei runterkommen, ohne dass das in zu viel Arbeit ausartet, machen wir lieber weiter wie bisher. Was kann schon schiefgehen, wenn wir riesige Plantagen ligninarmer Gummipappeln im Land verteilen, damit wir weiter Papier verschwenden und unsere Babys in Plastik verpacken können? Ich erwähne kurz: Bäume machen das Lignin (wörtlich übersetzt ja in etwa „Holzstoff“) ja nicht aus Spaß, sondern weil sie Struktur brauchen, um in die Höhe zu kommen.

    Die Schote liefert auch ein gutes Argument gegen die Normalisierung von CRISPR-modifizierten Organismen in der Agrarindustrie, die in diesen Kreisen immer weniger verschämt gefordert wird. Es mag ja gerne sein, dass ein ganzer Satz Risiken wegfällt, wenn mensch nicht mehr wie bei der „alten“ Gentechnik dringend Antibiotika-Resistenzgene zur zielgerichteten DNA-Manipulation braucht. Das fundamentale Problem aber bleibt: CRISPR gibt Bayer und Co längere Hebel, und die setzen die natürlich nicht ein, um die Welternährung zu retten – das ist ohnehin Quatsch, weil diese eine Frage von Verteilung, „Biosprit“ und vielleicht noch unserem Fleischkonsum ist und Technologie in allen diesen Punkten überhaupt nicht hilft. Sowieso nicht werden sie Pflanzen herstellen, die die BäuerInnen im globalen Süden besser durch Trockenzeiten bringen werden, Pflanzen gar, die diese selbst nachziehen und weiterentwickeln können („aber… aber… denkt doch an das geistige Eigentum!“).

    Nein. Sie werden den langen Hebel nutzen für Quatsch wie Pappeln, schneller einfacher zu gewinnendes Papier liefern – und das ist noch ein guter Fall im Vergleich zu Round up-Ready-Pflanzen (die höhere Glyphosat-Dosen aushalten) oder Arctic Apples (deren einziger Zweck zu sein scheint, dass Supermärkte ein paar mehr arme Schweine zum Apfelschnippeln hernehmen können, um nachher lecker-weiß leuchtende Apfelschnitzen teurer verkaufen zu können).

    Wie der industrielle Einsatz von CRISPR zu beurteilen wäre, wenn die dadurch verfolgten Zwecke ökologisch oder wenigstens sozial akzeptabel wären, kann dabei dahingestellt bleiben. Solange die Technologieentwicklung im Allgemeinen durch Erwägungen von „Märkten“ getrieben wird, ist es für uns alle besser, wenn allzu mächtige Technologien scharf reguliert sind. Und das gilt schon drei mal für Kram mit einem so langen Hebel wie CRISPR.

    Schließlich: Wenn ihr in die Meldungen reinhört, lasst sie doch noch laufen bis zu diesem genderpolitischen Offenbarungseid:

    Laut der US-amerikanischen Gesundheitsbehörde FDA ist fast die Hälfte aller Schwangerschaften in den USA ungewollt.

    Das passiert, wenn du ChristInnen deine Lehrpläne gestalten lässt – und es ist weiterer Hinweis darauf, dass reproduktive Selbstbestimmung ein zentraler Baustein einer menschenwürdigen Gegenwart und Zukunft ist.

  • Von Tullymonstren und den Geschwistern der Wirbeltiere

    Als in den Meldungen der Deutschlandfunk-Sendung Forschung aktuell am 17.4. ab Minute 3:02 vom „Tullymonster“ (zoologisch Tullimonstrum gregarium, was auch nicht so viel schmeichelhafter klingt) die Rede war, wurde ich schon deshalb neugierig, weil ich wissen wollte, ob das arme Tier wohl die Bezeichnung „Monster“ verdient.

    Nachdem ich den zugehörigen Wikipdia-Artikel überflogen und die dort gezeigte Lebendrekonstruktion mit einer Art Augenstange[1] und einem Rüssel mit einer stilettbesetzen Spitze betrachtet hatte, fand ich die Bezeichnung zumindest naheliegend, um so mehr als die Viecher nur mal kurz im Oberkarbon (also vor ca. 300 Megajahren) und damit näher an der nachgerade außerirdischen Ediacara-Fauna als an uns lebten. Vermutlich gibt es nicht mal mehr Nachkommen, die die Monster-Rede beleidigen könnte. Trotzdem will ich hier lieber von Tullytier sprechen, vor allem zu meiner eigenen Tippfreude.

    Drei Grafiken des gleichen Fossils: ein Farbfoto mit etwas erkennbaren Strukturen, eine Höhenkarte aus einem 3D-Scan, bunt aber für Laien unzugänglich, sowie eine Skizze mit einer Erklärung der erkennbaren features.

    Um eine Vorstellung zu bekommen, warum sich ernsthafte Menschen über Jahrzehnte hinweg streiten können, ob die Tullytiere Rückgrat hatten oder nicht, lohnt sich ein Blick auf die Abbildung 1 im Mikami-Paper; oben ein Farbfoto eines vermutlich recht gut erhaltenen Tieres, darunter ein 3D-Scan, auf dem ich noch weniger erkenne (Rechte: Wiley).

    Aus Sicht der Biologie sind die Tiere jedenfalls monströs, weil niemand so recht weiß, was sie sind, auch wenn in Nature schon 2016 überoptimistisch verkündet wurde: „Scientists Finally Know What Kind of Monster a Tully Monster Was“. Die Ansage war, es sei ein Wirbeltier gewesen, fast schon ein modernes. Eingestanden: die Leute haben damals methodisch schweres Geschütz aufgefahren, etwa Augenuntersuchungen mit Röntgen-Spektroskopie, und zwar mit extrateuerem Synchrotron-Röntgen. Wer Anträge für Zeit an so teuren Geräten durchbringt, mag durchaus Grund zu Selbstvertrauen haben (Beweis durch Förderung: „How could three different funding agencies be wrong?“).

    3D-Scans aus der Lagerstätte

    Nature hin, Edel-Röntgen her: Dem Schluss von 2016 widerspricht – wie im DLF berichtet – mit einiger Zuversicht Tomoyuki Mikami vom Japanischen Nationalmuseum für Natur und Wissenschaft, der mitsamt Kollegen von verschiedenen japanischen Geo- und Bio-Instituten das Paper „Three-dimensional anatomy of the Tully monster casts doubt on its presumed vertebrate affinities“ im Wiley-Blatt Paleontology untergebracht hat (doi:10.1111/pala.12646; die DOI-Ankunftsseite (um mal was für „landing page“ vorzuschlagen) ist leider eine schlimme Javascript-Hölle, was es um so trauriger macht, dass es das Paper noch nicht zu libgen geschafft hat).

    Hauptsächliche Datenbasis der Untersuchungen waren 3D-Scans von 153 Tullytier-Fossilien und 75 anderen Fossilien aus der einzigen Tullytier-Fundstelle, der „Lagerstätte“ (ein süßer wissenschaftlicher Teutonizismus) Mazon Creek ein Stück südwestlich von Chicago. Insgesamt sind in dem Schiefer dort deutlich über 1000 Tullytiere gefunden worden. Dazu kommen noch ein ganzer Haufen weiterer Tiere, die jetzt nicht unmittelbar ins Wortfeld „Versteinerung“ gehören: 42% der tierischen Mazon Creek-Fossilien sind Quallen.

    Die Scans sollen eine Auflösung von beachtlichen 150 μm haben (in unseren furchtbaren Computereinheiten rund 180 dpi). Ich wollte wissen, wie viele Gitterpunkte bei so einem Scan rauskommen werden. Grob ist das die Oberfläche des Fossils geteilt durch die Größe eines Pixels, also für ein grob kugeliges Gebilde von rund 2r = 30  cm Größe (jaja: das ist auch keine schmeichelhafte Beschreibung eines Tullytiers) 4πr2 ⁄ ρ2. Mit der Auflösung ρ = 1.5 × 10 − 4  m liefert das etwas wie 12 Millionen Mesh-Punkte. Danke, liebe GamerInnen, dass ihr die Entwicklung von Systemen finanziert habt, die sowas in annehmbarer Zeit visualisieren.

    Obendrauf haben Mikami et al für einen Rüssel mit „Stiletten“ – von „Zähnen“ reden sie lieber nicht, weil das sehr nach Kiefern und damit nach Wirbeltieren klingt – vornedrin ein hochauflösendes CT (10 μm) gewonnen, um dieses mundähnliche Ding mit unstrittigen Kiefern vergleichen zu können. Ich spoilere: die Autoren finden, dass das schon von der Form her (wiederum haben sie mit 3D-Visualisierung operiert, um das zu belegen) was ganz anderes ist als jedenfalls die Kreatinraspeln, die Schecken haben, so dass sie diese Verwandtschaft für die Tullytiere ausschließen.

    Was versteinert wie? Hauptachsen!

    Der methodische Teil des Papers geht vor allem bei so marginalen Spuren zentralen Frage nach, welche Strukturen sich in dem Schiefer wie gut erhalten, und versuchen, dem eine etwas quantitativere Basis zu geben. Dabei – und sie glauben, damit paläontologisches Neuland zu betreten – schreiben sie eine Matrix mit neun möglicherweise erhaltenen Körperteilen (die Augenstange, die Schwanzflosse, der Halbmond im Kopfbereich usf) auf der einen Achse und ihre 153 Proben auf der anderen. Wo sie so ein Körperteil sehen, steht in der Matrix eine Eins, wo nicht, eine Null, wo das Fossil gar nicht so weit geht, eine Fehlmarkierung. Über diese Matrix nun lassen die Autoren eine Hauptkomponentenanalyse laufen.

    Das ist ein relativ cleveres Verfahren aus der linearen Algebra, das die Matrix als Körper in einem 153- (das ist die Zahl der Proben) -dimensionalen Raum auffasst und dann möglichst viele Dimensionen so zusammenzwingt, dass maximal viel Volumen übrig bleibt. Die (bei vielen Problemen nachweislich gute) Vorstellung ist, dass mensch die „wesentlichen“ Eigenschaften, die in 153 Dimensionen nie erkennbar sind, in zwei oder drei Dimensionen sehen kann und in den zusammengequetschen Dimensionen vielleicht eher so Rauschen war. Im vorliegenden Paper lassen Mikami et al zwei Dimensionen übrig und haben also ein neue Matrix, in der jedem Körperteil zwei Zahlen zugeordnet sind.

    Per Draufgucken sind diese Zahlen zwar nicht unbedingt leicht zu interpretieren. Es ist aber glaubhaft (wenn auch nicht offensichtlich), dass Körperteile, deren zwei Zahlen nahe beieinander liegen, auch ziemlich ähnlich versteinern. Deshalb gibt es Abbildung 3 der Studie:

    Plot mit Caption; die Punkte im Plot sind mit Abkürzungen von Körperteilen versehen; ein wirklich auffälliges Muster ist nicht zu erkennen.

    Rechte: Wiley

    „Taphonomically“ in der Caption bedeutet „was das Versteinern angeht“. Wirklich sehr auffällige Strukturen sind in der Grafik kaum zu erkennen, und aus meiner Sicht ist auch die Einsicht, dass die Schwanzflosse und das Rechteck hinter den Augen ziemlich ähnlich versteinern, weder sonderlich aufschlussreich noch arg naheliegend.

    Vielleicht doch lieber qualitativ arbeiten

    Leider wird die eben formulierte Erwartung, dass ähnlich versteinernde Körperteile in so einem Graphen an ähnlichen Stellen liegen sollten, sofort unvernünftig, wenn andere Organe bei anderen Tieren dazukommen, denn es ist vermutlich fast unmöglich, die auf diese Weise eingeführten „verschiedenen“ Dimensionen so zusammenzuquetschen, dass die sich ergebenden gequetschten Dimensionen in einen gemeinsamen Plot gemalt werden können.

    So taugt die Methode also wahrscheinlich nicht wirklich, um etwa zu argumentieren: „Eine ordentliche Wirbelsäule liegt bei (20,-15), das axial band beim Tullytier aber bei (10,23), und drum hat das Tullytier keine Wirbelsäule.“ Die Autoren sagen (glaube ich) nirgends, dass sie das vorhatten, und sie zeigen auch nirgends entsprechende Plots von anderen Spezies. Aber ich hätte probiert, irgendwas zu basteln, damit ich sowas machen kann. Ich wäre (wie vielleicht die Autoren) ziemlich sicher gescheitert.

    Dennoch überzeugt mich am Paper, dass sie 75 weitere Fossilien anderer Spezies aus der Fundstätte gescannt haben, und zwar insbesondere bekannte Wirbeltiere. Auf diese Weise können sie dann eben qualitativ argumentieren, beispielweise, dass eine rechteckige Struktur hinter den Augen wohl eher nicht ein Hirnlappen sein wird, da sich dieser ja dann auch bei den bona fide-Wirbeltieren hätte erhalten müssen – was nicht der Fall ist.

    Ein ähnliches Vergleichs-Argument funktioniert für Kiemen:

    However, we found no evidence for gill pouches or other pharyngeal arch-associated structures in our comprehensive 3D dataset. Branchial structures are otherwise clearly preserved in specimens of the stem lampreys [Neunaugen] Mayomyzon and Pipiscius, from Mazon Creek, which is incompatible with the mode of preservation in Tullimonstrum.

    Die Erhaltung der Segmentierung des Körpers vergleichen die Autoren mit Gliederfüßern und finden, dass deren Chitin-Exoskelette schärfer und weniger plattgedrückt erhalten sind. Das Tullytier wird also auch nichts in der weiteren Umgebung von Insekten gewesen sein.

    Kurz nach der Erfindung der Knochen: Schädellose und Manteltiere

    An dieser Stelle habe mich mich begeistert in die Taxonomie ein wenig oberhalb der Wirbeltiere gestürzt: Dort sind die Chordatiere. Wikipedialogisch finde ich es bemerkenswert, dass irgendwer ein ganzes Kapitel zur internationalen Begriffsgeschichte in diesen Artikel geschrieben hat und damit fast ein Drittel seiner Gesamtlänge bestreitet.

    Vermutlich ist so eine textkritische Herangehensweise in diesem Geschäft kein Fehler, worauf auch Mikami et al am Ende ihrer Arbeit hinweisen:

    Die einzigartige Morphologie von Tullimonstrum ist kaum vergleichbar mit der irgendeines anderen bekannten Tieres und ruft uns so ins Bewusstsein, dass in der Erdgeschichte viele weitere interessante Tiere existiert haben, die nicht als Fossilien erhalten sind, die jedoch für ein Verständnis der vollen Evolutionsgeschichte der Metazoa [ich musste auch nachsehen: das sind die vielzelligen Tiere] unverzichtbar sind.

    Chordatiere haben jedenfalls bereits einen Haufen der Dinge, die wir für Tiere ziemlich normal finden (Herz, irgendwas wie einen Darm) und haben angefangen, eine Struktur auszubilden, die ich als Laie auch für eine Wirbelsäule halten könnte, die aber bei den Geschwisterstämmen der Wirbeltiere anders rausgekommen sind.

    Diese Geschwister sind einerseits die extragruselig benannten Schädellosen (deren überlebende Vertreter normale Menschen wohl für Fische halten würden) und andererseits die Manteltiere, die aus meiner Sicht erheblich bizarrer sind, schon, weil sie in ihrem Körper Zelluose verbauen, also …

  • Eine Xerox 860 in Basel

    Wer einen Blick auf die Verteilung der Teilnehmenden am Museumspass wirft, kann Basel (mit derzeit 67 Einrichtungen in der Region) nicht übersehen: Die Konzentration von Museen und ähnlichem rund um das Rheinknie ist beeindruckend. Deshalb habe ich letzte Woche ein paar Tage dort verbracht und allerlei gesehen, gelernt beziehungsweise bewundert. Und weil eh schon viele von Tinguely reden, möchte ich drei andere Museen hervorheben.

    Erstens will ich für die wunderbare Basler Papiermühle (jaja, die Webseite ist mit Crapicity 33.3 etwas lästig) Werbung machen, in der BesucherInnen Papier schöpfen, Antiqua mit Metall- oder Vogelfedern schreiben und sehen können, wie haarig es war, mit Schreibmaschinen fehlerfreie Texte zu Papier zu bringen.

    Mit besonderer Hingabe habe ich als großer Fan von TeX das Stockwerk mit den Satzmaschinen erkundet. Da steht zum Beispiel noch eine funktionsfähige Linotype, also eine Maschine, in der mit flüssigen Bleilegierungen hantiert wurde, um mehr oder minder automatisch Druckzeilen zu setzen. Welch ein Wunder der Technik!

    Ein komplizierter Mechanismus mit Tastatur und einem stolzen Typenschild „Linotype“ am ca. zwei Meter hohen Gehäuse.

    Mit solchen Höllenmaschinen wurden noch in den 1970er Jahren Zeitungen und Bücher gesetzt. Weil ein Tippfehler dabei zumindest das Neugießen einer ganzen Zeile nach sich zog – an einen automatischen Umbruch eines möglicherweise folgenden Restabsatzes war gar nicht zu denken – waren SetzerInnen wichtige Menschen, und ihre Gewerkschaften hatten erhebliche Macht.

    Dann jedoch kamen allmählich ordentliche Rechner in die Setzereien. Die Papiermühle entstand aus kommerziellen Unternehmen, die die Entwicklung von Unix, troff und TeX in den 1970er Jahren noch verschlafen haben. Daher findet sich dort nur die professionelle Konkurrenz, etwa in Form dieser erstaunlichen Maschine von 1980:

    Ein schreibtischhoher Rechner neben einem Schreibtisch mit einem Hochkant-Monitor und einer großen gelben Tastatur.

    Es handelt sich um eine Xerox 860, eine für „Textverarbeitung“ geschaffene Maschine mit Schwarz-auf-Weiß-Display (ich vermute allerdings, dass es furchtbar geflimmert hat) und, wie ich in Basel zum ersten Mal gesehen habe, sogar einem Touchpad (ganz rechts in der Tastatur). 1980!

    Ich hätte gerne gesehen, was das Touchpad wohl gesteuert hat, aber leider war ich zu feige, das Museumspersonal um eine Demonstration zu bitten. Wahrscheinlich ist das Teil aber tatsächlich nicht mehr lauffähig, und zwar weil die Software schon von Diskette kam, wenn auch von den riesigen Floppies der ersten Generation mit einem Durchmesser von acht Zoll (das ist so in etwa A4-Breite). Ich wäre überhaupt nicht überrascht, wenn alle Floppies dieser Art inzwischen komplett durch wären – und wenn sie es nicht sind, würde ich erwarten, dass die Antriebsriemen der gigantischen Laufwerke inzwischen so ausgeleiert sind, dass auch von guten Floppies nichts mehr zu lesen wäre.

    Aber wer weiß? Wenn ich nochmal in der Papiermühle bin, muss ich einfach mal fragen – allein der Headload[1] von Laufwerken in der Größe wird mir wahrscheinlich das Herz wärmen, denn als ich in den späten 1980er Jahren Zivildienst im Krankenhaus leistete, gab es die Achtzöller auch noch im Siemens-CT des Hauses (während der Rest der Welt bereits die auf sie folgenden 5 ¼-Zöller zugunsten der 3 ½-Zöller, die noch heute viele „Speichern“-Icons zieren, beerdigt hatte). Es wäre jedenfalls schon schön, die markerschütternden Headloads nochmal zu hören.

    Ansonsten illustriert die Papiermühle immer wieder überdeutlich, wie mühsam und arbeitsintensiv jeder Schritt der Produktion von Druckmaterial – Papierherstellung, Satz, Vervielfältigung, Binden – noch vor fünfzig Jahren war. Wie eigentlich immer, wenn ich irgendwo sehe, wie viel wir automatisiert haben (oder automatisieren könnten), frage ich mich ernsthaft, wie es sein kann, dass wir ganz wie zu Zeiten unserer Großeltern immer noch 40 Stunden die Woche (oder mehr) lohnarbeiten. Wieso genau lassen wir uns mit all den dämlichen „Dienstleistungen“, Wettbewerben, Geschäftsführungen und Sicherheitsjobs beschäftigungstherapieren, statt endlich mal die Produktivitätsfortschritte in frei und sinnvoll verwendbare Zeit zu übersetzen?

    Beispiele für das, was Menschen mit frei verwendbarer Zeit anfangen könnten, sind sehr schön versammelt im zweiten Baseler, nun ja, Museum, das ich hier erwähnen möchte: Den Spielzeug Welten. Jaklar, das Leerzeichen ist doof, und ich gebe offen zu, dass ich angesichts des des prätentiösen Namens vielleicht eher mit einem Abriss über das Spiel in der Kultur gerechnet hätte, mit Halma, Spielkarten (zu denen es übrigens in der Papiermühle einiges gab), Modelleisenbahnen oder (jetzt wieder aktuell) Spielzeugpanzern.

    Das sind die „Spielzeug Welten“ nicht. Stattdessen sind fast ausschließlich Unmengen von Teddybären und Puppenstuben zu sehen und, zwischen herzig und verschroben, haufenweise Puppendioramen, die ganz klar niemals für Kinder gedacht waren. Leider ist das alles nicht so überwältigend gut kuratiert (meint: beschriftet). Selbst mit Infos aus bereitstehenden Computern wird der Kontext nicht immer ganz klar, was ich besonders traurig fand bei den aus meiner Sicht bizarrsten Exponaten: Einer Puppenstuben-Kapelle mit Kruzifix, Priester und allen Schikanen (welche blasphemischen Spiele hätten damit stattfinden sollen?) sowie einer Folterkammer als Puppenstube:

    In Bauntönen gehaltenes Modell einer Folterkammer mit Streckbank, eiserner Jungfrau, Pranger usf.

    Hier hätte mich sehr interessiert, wer dieses Ding wann wo und für wen gemacht hat.

    Ein lobendes Wort will ich noch zu einem dritten Baseler Museum loswerden: Im Naturhistorischen Museum gibt es neben vielen sorgfältig arrangierten Tierpräparaten vier besonders wunderbare Exponate, die den Fortgang der wissenschaftlichen Vorstellungen der Gestalt von Iguanodonen nachzeichneten. Zwischen den ersten Versuchen von Mantell im frühen 19. Jahrhundert (inklusive dem Daumenknochen als Nashorn) und den heutigen Zweibein-Läufern bestehen beeindruckend wenig Parallelen.

    Vielleicht wäre noch ein Hauch mehr Text zur Frage, warum sich die Vorstellungen so geändert haben, hilfreich gewesen, aber als Illustration des Wissenschaftsprozesses ist sowas einfach großartig. Leider spiegelte das Glas, hinter dem die Modelle standen, ziemlich schlimm; aber diese schnelle Montage mag dennoch einen Eindruck geben von der Evolution der Iguanodon-Vorstellungen (von links oben nach rechts unten):

    Vier Dinosauriermodelle von etwas Leguanähnlichem mit Einhorn über eine Eidechse mit breitem Schädel über ein Kängurudings bis zu einer vegetarischen Variante von T. Rex.
    [1]Für die, die nur noch kleine oder gar keine Floppies mehr kennen: die Schreib-Lese-Köpfe dieser Laufwerke saßen auf einer Art Hebel-Konstruktion, auf der auch der Schrittmotor montiert war, der sie über die Spuren bewegte. Beim Zugriff auf Daten klackte die ganze Moped mit einem ziemlich satten Sound gegen einen Anschlag, was als Headload bezeichnet wurde. Das Booten eines Rechners von Floppy erzeugte so einen für Betriebssystem und Version charakteristischen Schlagzeug-Track; bis heute habe ich CP/M-86 auf dem Siemens PC 16/10 im Ohr…
  • Iberische Schwertwale gegen Segelboote 50:0

    Größenvergleich eines Schwertwals zu einem Menschen (der vielleicht ein Drittel der Länge hat)

    Bei der Lektüre dieses Posts sollte mensch den Größenvergleich zwischen Menschen und Schwertwalen im Kopf haben (CC-BY Chris Huh).

    Wer meinen Beitrag zu menschenverzehrenden Pelztieren gelesen hat, wird nicht überrascht sein, dass mich ein Post auf Fefes Blog gestern auf Anhieb fasziniert hat. Er hat berichtet von „Angriffen“ von Orcas (auf Deutsch: Schwertwale; sachlich sind das besonders große Delfine, was Free Willy und Fortsetzungen geschickt kommerzialisiert haben) auf Boote im Atlantik vor Spanien, Portugal und noch ein bisschen Frankreich. Was immer da nun ganz aktuell passiert: Schon nach ein paar Klicks bin ich bei einem ordentlichen wissenschaftlichen Artikel gelandet, den ich mit einiger Faszination gelesen habe.

    Es handelt sich um die 2022 im Wiley-Blatt Marine Mammal Science erschienene Studie „Killer whales of the Strait of Gibraltar, an endangered subpopulation showing a disruptive behavior“, geschrieben Ende 2021 von Ruth Esteban vom Walmuseum in Madeira sowie KollegInnen aus einer beeindruckenden Menge verschiedener Institute aus den „betroffenen“ Ländern (doi:10.1111/mms.12947; leider gepaywallt und noch nicht bei libgen).

    Bekannte Täterinnen

    Vorneweg: Die Tiere heißen auf Englisch „killer whale“, nicht, weil sie gerne Menschen umbringen – tatsächlich hat sich offenbar noch kein wildlebender Orca für Menschen als Nahrung interessiert –, sondern weil sie ihre Beute gerne in einem recht blutigen Spektakel zerlegen. Dennoch fand ich die Vorstellung, dass da ein fast zehn Meter großes Tier mit jedenfalls sehr variablen Nahrungspräferenzen etwa an meinem Schlauchboot rumuntersucht, ganz entschieden gruselfilmtauglich.

    Meine erste Überraschung in dem Paper war nun, dass die „Täterinnen“ der Übergriffe auf die Boote wohlbekannt sind: Beim letzten Zensus im Jahr 2011 bestand die fragliche Population überhaupt nur aus 39 Individuen. Aufgrund von reichlichen Film- und Fotoaufzeichnungen konnten nun Esteban et al identifizieren, welche von denen sich an den Booten zu schaffen machten. Es stellte sich heraus: Die 50 „Interactions“ im Zeitraum von (im Wesentlichen) Mai bis Oktober 2020 gingen auf zwei Gruppen aus nur ingesamt 9 Tieren zurück.

    Eine sorgfältig zusammengestellte Tabelle der tierischen Kampagnen im Paper zeichnet recht deutlich das Bild, dass die Schwertwale spätestens ab August 2020 angefangen haben, praktisch täglich Bootfahrende zu belästigen. Mensch könnte den Eindruck gewinnen, sie hätten ein neues Hobby entdeckt.

    Ein Faible für Segelyachten

    Esteban et al schlüsseln das Walspielzeug nach Bootstypen auf. Populär sind vor allem Segelboote, was ich gut verstehen kann, denn ohne rotierende Schiffschraube sind die Dinger aus Orcasicht deutlich weniger gefährlich. Immerhin haben sie aber drei Mal auch Zodiacs untersucht, also etwas bessere Schlauchboote – hoffenlich hatten die Leute in den Nussschalen (die ja vermutlich deutlich kleiner waren als jeder einzelne der Wale) stahlharte Nerven.

    Zumindest im von Esteban beobachteten Zeitraum haben die Schwertwale die Boote aber erkennbar nicht kaputt machen wollen; sie haben eher für eine halbe Stunde oder so an ihnen rumgespielt, wobei sie fast immer das Steuerruder besonders interessierte. „Rumspielen“ ist mein Wort, aber die Beschreibung aus dem Paper legt das Wort schon sehr nahe:

    Wenn die Wale engeren Kontakt aufnehmen, üblicherweise am Steuerruder, drücken sie entweder mit ihren Köpfen und machen eine Hebelbewegung mit ihren Körpern, um das Blatt zu drehen. In manchen Fällen haben sie das Boot dabei um fast 360° gewendet. Je höher die Geschwindigkeit des Bootes oder je stärker die Besatzung um die Kontrolle des Steuerrades rang, desto mehr und stärker drückten die Wale in der Regel.

    Angefangen haben sie üblicherweise bei guter Fahrt des Bootes (gerne was wie 15 km/h, was für so einen Schwertwal kein großes Problem ist). Wenn das Schiff angehalten hat, ist es ihnen langweilig geworden und sie sind weitergezogen. Die Ausgänge „kaputt“, „beschädigt“ und „kein Schaden“ (jeweils im Hinblick auf das Steuerruder) sind dabei so in etwa gleich verteilt.

    Ich finde ja schon bemerkenswert, dass gerade mal neun Individuen so ein Bohei die Küste rauf und runter verursachen können, auch wenn es schon ziemlich große Tiere sind. Tatsächlich haben ihre Exploits die staatlichen Autoritäten zur Sperrung von Seegebieten gebracht:

    The Spanish Maritime Traffic Security authorities prohibited the coastal navigation for small (<15 m) sailing vessels where interactions were concentrated at the time.

    Vorboten des Schwarm-Szenarios?

    Eine wirklich gute Erklärung dafür, was den Walen das Interesse an den Steuerrudern beibrachte, haben auch Esteban et al nicht. Die Möglichkeit, sie würden damit ein unangenehmes Erlebnis etwa mit Fischern verarbeiten (die iberischen Schwertwale klauen gerne Thunfische aus menschlichen Fanggeräten), finde ich jedenfalls nicht plausibel, denn Fischerboote scheinen sie nur aus Versehen mal angerempelt zu haben.

    Hier hätte ich mal eine Geschichte, die ich gerne glauben würde: die Wale fanden die Ruhe während der Corona-Lockdowns zwischen März und Mai total klasse und dachten sich, sie könnten das wieder haben, wenn sie den FreizeitskipperInnen genug auf die Nerven fallen; die Fischerboote würden sie schon hinnehmen, solange die ihnen Thunfische fangen.

    Der Charme dieser Geschichte: Wenn die spanischen Behörden in der Folge das Meer sperren, wenn die Wale irgendwo auftauchen, wäre das nette eine positive Konditionierung: die Spiele der Wale würden wirklich für mehr Ruhe am Wasser sorgen. Das aber würde schön erklären, warum sich das Verhalten ausbreitet – wenn es das denn wirklich tut.

    Ob das gegenüber dem Stand vor anderthalb Jahren wirklich so ist: Mal sehen, was Esteban et al demnächst so veröffentlichen. Ich habe trotz meines generellen Grusels vor ORCID (keine Verwandschaft mit Orca) kurz einen Blick auf Ruth Estebans ORCID-Seite geworfen. Jetzt gerade ist das besprochene Paper die letzte Publikation. Aber angesichts des Medienrummels um ihre Schwertwale wirds dabei sicher nicht bleiben.

    Unterdessen: Ebenfalls von 2021 ist dieser Vortrag von Ruth Esteban, in dem sie Videos der Walbegegnungen zeight. Wie viel nützlicher wäre der, wenn sie eine vernünftigte Lizenz draufgemacht hätten!

    Nachtrag (2023-06-25)

    In Forschung aktuell vom 26. Mai gab es eine schöne Fortsetzung dieser Geschichte, die den Score auf 500:0 legt. Gegen Ende werden Verhaltenstipps diskutiert. Vor allem: Einfach nicht dort segeln, wo die Orcas sind. Wenn die Leute das wirklich machen, wäre ich neugierig, was die Reaktion der Orcas ist…

  • Mit GPS und KI auf der Spur von Hollandrädern

    Hollandoides Fahrrad mit Unmengen von Vogelkot drauf.

    Dieses Fahrrad, fotografiert 2012 am Heidelberger Hauptbahnhof, wird wahrscheinlich keinE FahrraddiebIn mitnehmen. Das Weiße da sind die Ausscheidungen der vielen Halsbandsittiche, die auf den Bäumen am Bahnhof schlafen.

    In Forschung aktuell vom 16. Februar war in den Wissenschaftsmeldungen Folgendes zu hören:

    Die Forschenden statteten 100 Fahrräder mit Ortungssensoren aus und stellten sie abgeschlossen an öffentlichen Plätzen innerhalb der Stadt ab. Innerhalb eines Jahres wurden 70 der Räder gestohlen. 68 davon konnten anschließend in Amsterdam geortet werden, knapp ein Drittel davon in der Nähe von Second Hand-Läden oder Fahrradschwarzmärkten.

    Allein das Wort „Fahrradschwarzmärkte“ hat mich eifrig im Geiste von Graham Greene fantasieren lassen, zumal ich inzwischen der traurigen Thematik Fahrraddiebstahl etwas abgeklärter gegenüberstehe als einstmals: Mein letzter Fahrradverlust durch Diebstahl liegt über 20 Jahre zurück (der hat allerdings wirklich weh getan: an dem Rad war ein Schlumpf Mountain Drive dran). Da ich zudem mit Abschließen nicht mehr allzu sorgfältig bin, hatte ich das Problem Fahrraddiebstahl schon fast für eine Sache der Vergangenheit gehalten.

    Aber erstens dürfte dieser Eindruck nur auf einen durch meine täglichen Wege bedingten Selektionseffekt zurückgehen, und zweitens verdient jede Fahrradforschung Aufmerksamkeit. Drittens, nun ja, hätte ich den 1990ern, als mir Räder fast schneller geklaut wurden als ich sie nachbasteln konnte, in dieser Frage beinahe autoritären Versuchungen („Todesstrafe für Fahrraddiebe“) nachgegeben.

    Forschung der Stadt Amsterdam

    Also: Ich musste die Arbeit hinter der DLF-Meldung lesen. Es handelt sich um „Tracking stolen bikes in Amsterdam“ von Titus Venverloo, Fábio Duarte und Kollegen vom MIT[1] und der Uni Delft, doi:10.1371/journal.pone.0279906, erschienen in PLoS ONE am 15. Februar. Mein erster Wow-Moment war die Finanzierung des zugrundeliegenden Forschungsprojekts: Das Geld kam nämlich insbesondere von der Stadt Amsterdam.

    Wer nun allerdings meint, in den Niederlanden wären die Autoritäten generell mehr interessiert an der Wiederbeschaffung geliebter Fahrräder, dürfte sich täuschen:

    One of the major hurdles to tackling bike theft is that it is typically seen as a low police priority, and that it is not addressed systematically,

    schreiben Vernverloo et al, was sich mit den Erfahrungen deckt, die ich mit der Heidelberger Polizei gemacht habe, als ich Mitte der 90er wie bereits gebeichtet weich geworden war im Hinblick auf autoritäre Versuchungen und die Staatsgewalt in einem Fall um Hilfe bei der Wiederbeschaffung eines gestohlenen Fahrrads bat. Nicht nur ich habe das schnell wieder aufgegeben. Im Paper heißt es:

    The municipality [Amsterdam] considers that 40% of the victims of bike theft report it, while Kuppens et al [nicht online] found that in 2012, only 17.1% of the people in the Netherlands reported bike theft, decreasing to 14.2% in 2019.

    Dabei sind die Fahrradbeklauten nicht nur eine kleine, radikale Minderheit, die als solche die Polizei abgeschrieben hat:

    The regional safety monitor of Amsterdam even indicates that in 2019 the number of residents who experienced bike theft was 18%,

    Nochmal Wow. An sich ist es ja erfreulich, wenn Menschen in großer Zahl autoritären Versuchungen entsagen. Andererseits rangiert Fahrraddiebstahl in meiner privaten Rangliste verabscheuungswürdiger Verhaltensweisen nur knapp hinter Waffenhandel, und ich werde besonders empfänglich für wenig freundliche Methoden zum Management sozialer Probleme, wenn meine Verlustschmerzen[2] schnöde Geldgründe haben:

    As such the stolen bike market of an estimated 600 million euros in the Netherlands alone remains a very large, somewhat neglected problem.

    Allein das schlägt schon vor, dass ein nicht-autoritärer Zugang zum Problem über ein ordentliches Grundeinkommen (oder besser: eine gesellschaftliche Grundversorgung) führen dürfte.

    Die Köderräder: 30% Gazelle und Batavus

    Nach diesen allgemeinen Betrachtungen gehen Venverloo et al ans Eingemachte und beschreiben das eigentliche Experiment: Sie haben tatsächlich 100 glaubhafte Räder – etwa 30% machen allein die berüchtigten Schinder von Gazelle und Batavus aus, nennenswert viele davon ernsthaft runtergekommen – aufgetan und mit in Reflektoren oder Sätteln eingebauten GPS-Trackern ausgestattet. Die Teile tracken so ein Rad tatsächlich für was wie drei Jahre, mit nur einer Batterie. Ich sehe schon, ich muss ein wenig aufpassen, was da so alles an mein Rad geschraubt wird…

    Foto eines Rückreflektors für ein Fahrrad

    Grusel: Das hier ist eine GPS-Wanze, die für die nächsten drei Jahre die Standorte eures Fahrrads ins Netz stellen kann. Ohne Batteriewechsel. Ich bin beeindruckt. CC-BY Venverloo et al

    Kein so gutes Gefühl habe ich beim KI-Teil der Arbeit. Und zwar gar nicht mal so sehr wegen der KI – die nutzen sie, um automatisch Fahrräder in Straßenszenen zu zählen, was schon in Ordnung geht, wenn mensch diese Zahl haben will –, sondern, weil sie dann mit den Zahlen nichts nachvollziehbar Vernünftiges machen. Die Autoren korrelieren nämlich Dichte der Fahrräder einfach linear mit der Zahl der Fahrraddiebstähle, und das ist in mehrfacher Hinsicht nicht hilfreich.

    „Können wir was mit KI einbauen?”

    Erstens müssten es schon die Fahrraddiebstähle pro EinwohnerIn oder meinethalben Quadratmeter sein. Vor allem aber ist erstmal klar, dass bei gleichbleibender Diebstahlrate (also: gestohlene Fahrräder pro rumstehende Fahrräder) auch mehr Räder gestohlen werden, wo mehr Räder stehen. Insofern wäre die lineare Korrelation, die sie da fitten, die vernünftige Nullhypothese, für die ich wirklich keinen Aufwand gemacht hätte (und schon gar keine „KI“ angeworfen) – wenn sie denn die Diebstahldichte genommen hätten.

    Interessant wären vielleicht für die Fahrraddichte kontrolliert auffällig große oder kleine Diebstahlraten. Das, was das Paper tatsächlich mit den Fahrradzählungen macht, hinterlässt ein wenig den Eindruck, dass sie halt was mit KI einbauen wollten – entweder aus Modegründen oder, um den Kofinanzierenden vom Senseable City Lab des MIT eine Motivation anzubieten – und die Daten dann entweder nichts hergegeben haben (obwohl: Optisch würde ich vermuten, dass die Anpassung einer Wurzelfunktion vielversprechend wäre) oder, dass die Zahlen, als sie mal da waren, niemand mehr interessiert haben.

    Erwarten würde ich zumindest eine starke Korrelation zwischen Bevölkerungsdichte und Diebstahlrate, denn fast überall wohnen arme Leute dichter als reiche, und Armut ist fast sicher stark korreliert mit der Fahrraddiebstahl-Sorte von Kriminalität. Aber letztlich gehts bei Venverloo et al ja eher nicht um die Soziologie des Fahrradklaus; die Zahlen interessieren sie vor allem, weil sie wissen wollen, wo sie ihre Fahrräder hinstellen sollten, wenn sie möchten, dass diese geklaut werden. Das haben sie recht gut hinbekommen, denn wie beim DLF schon gesagt, haben 70% ihrer Räder eineN DiebIn gefunden.

    Geklaute Räder fliegen nicht in die Amstel

    Viele haben auch wieder einE neueN NutzerIn gefunden, ein Ergebnis, das ich so überhaupt nicht erwartet hätte. Meine Schätzung wäre gewesen, dass mindestens die Hälfte der Fahrräder einfach in irgendwelche Flüsse oder auf irgendwelche Schrotthaufen geworfen werden. Allerdings: die Räder waren alle halbwegs ordentlich abgeschlossen, so dass der übliche Klau im Suff hier nicht in Betracht kam. Anständigerweise haben Venverloo und Kollegen die GPS-Aufzeichnung gestoppt, wenn jemand erkennbar anfing, das Rad wieder normal zu nutzen – das ist für mich das stärkste Signal, dass das nette Leute sind.

    Ansonsten ist das Paper ein schönes Beispiel, wie aus Verkehrsdaten Schlüsse gezogen werden können. Zum Beispiel versucht die Studie herauszufinden, wie viele der gestohlenen Räder in Fahrradläden umgeschlagen werden und bestimmt dazu

    the straight-line distance from the stop locations of the 70 stolen bikes to the nearest bike store in the Netherlands. If these stop points were within 50 meters of a bike store, they were flagged for further analysis. Additionally, the time spent at these stop points was used to see how long these bikes remained parked at a bike store, omitting visits shorter than one hour as a bike store cannot assess, repair, and sell a bike in under an hour. The stolen bike routes with at least one flagged stop point were manually inspected further to investigate the movements of the bike before and after the visit to the bike stores. If these routes exhibited a commuter pattern after the potential visit to the bike store, but not before, the bike was counted as “sold at a second hand bike store”. For some stolen bikes, the tracker was permanently disabled during the potential visit to the bike store, which was also flagged as “sold at a second hand bike store”.

    Das mag beim ersten Lesen kompliziert klingen, aber ich bin überzeugt, dass eine andere Gruppe das Problem ganz ähnlich lösen würde.

    Ein ganz zentrales Ergebnis der Studie ist schon im DLF-Zitat oben vorweggenommen: Zumindest fürs heutige Amsterdam ist die Erzählung aus meiner Zeit als Opfer von Fahrraddiebstahl völlig unzutreffend. Damals ging das (polizeilich verstärkte) Gerücht, Jugo-Trupps aus Offenbach würden alle beweglichen Räder per Lkw einsammeln und dann in „den Osten“ verschieben. Demgegenüber sind praktisch alle gestohlenen Räder in der Studie mehr oder weniger im Viertel geblieben – wer also ein geliebtes Rad vermisst, wird wenigstens in Amsterdam guten Grund haben, die Augen offen zu halten.

    Keine Läden, vielleicht „organisiert“

    Das Laden-Kriterium übrigens führt nicht recht weiter – offenbar werden nur rund 5% der geklauten Fahrräder über richtige Fahrradläden umgeschlagen. Ich würde vermuten, dass der Rest im Wesentlichen über Facebook, Instagram und vielleicht noch schwarze Bretter verhökert wird, aber das ist nicht so leicht nachzuweisen. Stattdessen steht im Paper dann etwas wie:

    [Analyse per Hand] revealed that 22 out of the 70 stolen bikes were linked in a …
  • Der Reichsbank-Preis und die Effizienz

    Ich hatte im Januar gegen Ende meines Kopfschüttelns über Fachblindheit zum Thema wissenschaftliches Publikationswesen der Versuchung einer preisbezogenen Klugscheißerei nicht widerstehen können:

    Wenn der DLF-Moderator behauptet, Vernon Smith habe 2002 den Nobelpreis erhalten, ist dem im Sinne von Alfred Nobel zu widersprechen – Smith hat den „Preis für Wirtschaftswissenschaften der schwedischen Reichsbank in Gedenken an Alfred Nobel“ bekommen, der seit 1969 verliehen wird (richtige Nobelpreise: seit 1901).

    Diese Bemerkung war zwar in mehrfacher Hinsicht albern, aber das Thema hat schon viele in Technicolor schimmernde Seiten. Auf eine davon bin ich vorhin in Yanis Varoufakis' unterhaltsamen[1] The Global Minotaur (entleihbar bei libgen) gestoßen. Und zwar hat das für den Reichsbank-Preis zuständige Komitee 1997 Robert Merton and Myron Scholes als würdige Empfänger auserkoren, weil:

    Their methodology has paved the way for economic valuations in many areas. It has also generated new types of financial instruments and facilitated more efficient risk management in society.

    – sie also angeblich Risiken „effizienter“ abschätzen konnten als ihre VorgängerInnen.

    Gleich im nächsten Jahr implodierte der vielleicht selbstironisch Long Term Capital Management (LTCM) genannte Laden der beiden und konnte nur durch einen großzügigen öffentlichen Bailout so abgewickelt werden, dass er nicht gleich das halbe Bankensystem mitnahm; die Geschichte in der Wikipedia. In aller Kürze zeigt die Wertentwicklung von LTCM-Anlagen aus dem Wikipedia-Artikel die Zuverlässigkeit (oder Nützlichkeit? Oder „Effizienz“?) der Erkenntnisse von Merton und Scholes ziemlich deutlich:

    Drei Kurven.  Zwei gehen mehr oder minder stetig nach oben, die dritte, die für LTCM, anfangs steiler, aber dann bricht sie auf fast null ein.

    Selbst wenn das nicht eine starke Aussage über die Wirtschafts„wissenschaften“ als solche oder zumindest ihren Effizienzbegriff sein sollte – es ist jedenfalls eine starke Aussage über diesen, hust, „Wirtschafts-Nobelpreis”.

    [1]Also: Unterhaltsam zumindest für Menschen, die ihren Zorn darüber, dass all die Monopolyspiele haufenweise Menschen umbringen, mit hinreichend Zynismus kontrollieren können.
  • WissenschaftlerInnen als Helden: Contact von Carl Sagan

    19-Zoll-Schränke voll mit blinkender Elektronik

    Sieht aus wie eine Kulisse aus einem (ja: etwas älteren) Hard-SciFi-Streifen, ist aber echt: Elektronik am Radioteleskop Effelsberg anno 2010.

    Letzte Woche war die Presse voll von Verrissen der Verfilmung von Frank Schätzings Der Schwarm. Eigentlich finde ich das ein wenig schade, denn eigentlich bin ich, und das mag eine Charakterschwäche sein, ein Fan von Büchern und Filmen, deren HauptprotagonistInnen in der Wissenschaft arbeiten. Schätzings Vorlage gehört ja unzweifelhaft in diese Kategorie. Allerdings räume ich gerne ein, dass schon im Buch die Jung-Schön-Sportlichkeit der wesentlichen Personen etwas nervt.

    Spoiler: So sieht trotz der rigiden Befristungspraktiken noch nicht mal das Personal an deutschen Unis aus. Von MPI und Helmholtz will ich in der Richtung gar nicht anfangen. Das aber sollte nicht überraschen, denn es ist auch gar nicht der Job von WissenschaftlerInnen, jung, schön und sportlich zu sein.

    Dazu tritt im Buch und viel schlimmer in der Serie, dass auch die Darstellung der wissenschaftlichen Tätigkeit als solcher bis zur Unkenntlichkeit dramatisiert wird. Klar, niemand will Geschichten über Telecons zur Vorbereitung von Forschungsanträgen lesen, und vermutlich noch nicht mal vom Ringen um die geschlossene Lösung eines Integrals, ohne die die Rechnung drei Jahre dauern würde. Aber es gibt Romane, die ich eminent lesbar finde und die dennoch, jedenfalls bevor es zur Sache geht, eine für Menschen in der Wissenschaft wiedererkennbare Welt beschreiben.

    Die Schwarze Wolke

    Wo ich das schreibe, fällt mir als allererstes Beispiel The Black Cloud (1957) des in vieler Hinsicht großartigen Fred Hoyle ein (im Original bei libgen entleihbar, auf Deutsch wohl eher schwer zu kriegen). Wer auf Geschichten über Erstkontakte steht und einen Einblick bekommen will in die große Zeit der Astronomie vor CCDs und Weltraumteleskopen: das ist Pflichtlektüre.

    Während ich mir ein paar Folgen des ZDF-Schwarms zu Gemüte geführt habe, ist mir aber mehr Contact von Carl Sagan durch den Kopf gegangen[1]. Diese Bevorzugung gegenüber dem Großwerk von Fred Hoyle wird wohl daran gelegen haben, dass ich das Sagan-Buch neulich mal wieder gelesen habe, nachdem ich auf Planet Debian über eine Besprechung von Russ Allbery gestolpert war.

    Russ geht relativ hart mit dem Buch ins Gericht:

    The biggest problem with Contact as a novel is that Sagan is a non-fiction writer who didn't really know how to write a novel. […T]he tone ranges from Wikipedia article to long-form essay and never quite feels like a story.

    und dann:

    I don't think this novel is very successful as a novel. It's much longer than it needs to be and long parts of it drag. But it's still oddly readable; even knowing the rough shape of the ending in advance, I found it hard to put down once the plot properly kicks into gear about two-thirds of the way through.

    Ich muss demgenüber ja sagen, dass ich Buch wie Film in der ersten Hälfte weit stärker fand als in der zweiten (aber das geht mir zum Beispiel auch bei Neal Stephenson in aller Regel so). Die Darstellung des Wissenschafts- und Erkenntnisprozesses jedenfalls ist in Contact – für Verhältnisse von Belletristik – wirklich gut gelungen. Ich hatte auch viel Freude an den Einführungen der verschiedenen Persönlichkeiten, in denen ich Typen aus dem wirklichen Leben wiedererkennen konnte. Allen voran kannte ich gleich ein paar Vaygays (aber die meisten von denen sind inzwischen tot oder jedenfalls tief pensioniert).

    Ein Roman als Blog-Ersatz

    Wahrscheinlich trifft jedoch die Kritik, Sagan habe nicht eigentlich einen Roman geschrieben, schon ein wenig. Ich denke, er hat im Groben einige seiner Ansichten und Ideen darlegen wollen und das Ergebnis mit einer nicht immer ganz organischen Geschichte zusammengesponnen, weil es damals halt noch keine Blogs gab, in denen Einzelbeiträge auch ohne Gewebe nebeneinender hätten stehen können. Kann ich verstehen: Dann und wann fantasiere ich auch darüber, so einen Roman zu schreiben.

    Ein Regal mit Plastikkisten, in denen jeweils Stapel von Festplatten stehen

    Wo ich schon mal handfeste Elektronik in der Radioastronomie zeige: 2015 wurden VLBI-Radiodaten (gerade) noch in solchen Plattenstapeln zum Korrelieren gefahren (hier: am ASTRON in Dwingeloo). Update (2023-03-14): Also… tatsächlich macht das Event Horizon Telescope das mit mit dem Verschicken von Platten auch heute noch so; anders sind die vielen Terabyte, die die da an ihren Teleskopen gewinnen, nicht zu den Korrelatoren zu bekommen, schon gar nicht vom Südpol.

    Am allerdeutlichsten ist der Charakter von Contact als Sammlung von Diatriben vielleicht, wenn Sagan über Religion rantet – und dann wieder Gottesmänner als besonders aufrechte Menschen auftreten lässt. Die Auseinandersetzung mit Fernsehpredigern und Evangelikalen erschien mir, als ich das Buch im letzten Jahrtausend zum ersten Mal gelesen habe, ziemlich wie US-Nabelschau.

    Wenn ich mir jetzt ansehe, wie viele doch sehr anrüchige „Freikirchen“ inzwischen in Gewerbegebieten und Strip Malls hiesiger Städte und Dörfer aufgemacht haben – oder gerade heute von Amokläufen in einem „Königreichssaal“ von Jehovas Zeugen höre –, bin ich mir da nicht mehr so sicher. Und auch die „Family Values“, die Sagan jedenfalls mehr rausschauen lässt als etwa Hoyle, haben im Zeitalter des Neoviktorianismus nicht mehr ganz so deutlich die Anmutung rustikaler Americana wie vor 30 Jahren.

    Ebenfalls so tangential wie lehrreich finde ich, dass die Maschine in Contact schließlich in Japan gebaut wird. In den 1980ern nämlich spielte Japan die Rolle in Erzählungen vom Untergang des Abendlands, die heute China spielt – halb Gefahr aus dem Osten, halb bewundertes Rollenmodell.

    Gelbe Gefahren im Wandel der Zeit

    Die Parallelen lassen sich ziehen hin zum Handelskrieg Ronald Reagans gegen (unter anderem) japanische Halbleiter oder für patriotische Motorräder, die in vielerlei Hinsicht vergleichbar sind zu Trumps und Bidens heutigen Vesuchen, die Handelsbilanz mit China etwas zu balancieren. Wer nach der Lektüre von Contact noch eine Runde den originalen Blade Runner (auch aus der Zeit des Contact-Buches) ansieht, bekommt vielleicht eine etwas gelassenere Perspektive auf die heutige „Systemkonkurrenz“.

    Dass das eine gute Sache wäre, liegt mir gerade besonders nahe, nachdem gestern hier in Heidelberg Jörg Kronauer recht überzeugend dargelegt hat, dass der nächste große Krieg gegen China gehen wird (ich habe den Mitschnitt aus München nicht angesehen, würde aber vermuten, dass es grob das gleiche Material sein wird), wenn… nun, wenn wir als Gesellschaft Oswald Spengler-Fantasmen nicht zwei Ecken realistischer betrachten und aufhören, Geschichte als großen und fundamentalen Konflikt zwischen Staaten und Machtblöcken zu denken.

    Russ Allberys Urteil zu diesem Thema in Contact kann ich im Gegensatz zu seinen ungnädigen Urteilen in anderen Fragen teilen:

    [Die Wunder des Weltraums] in his alternate timeline rapidly sped up nuclear disarmament and made the rich more protective of the planet. […] I was a bit torn between finding Sagan's predictions charmingly hopeful and annoyingly daft.

    Neenee, auch die Ablösung des Clash of Culture-Narrativs ist keine technologische Frage. Sie ist Hand- und Mundarbeit.

    [1]Gleich in einer ganzen Reihe von Ausgaben bei libgen entleihbar, aber ich sehe wieder keine deutsche Übersetzung. Angesichts der, soweit ich das sehen kann, anhaltenden Popularität des Films erstaunlich finde ich, dass auch die öffentliche Bibliothek in Heidelberg offenbar keine Ausgabe mehr hat.
  • Pelztiere vs. Menschen: Die letzten 70 Jahre

    Unter einem Gebüsch schauen Beine und Schwanz eines Tigers raus.

    2010 habe ich, ich muss es gestehen, den Heidelberger Zoo besucht. Und mich ordentlich vor dem Tiger gegruselt, der hier im Bambus ruht.

    Neulich ging es in der taz tatsächlich mal um einen Fachartikel, nämlich um „A worldwide perspective on large carnivore attacks on humans” von Giulia Bombieri vom Naturkundemuesum[1] in Trento, Vincenzo Penteriani vom Naturkundemuseum in Madrid sowie KollegInnen aus aller Welt (doi:10.1371/journal.pbio.3001946), vorbildlich unter CC0 publiziert in PLOS Biology.

    Der taz-Artikel liefert eigentlich eine ganz schöne Zusammenfassung des narrativen Teils der Studie, und vor allem ordnet er das Thema das Artikels gut ein relativ zu Bedrohungen durch andere Tiergruppen und echte Gefahren für Menschenleben:

    Knapp 2.000 tödliche Angriffe [durch wilde Säugetier-Karnivoren] in 70 Jahren – das sind weniger als 30 im Jahr. Weltweit. Da steht die Angst in keinem Verhältnis zum Risiko […] Höchste Zeit, den Wolf zu entlasten und die richtigen Fragen zu stellen: Großmutter, warum hast du so große Räder?

    So sehr das mit der Angst qualitativ sicher stimmt, ist das Argument so quantitativ formuliert allerdings nicht haltbar. Schon die Unterüberschrift in der taz, „Eine Studie wertet die Fälle der letzten 70 Jahre aus.“ (Hervorhebung ich), weckt nämlich völlig falsche Erwartungen. Bombieri et al lassen keine Zweifel:

    Wir räumen ein, dass unser Datensatz nicht die Gesamtheit der Tierangriffe umfasst, die es weltweit gab. Er repräsentiert eine Untermenge dieser Fälle. In der Tat fehlen trotz unserer Bemühungen, gleichmäßig über Arten und Regionen zu sammeln, zahlreiche Fälle speziell für Löwen, Leoparden und Tiger.

    Wacklige Zahlen, robuste Ergebnisse

    Der numerische Abstand allerdings zwischen dem Gemetzel im Straßenverkehr und den Opfern bepelzter Wildtiere ist so groß, dass auch einige Größenordnungen Unterschätzung nichts am in der taz dargestellten qualitativen Befund ändern werden.

    Bombieri et al überdehenen ihre Zahlen aber auch selbst, etwa wenn sie zunächst

    erwarten […], dass die Zahl der Angriffe in Regionen mit niedrigem Einkommen wächst. Dort findet viel Subsistenzwirtschaft statt, und viele Gemeinden leben in engem Kontakt mit Wildtieren inklusive Großkatzen.

    Die Zunahme als solche sehen sie dann auch in ihren Daten. Dass diese aber an Subsistenzwirtschaft und Landnahme liegt, bräuchte schon stärkere Unterstützung als platt mit der Zeit wachsende Zahlen, denn die werden sehr plausiblerweise einfach daran liegen, dass sich die Anbindung größerer Teile des globalen Südens an das Nachrichtensystem des globalen Nordens über die letzten 70 Jahren hinweg ganz erheblich verbessert hat. Denn wie zählen Bombieri et al?

    Berichte über Angriffe wurden gesammelt aus persönlicher Datenhaltung der KoautorInnen, der wissenschaftlichen Literatur, Doktor- und Masterarbeiten, Webseiten und öffentlicher Berichterstattung (eine Liste der wesentlichen Veröffentlichungen zum Thema stellen wir in Tabelle S2 zur Verfügung). Wir haben die erwähnten Quellen mit den Suchmaschinen Google und Google Scholar durchsucht. Um den Datensatz zu vervollständigen, haben wir auch eine systematische Suche nach Zeitungsartikeln auf Google durchgeführt. Dabei haben wir für alle Länder/Regionen jährlich gesucht nach einer Kombination der folgenden Begriffe „Name der Art“ oder „wissenschaftlicher Name der Art“ + „attack“ oder „attack“ + „human“.

    Diese Methode führt natürlich überwältigende und praktisch nicht zu kontrollierende Auswahleffekte ein, so dass ich jedem quantitativen Ergebnis, das aus diesem Datensatz gewonnen wird, sehr skeptisch gegenüberstehen würde. Das aber ändert nichts daran, dass er eine großartige Quelle für qualitative Betrachtungen ist.

    CC0 sei Dank: Aus Excel befreit

    Weil das alles – wie mein Blog auch – unter CC0 verteilt wird, kann ich die furchtbare Excel-Datei, in der Bombieri et al ihre Datensammlung publizieren, hier als aufgeräumte CSV-Datei republizieren – vielen Dank an die AutorInnen! Zum Aufräumen habe ich ad-hoc ein Python-Skript geschrieben, das in einem mit Libreoffice erzeugten CSV-Export der Excel-Datei insbesondere die geographischen Koordinaten, die in einer munteren Mischung verschiedener Formate kamen, vereinheitlicht. Dabei gingen ein paar Koordinaten verloren, deren Format ich nicht erraten konnte (so etwa 10).

    Zusammen mit dem großartigen TOPCAT und dessen Classify by Column-Feature (in Views → Subsets) kann mensch auf die Weise recht unmittelbar den folgenden Plot der erfassten Säugetierangriffe nach Spezies erzeugen (TOPCAT ist eigentlich für die Astronomie gedacht, weshalb die Koordinaten etwas ungeographisch daherkommen):

    Bunte Punkte in einem Mollweide-Plot: Es gibt extrem auffällige Cluster etwa auf Kamtschatka, in Japan oder an der indischem Malabarküste.  Der größte Teil des Plots hat gar keine Punkte

    Geographische Verteilung der Tierangriffe aus Bombieri et al, für die am häufigsten angreifenden Arten farblich aufgeschlüsselt. Beachtet, dass nur knapp 50% der Fälle in ihrem Datensatz hinreichend georeferenziert sind.

    Wenn ihr das selbst versucht: Macht auch gleich einen Tabellen-View auf. Ihr könnt dann nämlich auf die Punkte klicken und in der Observations-Spalte oft die zugehörigen Geschichten lesen. Einiges bewegt sich im Dumb Ways to Die-Spektrum, und ich kann nicht leugnen, dass ich mich manchmal wie einE Bild-LeserIn fühlte, während ich an den Daten herummachte. Tja: wer in der Hinsicht ohne Schuld ist, werfe den ersten Stein.

    Wölfe fütternd oder Futter für Wölfe?

    Manchmal sind schon die Activities in der Tabelle halbe Geschichten: „sleeping outside the tent in sleeping bag” zum Beispiel (im kanadischen Algonquin National Park, mit Species Wolf). Conflict_end ist hier glücklicherweise 1 („Injury”) und nicht 2 („Death“). So ging es auch für die Activity „feeding the wolf“ aus, Observation: „Frau hielt an und bot dem Wolf Futter an“. Ich kann der Versuchung nicht widerstehen und muss fragen: War das eine oder waren das zwei Handlungen?

    Denn es geht nach Rechnung der AutorInnen den Wölfen schon recht oft darum, die Leute, die sie angreifen, dann auch zu verzehren. Dazu hilft es, sich kurz die Bedeutung der Zahloide in der Scenario-Spalte anzusehen, die ich erst manuell aus dem blöden XSLX-XML rausfummeln musste:

    1:defensive reaction by a female with offspring
    2:animal and human/s involuntarily encounter at a close distance
    3_4:food related: eg animal food conditioned/habituated or feeding on anthropogenic food (eg crop) or feeding on a wild or domestic animal carcass at the moment of the attack.
    5:predatory/unprovoked/investigative attack
    6:animal wounded/trapped
    8:dog presence
    10_12:animal intentionally approached/provoked/chased attack the people involved or other people on its way while fleeing

    Bei Wölfen sind immerhin 377 von 414 Fällen mit der 5 klassifiziert. Das hätte ich ehrlich gesagt anders eingeschätzt. Und noch mehr bin ich überrascht, dass es die Wölfe in über 250 dokumentierten Fällen auch geschafft haben (sollen), die beteiligten Menschen zu töten. Ich habe mir diese Fälle mal rausgefiltert (in TOPCAT definiert mensch dafür ein algebraisches Subset mit equals(species, "wolf") && conflict_end==2 – ja, SQL ist schöner). Fast alle dieser 268 Fälle kommen aus Indien (259), sechs aus dem Iran, und dann noch je einer aus der Türkei, aus Alaska und Saskatchewan.

    Die Geschichte aus der Türkei ist die von einem Schäfer:

    Shepherd's father found him death [sic]. Then took him to hospital and doctors determined he was killed by wolves.

    – es ging den Wölfen hier also ziemlich sicher nicht darum, den Schäfer zu verzehren, denn sonst wäre schon das mit dem Ins-Krankenhaus-Bringen schwierig geworden. Ich würde hier die 5 ziemlich in Frage stellen, muss ich sagen; für mich klingt das stark nach 3_4, food related, weil die Wölfe einfach die Tiere des Schäfers essen wollten und der Schäfer im Weg war.

    Die Fälle in Nordamerika sind jeweils den Wintermonaten zugeordnet, wobei Wolfsrudel vermutlich weniger hinter dem Fleisch der Menschen her waren als vielmehr hinter den Resten der Tiere, die die Menschen vorher getötet hatten. Sehr hässlich klingen dagegen die Activities aus dem Iran: children playing lese ich da – und noch schlimmer in Indien, wo das allein 183-mal vorkommt (mit anderen Worten: mehr als die Hälfte aller hier verzeichneten tödlichen Begegnungen mit Wölfen weltweit). Das werde ich unten nochmal etwas genauer betrachten, aber zunächst sollen auch die Katzen etwas Aufmerksamkeit bekommen.

    Großkatzen lassen zweifeln

    Bei Leoparden lese ich etliche Mal das gruselige „attacked at the neck and dragged away“, einmal darunter mit der Activity „toilet/bathing/washing clothes outside“ und dem Ausgang, dass der Mensch …

  • Von Verblindung und fachbedinger Blindheit

    Foto eines Notebookdeckels mit Aufkleber „Elsevirus“ und einem vertrockneten Baum (ein Spoof des Elsevier-Logos)

    Nur ein Symptom, nicht die Ursache: das wissenschaftliche Publikationswesen und seine unsympathischen Profiteure.

    Angesichts meiner fundamentalen Skepsis im Hinblick auf die epistemologischen Meriten der Wirtschaftswissenschaften an und für sich (ahem) bin ich selbst etwas überrascht, wie viele Wiwi-Arbeiten auf diesem Blog vorkommen. Immerhin: dieses Mal geht es eigentlich gar nicht um die Publikation selbst.

    Die Aussage des Artikels „Nobel and Novice: Author Prominence Affects Peer Review“ von Jürgen Huber und Kollegen aus Innsbruck, Graz und Los Angeles, doi:10.2139/ssrn.4190976, ist nämlich ein Gemeinplatz: Das Begutachtungsverfahren wissenschaftlicher Arbeiten ist kaputt. In diesem speziellen Fall: Ein Artikel wird oft vollständig zurückgewiesen, wenn er von wem eingereicht wird, dessen oder deren Name afrikanisch klingt, und oft ohne Korrekturwünsche angenommen, wenn auf der AutorInnenliste eine anerkannte Kapazität hinreichend weit vorne steht. Hier hat das halt mal wer ausprobiert, zwecks der Demo mit jeweils dem (ansonsten) gleichen Artikel.

    Aber wenns doch klar war?

    Nun gut, die Größe des im Paper gefundenen Effekts überrascht auch mich. Ich hatte eigentlich erwartet, dass es ein paar mehr Leute gibt, die Papers von DoktorandInnen aus Weichherzgründen eher mal durchwinken, weil diese die Publikation ja viel nötiger haben als die, die in Rente sind oder auf einer Professur sitzen. Aber diese Überraschung hätte mich jetzt nicht an die Tastatur gerufen.

    Wirklich kommentarbedürftig fand ich stattdessen die Aussage des Hauptautors in DLF Forschung aktuell vom 14.12.2022 (ab Minute 1:30):

    Die Begutachtung von wissenschaftlichen Arbeiten durch andere Wissenschaftler ist ja für Publikationen wichtig, für Forschungsgelder, dafür, wer Jobs bekommt, wer Professor wird und so weiter. Also, das ist ganz wichtig, dass wir diesen Prozess so objektiv, so fair wie möglich gestalten, damit auch die Gelder, die ja oft von der öffentlichen Hand kommen, bestmöglich verwendet werden, damit wir Fortschritte haben.

    Huber benennt den wesentlichen Grund dafür, dass das System wissenschaftlichen Publizierens disfunktional ist: Artikel und Zitate werden missbraucht als Metriken in dem Wettbewerb, in den WissenschaftlerInnen – also Menschen, die eigentlich lieber Zeug rausfinden wollen – geschickt werden, und der mit Zuckerbrot („Karriere“) und Peitsche (die meisten werden rausgekegelt) auf alarmierende Hitzegrade gebracht wird.

    Gut für „den Fortschritt“ oder gar die Wissenschaft ist dieser Zirkus natürlich nicht. Sein Fallout im Publikationswesen führt zudem dazu, dass Leute innerhalb von fünf Jahren fünfzehn verdünnte Paper raushauen statt nach fünf Jahren eine profunde Arbeit zu publizieren und dass jede Menge Zeit und Nerven draufgehen beim Schreiben und Begutachten dieser Artikel. Er bewirkt zudem, dass Zitate immer schlechter den Fluss von Ideen abbilden (was ja ihr eigentlicher Zweck ist) und immer mehr taktische Erwägungen (was schade ist).

    Gute und schlechte Fragen

    Aus der Diagnose, dass der Missbrauch von Publikationen als ökonomische Metrik der Wissenschaft schadet, würde logisch doch zumindest die Frage folgen: Lässt sich das auch wieder entkoppeln?

    Nicht so aber für Huber, der stattdessen fragt: können wir die Metrik fairer machen? Diese Frage halte ich für besonders falsch gestellt, denn klarerweise würde selbst ein guter Plan in dieser Richtung (vgl. unten) nichts ändern an taktischen Zitationen oder der Flut von Papern, die rundrum nur Zeit verschwenden; er würde sie vermutlich noch verschärfen.

    Ich frage mich ehrlich, warum der naheliegende Ansatz zur Lösung der Probleme Huber offenbar gar nicht in den Sinn kommt, nämlich: weniger Wettbewerb, und vor allem das Ende des Missbrauchs von Publikationen und Zitationen als Metriken in den diversen Wettbewerben.

    Wie die Allokation von Forschungsmitteln sonst funktionieren soll, fragt ihr? Nun, solange wir noch das System von universeller Lohnarbeit unter Existenzdrohung haben, werden flachere Hierarchien[1], die Abschaffung befristeter Beschäftigungsverhältnisse[2], die Rückverschiebung der Finanzierung durch „Drittmittel“ (die in Wahrheit ja in den nicht-gruseligen Fällen auch vom Staat kommen) auf die Grundfinanzierung, womit auch der Zugang zumindest kleinen und mittleren Instrumenten weniger kompetetiv würde; so Zeug halt, Wissenschaft als Beruf mit ganz normalen Beschäftigtenrechten. Und wo doch noch Anträge geschrieben werden: Würfelt aus, wer gefördert wird. Das wird in etwa genauso „gute“ Ergebnisse liefern wie die gegenwärtige Begutachtung, macht aber viel weniger Arbeit und vermeidet einige Fehlsteuerungen, allen voran die Selbstverstärkung von Moden und Hypes durch den Geldhebel.

    Klar: Vielleicht arbeiten dann ein paar der Beschäftigten weniger. Aber erstens würde der Wegfall der ganzen Wettbewerbs-Reibungsverluste das garantiert mehr als kompensieren. Und zweitens hat Wissenschaft den großen Vorteil, dass sie sehr nah am Spielen ist und so Leute in aller Regel keine Motivation durch Existenzdrohung oder auch Karriere-Zuckerbrot brauchen[3].

    Das war jetzt die reformistische Version. Etwas langfristiger gedacht werden Menschen in einer Gesellschaft, die ihre Produktion rational (was produzieren wir so, dass Mensch und Natur minimal belastet werden?) organisiert, also in einer Gesellschaft, in der die Menschen grundsätzlich weit weniger erpressbar sind, auch weit weniger durchgeknallte Systeme ersinnen, ihre Erkenntnisse zu verbreiten als unsere derzeitigen Journals.

    Die Allokation von Produktionsmitteln oder Umweltressourcen auf die Forschungsfragen wäre dann ein ganz normales Thema gesellschaftlicher Debatte, ganz wie die Frage, ob mensch, sagen wir mal, dünne und kurzlebige Fahrradketten für Zehnfach-Ritzel in gesellschaftlicher Arbeit herstellen will oder nicht. Fragen dieses Typs müsste so eine Gesellschaft ziemlich regelmäßig erörtern, da kommt es auf ein paar Debatten mit Wissenschafts-Hintergrund auch nicht mehr an.

    Noch nicht mal Einfachverblindet

    Ich will noch ganz kurz anmerken, dass der Lösungsvorschlag aus dem DLF-Beitrag, die Begutachtung doch doppelt zu verblinden in den meisten Disziplinen eher zu „unmöglich“ als zur „schwierig“-Einschätzung von Anneke Meyer tendiert. Zumeist sind die Felder doch so übersichtlich, dass, wer genügend Überblick für ein qualifiziertes Review hat, sich auch denken kann, wer da schreibt – genau wie zumindest in der Astronomie die meisten Leute, die eine Weile in ihren Feldern sind, schon an den Reviews ahnen, wer wohl als GutachterIn gearbeitet hat.

    Selbst wo das – wie in ausgesprochenen Trendfächern – nicht der Fall ist, wären Methoden, Instrumente, Vorarbeiten und Kontext einer Arbeit so charakteristisch, dass Papers zur Verblindung komplett zerschrieben werden müssten. Damit würde nicht nur der Wettbewerb, zu dessen Austragung die Publikationsmetriken missbraucht werden, die Wissenschaft massiv schädigen – wie bereits jetzt bei den Zitationen würde schon die Erhebung der Metrik der Wissenschaft schaden, weil die Paper notwendig unklar und wirr würden.

    Wieder kann ich zum Ende einer Klugscheißerei nicht widerstehen: Wenn der DLF-Moderator behauptet, Vernon Smith habe 2002 den Nobelpreis erhalten, ist dem im Sinne von Alfred Nobel zu widersprechen – Smith hat den „Preis für Wirtschaftswissenschaften der schwedischen Reichsbank in Gedenken an Alfred Nobel“ bekommen, der seit 1969 verliehen wird (richtige Nobelpreise: seit 1901). Aber dann: die Aufregung um die Groß- und Kleinpreise („Preis der Bäckerinnung Berlin-Brandenburg für engagierte Berichterstattung zur Tortenkultur“) gehört natürlich auch zu den Dingen, die demnächst im Zuge des Wettbewerbsabbaus wegkönnen.

    [1]Dazu gehört insbesondere die Abschaffung des archaischen Lehrstuhlprinzips – Menschen außerhalb das Uni-Systems können sich das meist gar nicht vorstellen, aber an Universitäten sind MitarbeiterInnen tatsächlich ihren Profen zugeordnet, und es ist üblich, die Beschäftigten eines Lehrstuhls komplett auszutauschen, wenn einE neueR ProfIn „berufen“ (ja, so heißt eine Einstellung wirklich noch) wird. in der Praxis wird auf so etwas schon Jahre im Vorhinein geplant. Profi-Tipp: wenn ihr an einer deutschen Uni verdauert werden wollt (und es gibt gute Gründe, das derzeit lieber nicht zu wollen), sorgt dafür in den ersten drei Jahren eures Profs. Danach nämlich plant die Uni schon für die Berufung seines_r Nachfolger_in und wird alles tun, um entsprechende Stellen für Berufungsverhandlungen „verfügbar“ zu halten…
    [2]Oder jedenfalls: nicht mehr 80% befristete Beschäftigte im aktiven Wissenschaftsbetrieb, wie gegenwärtig an den Unis (Profen zähle ich dabei vielleicht etwas übertriebenermaßen zur Verwaltung).
    [3]Um nicht missverstanden zu werden: die intrinsiche Motivation gibts natürlich in vielen anderen Jobs auch, aber verglichen mit, sagen wir, Immobilienmakelei oder internationalem Wirtschaftsrecht ist Wissenschaft doch eine ganz andere Liga in Sachen erreichbarer Zufriedenheit im Beruf.
  • Machen Straßen auch nach 2000 Jahren noch Dreck?

    Foto: Straße mit braunem Tourismus-Hinweis: Limes

    Zumindest die Kolonnenwege am Limes sind heute meist grüne Wiese (oder Maisfeld oder Wald). Aber wie ist es mit Spuren größerer Römerstraßen?

    Neulich habe ich die DLF-Wissenschaftsmeldungen vom 23.11. gehört. Ab Minute 2:30 ging es römisch zu:

    Römerstraßen prägen noch immer den Wohlstand in Europa [...] Die anhand von Lichtspuren erkennbare heutige Verteilung von Siedlungen, Populationsdichte und Wirtschaftsleistung in Europa folgt noch immer den gleichen Mustern [wie das römische Straßennetz].

    Ich will nun gar nicht darüber schimpfen, dass ausgerechnet Licht- und damit Umweltverschmutzung als Maß für „Wohlstand“ (im Original etwas zweideutiger „prosperity“) genommen wird. Nein, meine spontane Reaktion war: „Boah, was für ein Wiwi[1]-Bullshit. Natürlich sind die römischen Straßen da, wo die damals ihre Städte gebaut haben, und natürlich haben sie ihre Städte im Groben da gebaut, wo wir das immer noch tun: dort, wo Schiffe gut hinkommen, wo das Wetter nicht zu garstig ist, wo nicht zu viele Berge sind, wo der Boden Ertrag bringt.”

    Damalige und heutige Produktions- und Bevölkerungsdichte werden also in jedem Fall stark korreliert sein, und das nicht, weil das eine das andere bedingen würde – immerhin trennt ein recht weitgehender und mithin kausal entkoppelnder Zusammenbruch[2] die beiden Sorten von Metriken –, sondern weil sie beide von ungefähr gleichen zugrundeliegenden Variablen wie „Verkehrsgunst“ oder meinetwegen „ökonomisches Potenzial des Bodens“ abhängen.

    Aber ich habe erstens einen Römerfimmel und will mich zweitens nicht unverdient des Natwi-Chauvinismus zeihen lassen. Deshalb habe ich das Paper herausgesucht. Es handelt sich um „Roman roads to prosperity: Persistence and non-persistence of public infrastructure“ von Carl-Johan Dalgaard und KollegInnen, erschienen leider bei Elsevier im Journal of Comparative Economics. Ich linke da nicht gerne drauf, zumal es nicht open access ist und selbst Leute mit Zugang derzeit durch ein dämliches Javascript-Fegefeuer müssen, um ein ordentliches PDF zu bekommen. Aber es hilft alles nichts: doi:10.1016/j.jce.2022.05.003.

    Korrelation oder Kausation?

    Die dänischen WirtschaftswissenschaftlerInnen – es hat offenbar niemand mit akademisch verbürgten Antike-Hintergrund mitgeschrieben – um Dalgaard prüfen in der Tat die Hypothese, dass sich Investitionen in die öffentliche Infrastruktur (also, ähh: Straßen) noch nach 2000 Jahren lohnen können, und die DLF-Zusammenfassung kommt auch insoweit hin, als sie diese Hypothese für den europäischen Teil des römischen Reichs bejahen.

    Natürlich war Dalgaard et al der Einwand der gemeinsamen Ursache der Korrelation durchaus bewusst, und so bieten sie bereits in der Einleitung an:

    Roman road construction did not follow the rules of infrastructure planning in the contemporary era. The Roman roads were built mainly with a military purpose in mind, and geographic obstacles in the landscape were often surmounted rather than evaded.

    Zum Beleg führen die AutorInnen den Prototyp der römischen Straße an, die Via Appia, die ohne viel Federlesens schnurgerade quer durch die Pontischen Sümpfe gelegt wurde. Aber schon ein schneller Blick auf die Abbildung A1 aus den Anhängen des Artikels stellt klar, dass die römischen PlanerInnen ihre Straßen sehr wohl den geographischen Gegebenheiten angepasst haben:

    Eine Landkarte des nördlichen Mittelitaliens, in die einige römische Straßen eingezeichnet sind; sie vermeiden ersichtlich bergige Gegenden.

    Straßen durch den Apennin gibt es, wenn überhaupt, nur in den Tälern, und wo niemand wohnt, ist auch keine Straße; ansonsten verbinden die Straßen halt Städte auf relativ direktem Weg und umgehen Unwegsamkeiten, wenn das ohne allzu große Umwege geht. Rechte: Dalgaard et al

    Richtig ist allerdings, dass die Römer durchaus auch größere Konstruktionen in Angriff genommen haben, wenn sie dadurch Strecke einsparen konnten. Schöne Beispiele dafür finden sich im Wikipedia-Artikel zur Via Claudia Augusta. Nebenbei zur Frage der Kontinuitäten: So sieht die Via Claudia Augusta heute bei Franzensfeste/Fortezza – wo das Tal übrigens so eng ist, dass es gar nicht so arg viele Alternativtrassen gibt – aus:

    Eine in den Felsen gegrabene Karrenspur, stark zugewachsen.

    Die Via Claudia Augusta belegt anonsten aber, dass römische Straßen den gleichen natürlichen Gegebenheiten unterworfen waren wie unsere heutigen Straßen auch. Damals wie heute sind Reschenpass und Fernpass halbwegs attraktiv, damals wie heute ging die Autobahn (oder damals halt die Via Raetia) schließlich über den bequemeren Brennerpass.

    Wer sich ein Bild zur Korrelation über die parallele Auswahl der Siedlungsräume machen will, möge eine Karte des obergermanischen Limes betrachten (zum Beispiel in den tollen Limes-Heften der Deutschen Limeskommission). Dort sind ein paar eigenartige Ausbuchungen zu sehen, insbesondere fürs Neuwieder Becken, für das die Provinzverwaltung den Limes extra noch ein Stück nach Norden gezogen hat, und die Wetterau, die insgesamt hübsch vom Limes eingeschlossen wird. Natürlich werden römische wie unsere Straßen mit solchen Gebieten korrelieren.[3]

    Oder ist da doch noch was?

    Damit könnte das Thema eigentlich erledigt sein, aber Dalgaard et al vermuten – so lege ich ihnen das mal in den Mund –, dass es da noch ein Extrasignal geben könnte, dass also der damalige Straßenbau heutige Umweltverschmutzung (in ihren Worten: wirtschaftliche Entwicklung) verursachen würde, die es bei sonst gleicher Geographie ohne den Straßenbau nicht gegeben hätte.

    Das Problem: wie findet mensch so einen Extra-Effekt? Die grundsätzliche Technik ist, in Analysen „für Confounder zu kontrollieren“, also im Groben zu versuchen, die (hier) störenden Einflüsse durch analoge Motivationen zum Straßenbau zu schätzen und dann herauszurechnen. Das ist tatsächlich kein völliger Hokuspokus, auch wenn es oft eine Familienpackung Modellierung und Annahmen braucht. Die englische Wikipedia deutet in controlling for a variable an, wie das gehen kann; wo sowas in der deutschen Wikipedia steht, weiß ich offen gestanden nicht.

    Die Achillesferse des Kontrollierens ist das Modell, was denn wohl (in diesem Fall) die möglichen gemeinsamen Einflüsse sein könnten. Dalgaard et al bieten dazu die Seehöhe an – auf den Bergen ist es kälter und unwirtlicher; etwas, das sie „Caloric Suitability“[4] nennen und das Boden, Wetter und Feuchtigkeit zusammenfasst zu einem Maß, wie viel Essen mensch aus dem Boden rausholen kann, getrennt nach vor-Kartoffel und nach-Kartoffel, so dass für die römische Zeit andere Kriterien gelten als für unsere; „agricultural suitability“, was so ähnlich funktioniert, aber andere AutorInnen hat; den Abstand zum nächsten größeren Fluss; den Abstand zum Meer; und antike Minen.

    Obendrauf meinen sie, moderne Systematiken rausrechnen zu müssen, vor allem den Einfluss von Sprache und Land auf die Wirtschaftsleistung, aber dann auch völlige Albernheiten wie die Entfernung zu Wittenberg als Proxy für Neigung zu Protestantismus – als sei dieser eine sich langsam ausbreitende Infektionskrankheit, die einfach noch nicht genug Zeit hatte, um sich, sagen wir, in Italien durchzusetzen – und inspiriert von Max Webers Theorie vom Protestantismus als Basisideologie des Kapitalismus. Wer schmunzeln will: die Arbeit sieht schwach signifikant, dass es mit wachsender Entfernung von Wittenberg im römischen Reich dunkler wird.

    Wie rechnet mensch die Verstraßung der Landschaft aus?

    Um ihre unabhängige Variable, die Straßendichte in römischer Zeit, auszurechnen, teilen Dalgaard et al das römische Reich in Zellen von ein Grad in Länge und ein Grad in Breite auf. Wenn ich das als Astronom mit Neigung zum Natwi-Chauvinismus sagen darf: In Zeiten von HEALPix ist das etwas fußgängerisch. Aber das römische Reich hat hinreichend wenig von der Kugelform der Erde mitbekommen, so dass zu Fuß laufen vermutlich keine nennenswerten Probleme einführt. Dann legen sie um die römischen Straßen aus dem Barrington-Atlas (ausleihbar in der Library Genesis) 5-km-Umgebungen – in der GIS-Szene „Buffer“ genannt – und rechnen das Verhältnis der so erzeugten Fläche zur Gesamtfläche in ihrer Zelle aus.

    Warum die das so machen, ist mir offen gestanden nicht klar, denn es benachteiligt ausgerechnet besonders gut vernetzte Orte, um die herum sich diese Buffer massiv überlagern werden. Als Zeichen für die Verbundenheit einer Zelle schiene mir jedenfalls die Gesamtlänge der Straßen in ihr als Metrik erheblich naheliegender. Wahrscheinlich ist das römische Straßennetz so grobmaschig, dass die Überlagerung allenfalls in ausgesprochenen Knotenpunkten wie Rouen überhaupt eine Rolle spielt. Aber etwas seltsam ist die Bufferflächen-Metrik doch.

    Damit fangen Dalgaard et al an zu rechnen. Sie fitten eine Unzahl linearer Zusammenhänge zwischen den Logarithmen aller möglicher dieser Metriken. Sachlich also unterstellen sie Potenzgesetze, a ∝ bγ, wobei sie endlose Tabellen dieser γ für alle möglichen Parameter ausrechnen, während sie für alles Mögliche kontrollieren.

    Ihr zentrales Ergebnis (aus der Tabelle 3, Spalte 7 im Paper) ließe sich etwa formulieren als: Die moderne Lichtverschmutzung geht ungefähr mit der Wurzel der antiken Straßendichte, also: 25 Mal mehr Straßen damals macht fünf Mal mehr Lichtverschmutzung heute[5].

    Zentral^WZahlenfriedhof

    Um ein Gefühl dafür zu kriegen, wie empfindlich dieses Ergebnis auf die diversen Kontrollen für Land, Leute, Höhe und Breite reagiert, kann mensch auf die anderen Spalten der erwähnten Tabelle spitzen: Das γ kann statt ungefähr 1/2 auch mal eher 3/2 sein (nämlich ganz ohne Kontrollen), was dann auf 125 Mal mehr Lichtverschmutzung für das 25-mal dichtere Straßennetz führen würde, oder auch mal 1 (wenn sie für die Zeit seit der lokalen neolithischen Revolution kontrollieren, wenn ich die etwas hemdsärmelige Beschreibug der Tabelle richtig lese), was einfach auf 25-fache Lichtverschmutzung führen würde.

    Ergebnisse, die je nach Modellierung so wild schwanken, rufen nach einer Plausibilisierung der zugrundeliegenden Modelle. Ich glaube, dass die Zahlenfriedhöfe, die das Paper und seine Anhänge durchziehen, dieser Plausibilisierung dienen sollen, und ich habe eine ganze Weile auf Tabellen dieser Art gestarrt (nur zur Illustration; die Werte, die ich für meine Betrachtung als relevant erachte …

  • Vögel von unten betrachten

    Grüne Papageien sitzen herum, einer davon lüftet seine Flügel

    VertreterInnen von Heidelbergs Halsbandsittich-Population im Dezember 2018. Beachtet, wie die Unterseite der Schwingen deutlich stärker gemustert ist als die Oberseite.[1]

    Schon im Juli hat Forschung aktuell im Deutschlandfunk kurz ein Paper erwähnt, das mein Amateurinteresse an Zoologie geweckt hat: In den Wissenschaftsmeldungen vom 6.7. hieß es ungefähr 2 Minuten in das Segment rein, die oft wilden Muster auf den Unterseiten von Vogelflügeln könnten der Vermeidung von Kollisionen zwischen den fliegenden Tieren dienen.

    Die zugrundliegende Arbeit ist „Contrasting coloured ventral wings are a visual collision avoidance signal in birds“ von Kaidan Zheng und KollegInnen von der Sun Yat-sen-Uni in Guangzhou[2] und der Uni Konstanz, erschienen in den Proceedings B der Royal Society, Vol. 289, doi:10.1098/rspb.2022.0678. Forschungsziel dieser Leute war, Risikofaktoren für Kollisionen – also etwa große Schwärme, Bedarf an hektischen Manövern (sagen wir: Paviane überfallen Flamingos), eingeschränkte Manövierfähigkeiten (z.B. bei großen, schweren Vögeln) – mit auffällig gemusterteten Flügelunterseiten zu korrelieren.

    Mich hat das wahrscheinlich vor allem deshalb angesprochen, weil im Garten von meinem Institut regelmäßig kleine Schwärme der oben abgebildeten Halsbandsittiche waghalsige Flugmanöver vollziehen, und dabei zwar viel Krach machen, aber erstaunlicherweise nie ineinander oder gar in die Äste der Bäume fliegen. Und ich bin jederzeit dafür, dass Wissenschaft sich solcher Alltagsrätsel annimmt.

    Die Studie hat auch meine Sympathie, weil sie ein Beispiel ist für Archive Science, also Wissenschaft, die auf der geschickten Nachnutzung bereits bestehender Daten basiert. Das macht fast immer weniger Dreck als neu erhobene Daten, spart besonders im Bereich der Biologie der Ethikkommission Arbeit, und, davon bin ich jedenfalls fest überzeugt, sie hat das Zeug dazu, unerwartete Zusammenhänge aufzudecken, die im üblichen Beantragen-Messen-Publizieren-Zyklus schwer zu finden sind.[3]

    Hunderttausend Blicke

    Wobei: Ganz ohne Leid ging auch diese Studie nicht ab. Die AutorInnen haben Bilder von 3500 Unterseiten von Vogelflügeln aus drei verschiedenen Archiven im Netz gezogen und dabei 1780 Spezies abgedeckt. Um den gesuchten Zusammenhang zu finden, mussten sie zunächst bestimmen, wie konstrastreich oder markant die jeweiligen Flügel eigentlich sind. Dazu haben sie vor allem 30 Studis der Sun Yat-Sen-Uni rekrutiert, die jeweils alle diese Bilder als „starker Kontrast“ oder „eher nicht“ klassifizierten. 3500 Bilder sind viel, wenn mensch sie beurteilen soll. Ich frage mich, wie sich wer nach so einer Sitzung fühlt.

    Um mal eine grobe Abschätzung einzuwerfen: Wenn die Leute schnell waren und alle 10 Sekunden so eine Klassifizierung hinbekamen, reden wir über 30 × 3500 × 10  s ≈ 106 Sekunden oder knapp zwei Wochen (nämlich: 1/30 Jahr) konzentrierter Bildbeurteilung, die in die Arbeit geflossen sind. Whoa.

    Daraus jedenfalls kommt der Score, mit dem das Paper vor allem arbeitet: Wie viele der KlassifiziererInnen haben den Flügel als kontrastreich klassifiziert? Der Score ist auch mal nicht-ganzzahlig, wie etwa beim Sperber in Abbildung 1, der auf 0.4 kommt; das passiert, wenn mehrere Bilder einer Spezies gemittelt werden.

    Für kontrolliert aufgenommene Bilder aus Museumssammlungen berechnet das Paper weiter als eine Art „objektiver“ Größe Standardabweichungen über die Grauwerte der Pixel der Schwingen. Zu dem Teil der Arbeit hätte ich einiges Rumgemäkel. Ganz vornedran gefällt mir nicht, dass dieses Maß kleinräumiges Rauschen, das plausiblerweise nicht gut als mittelreichweitiges Signal taugt (und das sie in ihren Anweisungen für ihre Studis auch wegfiltern wollten), genauso behandelt wie großräumige Strukturen. Mit etwas Glättung und Segmentierung wäre das sicher viel besser gegangen, und da sie eh schon opencv verwenden, hätten es dazu auch nicht schrecklich viel Aufwand gebraucht.

    Eigenartig finde ich auch, dass sie die Bilder in Grauwerte umgerechnet haben, während sie im Paper öfter über Farben reden. In der Tat muss mensch Vögel nur ansehen, um stark zu vermuten, dass sie (und ganz besonders die Vogelfrauen) sehr wohl Farben wahrnehmen. In der Tat sehen manche sogar UV und dürften in jedem Fall eher besser Farbwahrnehmung haben als wir.

    Ich hätte also die „objektiven“ Kontrastscores doch zumindest mal separat nach Farbkanälen ausgewertet – das wäre nicht viel Arbeit gewesen und hätte das Hedging in der Artikelzusammenfassung überflüssig gemacht. Aber dann: es spielt für den Rest des Papers nur eine eher untergeordnete Rolle, weil sie diese Standardabweichungen eigentlich nur dazu verwenden, ihre „manuellen“ Scores zu validieren, indem nämlich (für mich offen gestanden etwas überraschend) die beiden Typen von Scores recht stark korrelieren.

    Zu diesen Scores kamen schließlich aus anderen Archiven – vor allem wohl dem trotz Javascript- und local storage-Zwang bezaubernden Birds of the World – Merkmale wie Masse, Schwarmgröße oder „Koloniebrüterei“ für 1780 Spezies, wobei letzteres einfach wahr oder falsch sein konnte.

    Monte Carlo Markov Chain

    Und jetzt mussten die AutorInnen nur noch sehen, welche dieser Merkmale mit ihren Kontrast-Scores korrelierten. Dazu fuhren sie recht schweres Geschütz auf, nämlich über MCMC-Verfahren geschätzte Verteilungen – erfreulicherweise unter Verwendung der Freien Software R und MCMCglmm. Ich kann nicht sagen, dass ich verstehen würde, warum sie da nicht schlichtere Tests machen. Vermutlich würde es helfen, wenn ich wüsste, was „the phylogenetic relatedness among species was included as a random effect in these models“ praktisch bedeutet und warum sie das überhaupt wollen.

    Aber solche Fragen sind es, wozu mensch FachwissenschaftlerInnen braucht, und ich bin, was dieses Fach angeht, kompletter Laie (erschwerend: ich habe noch nicht mal in meinem Fach wirklich was mit MCMC gemacht). So will ich gerne glauben, dass das methodisch schon in Ordnung geht.

    Vielleicht ist das aber auch wurst, denn die nach den Modellen richtig überzeugende Korrelation ist auch in Abbildung 3 des Papers mit einer großzügigen Portion Augenzusammenkneifen zu erkennen:

    In klaren Worten: Bei Vögeln, die in Kolonien brüten, geht die Strukturierung der Flügelunterseiten deutlich stärker mit der Masse des einzelnen Vogels nach oben als bei Vögeln, die das nicht tun. Wer etwa die Pelikane von Penguin Island vor Augen hat:

    Foto: Pelikane und andere Vögel stehen in loser Gruppe, zwei landen in ziemlicher Nähe

    oder, viel näher und mit kleineren Vögeln, die Insel der Möwen in der Wagbach-Niederung:

    Foto: Insel mit sitzenden und brütenden Möwen

    mag schon ein Bild entwickeln von einem gewissen evolutionären Druck auf, sagen wir, Pelikane, Mechanismen zu entwickeln, die es leichter machen, nicht ineinander zu fliegen.

    Aber ganz ehrlich: so richtig schlagend finde ich das Paper nicht. Ein wenig mehr Betrachtung, warum zum Beispiel die Vögel, die den blauen Punkte rechts unten in der oben reproduzierten Abbildung 3 entsprechen, offensichtlich auch ohne wohlmarkierte Flügel relativ kollisionsfrei gemeinsam brüten können, hätte mir schon geholfen, etwas mehr Vertrauen zu den Schlüssen zu fassen.

    Oder umgekehrt: Koloniebrüter haben plausiblerweise auch andere zusätzliche Kommunikationsbedürfnisse als andere Vögel, z.B. beim auskaspern, wer wo brüten darf (cf. Kopffüßer in Octopolis). Vielleicht kommt der Extra-Aufwand bei der Gestaltung der Schwingen ja auch daher? Und die Korrelation mit der Größe hat vielleicht mehr was mit Beschränkungen bei der Strukturbildung zu tun? Hm.

    Referees, gebt euch etwas mehr Mühe

    Beim Lesen des Textes habe ich mir übrigens an ein paar Stellen gedacht, dass die GutachterInnen des Papers schon noch ein paar gute Ratschläge mehr hätten geben können. So schreiben die AutorInnen allen Ernstes „Birds are well known for their ability to fly, besides a few flightless lineages such as ratites and penguins“ – das kann mensch in einem Kinderbuch machen oder in GPT-3-generierten Textoiden, die die Aufmerksamkeit von Google gewinnen sollen; in einem Fachartikel in einer biologischen Fachzeitschrift wirkt es jedenfalls für einen Physiker ziemlich verschroben.

    Hätte ich das begutachtet, hätte ich weiter angemerkt, dass, wer Rocket Science wie verallgemeinerte lineare Modelle mit MCMC aufruft, besser nicht den Schätzer für die Standardabweichung (Gleichung 2.1) breit ausstellen sollte – und dann noch als einzige Gleichung im ganzen Paper. Das ist ein wenig wie bei dem Monty-Python-Sketch zur Kilimandscharo-Expedition: Wir fahren über die Gneisenaustraße zur B37, wechseln am Heidelberger Kreuz auf die A5 und dann fahren dann weiter zum Kilimandscharo.

    Natürlich ist Begutachtung von Fachveröffentlichung ein brotloser Job (auch wenn ich vermute, dass es fast jedeR macht wie ich und dafür jedenfalls mal eine gute Ecke Arbeitszeit verwendet; dann ist es eine weitere öffentliche Subvention für die Verlage). Aber trotzdem, Referees: Ratet zu weniger Text! Nicht zuletzt gibt es ja bei vielen Blättern noch (und im Zusammenhang mit Open Access gerade) Page Charges – Leute müssen also dafür bezahlen, dass ihre Artikel gedruckt werden, und um so mehr, je länger der Artikel ist. Weniger Text schadet also den Verlags-Geiern und ist mithin ein Gewinn für alle anderen! Ref: „Academic publishers make Murdoch look like a socialist“.

    [1]Disclaimer: Auch, wenn das hier anders aussehen mag, füttere ich mitnichten Papageien oder andere Wildtiere. Aber ich kann nicht lügen: Ich bin jenen dankbar, die es tun, weil ich ohne sie weit weniger hübsche Tiere zu sehen bekäme.
    [2]Stetige LeserInnen dieses Blogs sind der Stadt am Perlfluss zum letzten Mal in SARS-1 und das Zimmer 911 begegnet.
    [3]Noch ein Disclaimer: Ich werde dafür bezahlt, Archive Science zu ermöglichen. Es könnte also sein, dass ich in diesem Zusammenhang nicht mein übliches Neutralitätslevel „Salomon“ erreiche.
  • Religion vs. Wissenschaft: Null zu Eins gegen kleine Geschwister

    Detail aus einem gemalten Bild: Benedikt gestikuliert, Scholastika betet ihn an

    Geschwisterliebe – hier zwischen Benedikt und Scholastika von Nursia – in der Fantasie des Illustrators der Klosterkirche Elchingen (Dank an den Wikipedia-Fotografen).

    Am 22. September musste ich etwas früher als normal aufstehen, und so bekam ich die Morgenandacht im Deutschlandfunk mit. Thema war unter anderem die große Geschwisterliebe zwischen Benedikt von Nursia und seiner Schwester Scholastika von Nursia. Die Geschichte ist, wie wohl die meisten Heiligenlegenden, etwas Stulle. Gregor ruft die Pflicht, Scholastika will aber noch etwas Zeit mit ihrem Bruder verbringen, was im DLF-Andachtsduktus so klingt:

    Sie kann nicht genug bekommen. Sie hat noch so viel auf dem Herzen. Und so betet sie. Und kurz darauf tobt ein Unwetter los. Benedikt kann erstmal nicht ins Kloster zurückkehren. Zum Glück für Scholastika.

    Geschwisterliebe?

    Nun wäre viel zu diesem Stakkatostil zu sagen, doch kann ich, der ich am liebsten jeden zweiten Satz mit einem „und“ anfangen würde, da nicht hinreichend sicher mit Steinen werfen. Mich hat aber ohnehin eher die Einleitung zu dieser Passage gereizt:

    Papst Gregor der Große hat dieses Gespräch, das sich im Jahr 543 ereignet haben muss, aufgeschrieben. [Hervorhebung ich]

    Umm… Schon zu Benedikt selbst steht in der Wikipedia zur Zeit:

    Eine Minderheit von Forschern bezweifelt aufgrund der problematischen Quellenlage, dass Benedikt eine reale historische Persönlichkeit war. [...] Der Theologe Francis Clark legte 1987 eine zweibändige Untersuchung der Dialogi [der angeblich von Gregor dem Großen verfassten Hauptquelle zu Benedikt] vor, in der er die Hypothese vertritt, das Werk sei unecht. Der Verfasser sei nicht der 604 gestorbene Papst Gregor, sondern ein Fälscher, der im späten 7. Jahrhundert gelebt habe.

    Der Wikipedia-Artikel geht noch weiter auf die darauf folgende Kontroverse ein, die ich als Laie mit „mehr oder weniger offen im Hinblick auf die Existenz einer einzigen Person mit den wesentlichen Punkten von Benedikts Biografie“ zusammenfassen würde.

    Zu Scholastika nun finden sich außerhalb der frommen Legenden von Gregor oder einem Gregor-Fälscher überhaupt keine Spuren. Dass „Benedikt“ als (mutmaßlicher) Erfinder von Ora et Labora eine Schwester, gar Zwillingsschwester, haben soll, die irgendwas wie Gelehrsamkeit heißt: Also bitte! Das kann mensch 400 Jahre nach Gallilei und fast 200 Jahre nach Baur und seiner Schule gerne mit mildem Spott oder meinetwegen auch freundlicher Verspieltheit rezipieren – aber jedenfalls nicht als „ereignet haben muss“.

    Nichts als Stress

    Die fromme Legende von der innigen Geschwisterliebe hat mich jedoch immerhin daran erinnert, dass ich noch einer anderen Geschichte zur Geschwisterthematik aus dem Deutschlandfunk nachgehen wollte, und zwar einem Segment aus Forschung aktuell am 13. September.

    Hintergrund davon ist eine Arbeit von Verena Behringer vom Deutschen Primatenzentrum (DPZ) in Göttingen und einigen KollegInnen, „Transition to siblinghood causes a substantial and long-lasting increase in urinary cortisol levels in wild bonobos“ (sagen wir: „Wilde Bonobos stresst es, kleine Geschwister zu kriegen“), die dieses Jahr in eLife erschienen ist, doi:10.7554/eLife.77227.

    Der Artikel hat mich schon deshalb interessiert, weil meine KollegInnen vom Max-Planck-Institut für Sonnensystemforschung, seit sie aus der niedersächsischen Provinz nach Göttingen gekommen sind, Nachbarn des DPZ sind und berichten, von dort seien öfter mal seltsame Geräusche zu hören. Insofern bin ich neugierig, was am DPZ so geforscht wird.

    Behringers Arbeit scheint allerdings kein Fall für die Ethikkommission zu sein, auch wenn da zweifelsohne eine draufgeguckt haben wird; dazu unten ein paar Worte. Als kleiner Bruder habe ich aber auch ein persönliches Interesse an den Ergebnissen, denn wir kleine Geschwister kommen in der Arbeit gar nicht gut weg. Grafisch dargestellt:

    Die Punkte in den Plots entsprechen Konzentrationen von Cortisol im Urin von jungen Bonobos. Cortisolspiegel gelten in vielen Spezies als Proxy dafür, wie gestresst ein Individuum gerade ist. Beachtet, dass die Ordinate logarithmisch aufgeteilt ist; auch wenn ein linearer Zusammenhang zwischen „gefühltem“ Stress und dem Spiegel ausgeschlossen werden kann, ist hier jedenfalls viel Dynamik im Graphen.

    Auf der Abszisse stehen die Jahre vor bzw. nach der Geburt des jeweils ersten kleinen Geschwisters. Der senkrechte Strich zwischen Null und Eins markiert fünf Monate nach der Geburt des Geschwisters. Schon ohne tiefergehende Analyse fällt auf, dass in diesen ersten fünf Monaten als Schwester oder Bruder die Bonobos nie entspannt waren und sich die Stresslevel (wenn mensch denn an den Cortisolproxy glaubt) durchweg stark am oberen Rand bewegen. Danach, immerhin, normalisiert sich die Situation erkennbar.

    Die Linien mit so einer Art Konfidenzintervallen drumrum sind Modellfits für den „typischen“ Verlauf des Cortisolspiegels, jeweils getrennt nach Jungen und Mädchen (die Bestimmung der Farbzuordnung ist dem/der LeserIn zur Übung anempfohlen). Der Schluss ist fast unausweichlich: kleine Geschwister sind Stress, jedenfalls für eine ganze Weile. TTS nennen das Behringer et al, Transition to Siblinghood.

    Alle zehn Tage ein paar Tropfen Urin

    Wer sich fragt, wie die Leute an die Urinproben gekommen sind: Nun, die Max-Planck-Gesellschaft betreibt im Kongo eine Einrichtung namens LuiKotale, die in der Openstreetmap als tourism:camp_site getaggt ist. Es lohnt sich, die Karte etwas rauszuzoomen, um ein Gefühl dafür zu kriegen, was für eine einsame Angelegenheit das ist und wie klein das Risiko, dass sich wirklich mal TouristInnen dorthin verirren könnten. In der Umgebung des Camps leben einige Stämme von Bonobos, die sich an urinsammelnde und zuguckende Menschen gewöhnt haben, ansonsten aber offenbar ihrem üblichen Leben nachgehen können.

    Die DPZ-WissenschaftlerInnen haben zwischen Juli 2008 und August 2018 – ich bin allein schon wegen der zehn Jahre beeindruckt – Urin vom Bonobonachwuchs gesammelt, wenn er (der Urin, nicht der Nachwuchs) auf Blättern gelandet ist und nicht verkotet war. Aus diesen Proben konnten sie offenbar Konzentrationen verschiedener Hormone – darunter Cortisol – bestimmen. Ich verstehe zu wenig von den Laborprozeduren, um beurteilen zu können, wie groß die Fehlerbalken an den Punkten im Plot oben wohl sein sollten. Alleine die Überlegung, dass die Blätter nicht immer trocken gewesen sein werden, schlägt schon sehr große statistische Fehler vor. Andererseits würden selbst Fehler von 50% in der logarithmischen Darstellung nicht besonders auffallen und jedenfalls nichts an den grundsätzlichen Ergebnissen ändern.

    Am Schluss kamen über die zehn Jahre 319 nutzbare Urinproben von passenden Kindern zusammen. Die Leute haben also weniger als alle zehn Tage eine Probe gewinnen können. Ihre Methode mag ethisch weitgehend unbedenklich sein, sie braucht aber ganz klar viel Geduld und Glück.

    Etwas verblüffend finde ich, dass im Sample 20 Mädchen, aber nur 6 Jungen vorhanden sind. Ein solches Ungleichgewicht ist – ohne das jetzt wirklich durchgerechnet zu haben – fast sicher kein Zufall. Sind die Jungen vielleicht scheuer? Sie hängen jedenfalls signifikant mehr an ihren Müttern (Abb. 2 D im Artikel). Gibt es in den beobachteten Stämmen vielleicht einfach weniger von ihnen? Wenn die Studie das kommentiert, habe ich es überlesen.

    Versuch einer Ehrenrettung

    Die Arbeit verwendet einige Sorgfalt darauf, herauszukriegen, was genau diesen Stress auslöst. Zusammengefasst sind die zentralen Ansätze in der Abbildung 2 im Paper, die betrachtet, was sich postnatal sonst noch so alles ändern könnte im Verhältnis von Mutter und großem Geschwister. Die zugrundeliegenden Daten wurden durch stundenweise Beobachtung der jeweiligen Kinder gewonnen. Ja, diese Leute kennen ganz offenbar ihre Affen.

    Es zeigt sich, dass weder beim Säugen (oder entsprechenden Ersatzhandlungen) noch beim Kuscheln oder der gemeinsamen Nahrungsaufname über die Geburt hinweg viel passert, denn die Mütter entwöhnen größtenteils schon vorher. Beim Rumschleppen („Riding“) der älteren Kinder tut sich tatsächlich etwas, jedenfalls, wenn diese älteren Kinder selbst noch jung und männlich sind (Abb. 2 D und E im Paper). Dieser Alterseffekt ist aber in den Cortisoldaten nicht nachweisbar, so dass „weniger getragen werden“ als Grund des starken Stresssignals wohl ausfällt.

    Die AutorInnen spekulieren über weitere Gründe für das erhöhte Stressniveau, beispielsweise, dass die Geschwister mit dem Baby spielen wollen, aber nicht dürfen (yeah, right), oder dass sich die Mütter perinatal von der Gruppe absetzen und so auch die Geschwister isolierter sind. Stress könnten auch die üblichen Grobiane in den Stämmen machen, indem sie die älteren Kinder ärger quälen, während die Mutter anderweitig beschäftigt ist. Richtig überzeugend ist das alles nicht. Kleine Geschwister sind wohl einfach an und für sich stressig.

    Und es handelt sich klar um ein starkes Signal. Aus den Modell-Fits ergibt sich, dass sich bei der TTS die Cortisolniveaus verfünffachen. Demgegenüber kommen Menschen, wenn sie den Tieren im Labor Stress machen wollen, gerade mal auf eine Verdoppelung der Cortisolniveaus, bei Kämpfen zwischen Bonobo-Stämmen ist es kaum ein Faktor 1.5. Erst eine schlimme Lungenseuche, an der ziemlich viele Tiere starben – deutlich mehr als Menschen an SARS-2 – hat einen ähnlichen Effekt gehabt, so in etwa einen Faktor 10.

    Als Merksatz ließe sich also für die ersten fünf Monate des Große-Geschwister-Daseins feststellen: Kleine Geschwister sind ungefähr so schlimm wie Corona.

    Erstaunlicherweise gibt sich das alles nach den ersten fünf Monaten. Behringer et al machen den Scholastika-ErzählerInnen auch ein paar Friedensangebote.

    Alternatively, it has been suggested that early-life events of ‘tolerable stress’ [...] may serve to prime subjects to develop stress resistance later in life. Moreover, TTS may accelerate acquisition of motor, social, and cognitive skills [...] Having an older sibling may enhance the development and survival of the younger sibling that contributes to the inclusive fitness of both the older sibling and the mother.

    Würde ich die Dinge nur aus der …

  • Dialektik der Ökonomie

    Ich bin bekennender Skeptiker bezüglich allem, was sich Wirtschaftswissenschaft nennt (wobei ich die Verdienste einiger ihrer VertreterInnen um die angewandte Mathematik nicht leugnen will). Und ich wundere mich, warum das nicht viel mehr Menschen sind, sind doch die Vorhersagen, die aus dieser Ecke kommen, eigentlich immer im Einzelnen falsch („Wachstumsprognose nach unten korrigiert“). Tatsächlich kommen aber schon die qualitativen Aussagen offensichtlich nicht annähernd hin.

    Zu den zentralen Glaubenssätzen jedenfalls marktradikaler Ökonomie gehört ja, dass niedrige Zinsen Wachstum und Inflation steigen lassen und hohe Zinsen die Inflation eindämmen, aber das Wachstum abwürgen. Dieser Glaube ist sogar in vielen Geschichtsbüchern reflektiert, wenn etwa die Hochzinspolitik der späten Carter- und frühen Reagan-Jahre für die Überwindung der „Stagflation“ verantwortlich gemacht wird; glücklicherweise ist die (gegenwärtige) Wikipedia da etwas realistischer und benennt, was die eigentlichen Gründe der Inflation in den 1970er Jahren waren (nämlich die Stärke der OPEC; dazu wären noch Bankenspiele und starke Gewerkschaften zu nennen).

    Der Glaube an die Kraft des Zinssatzes ist offenbar durch keinerlei Tatsachen zu erschüttern, nicht einmal die Folgen der Nullzinspolitik der letzten zehn Jahre. Außer im schattigen Bereich von Immobilien, Aktien, Derivaten, Großkunst und Kryptogeld fanden diese nämlich nicht statt. Es gab weder nennenswerte Inflation noch nennenswertes Wachstum (allen Gottheiten sei dank – Zukunft hätte das eh nicht).

    Um so unverständlicher ist, dass Klemens Kindermann aus der Deutschlandfunk-Wirtschaftsredaktion (nun: vorher Handelsblatt) vorhin die EZB schalt, weil sie die Zinsen so lange niedrig ließ und deshalb Schuld habe an den hohen Inflationsraten im Euro-Raum. Wörtlich:

    Fehler Nummer 2: Allerspätestens seit Beginn des Angriffs Russlands auf die Ukraine hätte das Ruder herumgerissen werden müssen. In den USA hat das die Zentralbank erkannt und massiv gegengesteuert.

    Damit meint er: sie haben die Leitzinsen erhöht. Nun: wenn das so ist, was war die Wirkung? Sehen wir bei aller Reserviertheit gegenüber der Kennzahl Inflationsrate mal auf Zahlen meinethalben von irgendeinem Datensammler: Inflationsrate USA 8.5%, Inflationsrate BRD 8.5% (für Juli).

    Wer erklären kann, warum HandelsblättlerInnen und ihre Adpeten diese Zinsgeschichte so unbeirrt auspacken, wenn doch ganz offensichtlich ist, woher die Preisentwicklung kommt – derzeit: diverse Schwierigkeiten im Chinageschäft und ein Stellvertreterkrieg von fast vietnamösen Ausmaßen[1] –: Für mich wäre der oder die einE heißeR KandidatIn für den Wirtschafts-„Nobelpreis”.

    [1]Der Vietnamkrieg ist in diesem Zusammenhang vor allem deshalb zu erwähnen, weil seine Kosten wesentlich zur Aufgabe des an sich halbwegs vernünftigen Bretton-Woods-Systems geführt haben. Die daraus resultierenden „freien“ Wechselkurse wiederum haben der Freihandelspolitik und dem ganzen Elend, das mit ihr einherging, nochmal einigen Extraschwung gebracht. Nun sind die tatsächlichen Kriegskosten in der Ukraine im Vergleich zu Vietnam ziemlich klein – es sind ja nicht unsere Jungs, die „den Russen“ da bekämpfen, und auch in Tonnage von Bomben und Entlaubungsmittel ist das noch eine andere Liga –, aber es wird trotzdem spannend, ob der patriotische Rückenwind noch für ein paar komforable neue Umverteilungprogramme reichen wird…
  • Und nochmal Postwachstum: Von Friedrichstadt zu Isnogud

    Als ich vor gut einem Monat Friedrichstadt als Modell für eine gemütliche und hübsche Postwachstumsgesellschaft gelobt habe, habe ich auf eine wirklich augenfällige Besonderheit des Ortes nicht hingewiesen: Vor fast allen Häusern wachsen auf kleinstem Raum sorgfältig gepflegte Blumen, zumeist Rosen. Hier drei keineswegs untypische Beispiele:

    Montage aus drei spektakulären Szenen mit Blumen vor Haustüren

    Nun glaube ich nicht, dass der Mensch zum Wettbewerb geboren ist – dass es spätestens auf Schulhöfen so aussehen mag, lässt sich zwanglos als Herausforderung im Prozess der Zivilisation auffassen. Solange aber die soziale Praxis ist, wie sie ist, finde ich die Friedrichstädter Ableitung von Wettbewerbstrieb in eine dekorative und weitgehend unschädliche Richtung eine großartige Strategie zur, hust, Nachhaltigkeit (Übersetzung aus dem Blablaesischen: Das können sie auch noch 1000 Jahre so treiben, ohne dass es ihnen um die Ohren fliegt).

    Wenn die Menschen hingegen darum wettbewerben, wer das größere Auto hat oder, noch viel schlimmer, wessen Unternehmen mehr produziert, hat das ganz offensichtlich dramatische Konsequenzen; in einer Art individualpsychologischer Kapitalismusanalyse würde es sogar taugen, die ganze Wachstumskatastrophe zu erklären.

    Allerdings machen manche der Friedrichstädter Blumen durchaus den Eindruck, als hätten sie Dünger auf Mineralölbasis bekommen oder auch fiese Pestizide, so dass bei so einem Herumdoktorn an Symptomen des Wettbewerbswahnsinns jedenfalls Vorsicht nötig ist. Sobald die Leute nämlich in ihrer Wettbewerberei immer größere Flächen düngen oder begiften können, ist es schon wieder vorbei mit der, hust, Nachhaltigkeit. Ich denke, das ist meine Chance, das neueste der wunderbaren Worte, die wir der Nuklearlobby zu verdanken haben, in meinen aktiven Wortschatz aufzunehmen:

    Wir sollten Rosenzucht wie in Friedrichstadt als Streckbetrieb der Wettbewerbsgesellschaft denken.

    —Anselm Flügel (2022)

    Die Friedrichstadt-Thematik ist aber eigentlich nur Vorgeplänkel, denn wirklich verweisen wollte ich auf den Artikel „Bevölkerungswachstum – Wie viele werden wir noch?“ von David Adam im Spektrum der Wissenschaft 2/2022 (S. 26; Original in Nature 597 (2021), S. 462), der mir vorhin in die Hände gefallen ist.

    Diesen Artikel fand ich schon deshalb bemerkenswert, weil er recht klar benennt, dass ein Ende des Wachstums (in diesem Fall der Bevölkerung) wünschenswert und zudem auch fast unvemeidlich ist, sobald Frauen über ihre Fortpflanzung hinreichend frei entscheiden können und sich Religion oder Patriotismus oder Rassismus nicht zu stark verdichten. Vor allem aber wird dort eine große Herausforderung für fortschrittliche Menschen angekündigt:

    In 23 Ländern könnte sich die Bevölkerung laut dieser Vorhersage bis Ende des Jahrhunderts sogar halbiert haben, unter anderem in Japan, Thailand, Italien und Spanien.

    Ich bin überzeugt, dass sich die wenigsten MachthaberInnen mit so einer Entwicklung abfinden werden, so willkommen sie gerade in diesen dicht besiedelten Staaten (gut: Spanien und Thailand spielen mit um die 100 Ew/km² schon in einer harmloseren Liga als Japan oder Baden-Württemberg mit um die 300) auch sind. Menschen mit Vernunft und ohne Patriotismus werden dann sehr aufdringlich argumentieren müssen, dass Bevölkerungsdichten von 50 oder auch nur 10 Menschen auf dem Quadratkilometer das genaue Gegenteil vom Ende der Welt sind und jedenfalls für ein paar Halbierungszeiten überhaupt kein Anlass besteht, darüber nachzudenken, wie Frauen, die keine Lust haben auf Schwangerschaft und Kinderbetreuung, umgestimmt werden könnten.

    Wie würde ich argumentieren? Nun, zunächst mal in etwa so:

    Die kulturelle Blüte unter Hārūn ar-Raschīd (um mal eine recht beeindruckende Hochkultur zu nennen; siehe auch: Isnogud) fand in einer Welt mit höchstens 300 Millionen Menschen statt, also rund einem sechzehntel oder 2 − 4 der aktuellen Bevölkerung. Angesichts der damaligen Gelehrsamkeit dürfte als sicher gelten, dass mit so relativ wenigen Menschen immer noch eine interessante (technische) Ziviliation zu betreiben ist. Demnach haben wir mindestens vier Halbierungszeiten Zeit, ohne dass unsere Fähigkeit, in der Breite angenehm zu leben, aus demographischen Gründen in Frage steht.

    Wenn unsere modernen Gesellschaften von Natur aus um 1% im Jahr schrumpfen würden, wäre eine Halbierungszeit etwa 75 Jahre, und die vier Halbierungszeiten würden zu 300 Jahren, in denen wir uns wirklich in aller Ruhe überlegen könnten, wie wir unsere Reproduktion so organisieren, dass Frauen im Schnitt auch wirklich die 2.1 Kinder bekommen wollen, die es für eine stabile Bevölkerungszahl bräuchte (oder wie wir die Bevölkerungszahl anders stabilisiert kriegen; soweit es mich betrifft, ist ja auch die ganze Sterberei deutlich überbewertet).

    Allerdings ist das wahrscheinlich ohnehin alles müßig. Zu den bedrückendsten Papern der letzten 20 Jahre gehört für mich A comparison of The Limits to Growth with 30 years of reality von Graham Turner, erschienen in (leider Elsevier) Global Environmental Change 18 (2008), 397 (doi:10.1016/j.gloenvcha.2008.05.001; bei libgen). Darin findet sich folgende Abbildung:

    Vergleich verschiedener Modelle mit der Realität in einem Plot, ein Modell, das in den 2030er Jahren kippt, passt am besten

    Copyright 2008 Elsevier (Seufz! Das Mindeste wäre ja, dass die Rechte bei denen liegen, die die Forschung bezahlt haben, in diesem Fall also der CSIRO)

    Was ist da zu sehen? Die Kuven in grün und rot geben jeweils die Umweltverschmutzungs-Metrik der Modelle, die Dennis Meadows et al um die 1970 herum gerechnet haben und die zur Publikation der Grenzen des Wachstums geführt haben. Rot ist dabei das Modell, in dem es glaubhafte technische Bemühungen um Umweltschutz gibt, ansonsten aber weiter Wachstumskurs herrscht. Die grüne Kurve zeigt das Modell, in dem Leute allenfalls so tun als ob.

    Dass mit „Grünem Wachtum“ (in einem Wort: Elektroautos) die totale Umweltverschmutzung einen viel höheren Peak nimmt (wenn auch später), ist schon mal eine Einsicht, an die sich nicht mehr viele erinnern wollen; Meadows et al teilen jedenfalls meine Einschätzung, dass es keine technische Lösung für das Problem der Endlichkeit des Planeten gibt. Wer sowas dennoch versucht, sollte wissen, worum es geht: Die Umweltverschmutzung geht in den Modellen nach den Gipfeln zurück, weil die Umweltverschmutzenden (a.k.a. die Menschen) in großer Zahl (zu mehr als 2/3) verhungert, an Seuchen oder sonst irgendwie vor ihrer Zeit gestorben sind.

    So viel war schon vor Turners schlimmem Paper klar. Turners Beitrag war nun, reale Messgrößen auf Meadows' Metriken abzubilden – darüber ließe sich, wie immer bei Metriken, sehr trefflich streiten. Akzeptiert mensch diese Abbildung jedoch, ist die reale Entwicklung durch die schwarzen Punkte knapp unter der grünen Kurve repräsentiert. Das würde heißen: für die 30 Jahre zwischen 1970 und 2000 kommt eines von Meadows Modellen ziemlich genau hin: Das Modell, das in den 2030er Jahren kippt.

    Und nochmal: „Kippen“ ist hier ein terminus technicus dafür, dass etwas wie zwei von drei Menschen innerhalb von grob einem Jahrzehnt sterben.

    Wenn sich Meadows und Turner nicht ordentlich verrechnet haben – und ja, ich hätte an beiden Arbeiten reichlich zu meckern, nur wohl leider nicht genug, um die grundsätzlichen Ergebnisse ernsthaft zu bestreiten –, wird in gut zehn Jahren die Frage eines düsteren 80er Jahre-Graffitos in einer Erlanger Unterführung brandaktuell:

    Who will survive? And what will be left of them?

    Ungefähr hier

  • SPARQL 4: Be Extra Careful on your Birthday

    A Yak staring at the photographer

    Enough Yak Shaving already.

    I am now three parts into my yak-shaving investigation of Wikidata and SPARQL (one, two, three) with the goal of figuring out whether birthdays are more or less dangerous – measured by whether or not people survive them – than ordinary days.

    At the end of the last instalment I was stumped by timeouts on Wikidata, and so much of this post is about massaging my query so that I get some answers in the CPU minute that one gets on Wikidata's triplestore. While plain optimisation certainly is necessary, working on six million people within a minute is probably highly ambitious whatever I do[1]. I will hence have to work on a subset. Given what I have worked out in part 3,

    # This will time out and just waste CPU.
    SELECT (count(?person) AS ?n)
    WHERE {
      ?person rdfs:label ?personName.
      ?person wdt:P569 ?bdate.
      hint:Prior hint:rangeSafe true.
      ?person wdt:P570 ?ddate.
      hint:Prior hint:rangeSafe true.
    
      FILTER (MONTH(?bdate)>1 || DAY(?bdate)>1)
      FILTER (MONTH(?bdate) = MONTH(?ddate)
        && DAY(?bdate) = DAY(?ddate)
        && YEAR(?bdate) != YEAR(?ddate))
      FILTER (YEAR(?bdate)>1850)
    
      FILTER (lang(?personName)="en")
    }
    

    – how do I do a subset? Proper sampling takes almost as much time as working with the whole thing. But for now, I'd be content with just evaluating my query on whatever subset Wikidata likes to work on. Drawing such a (statiscally badly sampled) subset is what the LIMIT clause you have already seen in part one does. But where do I put it, since, if things work out, my query would only return a single row anyway?

    Subqueries in SPARQL, and 50 Labels per Entity

    The answer, as in SQL, is: A subquery. In SPARQL, you can have subqueries like this:

    SELECT (count(?person) as ?n)
    WHERE {
      { SELECT ?person ?personName ?bdate ?ddate
        WHERE {
          ?person rdfs:label ?personName;
            wdt:P569 ?bdate;
            wdt:P570 ?ddate.
        }
        LIMIT 50
      }
      FILTER (lang(?personName)="en")
    }
    

    – so, within a pair of curly braces, you write another SELECT clause, and its is then the input for another WHERE, FILTER, or other SPARQL construct. In this case, by the way, I'm getting 50 records with all kinds of labels in the subquery and then filter out everything that's not English. Amazingly, only one record out of these 50 remains: there are clearly at least 50 statements on labels for the first entity Wikidata has picked here.

    Raising the innner limit to 500, I get 10 records. For the particular sample that Wikidata chose for me, a person indeed has 50 labels on average. Wow. Raising the limit to 5000, which probably lowers the the pharaohs to non-pharaohs in the sample, gives 130 records, which translates into 38 labels per person.

    Clearly, adding the labels is an expensive operation, and since I do not need them for counting, I will drop them henceforth. Also, I am doing my filtering for off-January 1st birthdays in the subquery. In this way, I probably have a good chance that everything coming out of the subquery actually counts in the outer filter, which means I can compute the rate of people dying on their birthday by dividing my count by the limit.

    Let's see where this gets us:

    SELECT (count(?person) AS ?n)
    WHERE {
      { SELECT ?person ?bdate ?ddate
        WHERE {
          ?person wdt:P569 ?bdate.
          hint:Prior hint:rangeSafe true.
          ?person wdt:P570 ?ddate.
           FILTER (MONTH(?bdate)>1 || DAY(?bdate)>1)
          FILTER (YEAR(?bdate)>1850)
          hint:Prior hint:rangeSafe true.
        }
        LIMIT 500
      }
    
      FILTER (MONTH(?bdate) = MONTH(?ddate)
        && DAY(?bdate) = DAY(?ddate)
        && YEAR(?bdate) != YEAR(?ddate))
      hint:Prior hint:rangeSafe true.
    }
    

    Named Subqueries and Planner Barriers

    That's returning a two for me, which is not implausible, but for just 500 records it ran for about 20 seconds, which does not feel right. Neither pulling the 500 records nor filtering them should take that long.

    When a database engine takes a lot longer than one thinks it should, what one should do is take look at the query plan, in which the database engine states in which sequence it will compute the result, which indexes it intends to use, etc.

    Working out a good query plan is hard, because in general you need to know the various partial results to find one; in my example, for instance, the system could first filter out everyone born after 1850 and then find the death dates for them, or it could first match the death dates to the birthdays (discarding everything that does not have a death day in the process) and then filter for 1850. Ff there were may people with birthdays but no death days (for instance, because your database talks mostly about living people), the second approach might be a lot faster. But you, that is, the database engine, have to have good statistics to figure that out.

    Since that is such a hard problem, it is not uncommon that the query planner gets confused and re-orders operations such that things are a lot slower than they would be if it hadn't done the ordering, and that's when one should use some sort of explain feature (cf. Wikidata's optimisation hints). On Wikidata, you can add an explain=detail parameter to the query and then somehow display the bunch of HTML you get back.

    I did that and, as I usually do when I try this kind of thing, found that query plans are notoriously hard to understand, in particular when one is unfamiliar with the database engine. But in the process of figuring out the explain thing, I had discovered that SPARQL has the equivalent of SQL's common table expressions (CTEs), which gave me an excuse to tinker rather than think about plans. Who could resist that?

    In SPARQL, CTEs are called named subqueries and used like this:

    SELECT (count(?person) AS ?n)
    WITH { SELECT ?person ?bdate ?ddate
        WHERE {
          ?person wdt:P569 ?bdate;
          hint:Prior hint:rangeSafe true.
          ?person wdt:P570 ?ddate.
          hint:Prior hint:rangeSafe true.
           FILTER (MONTH(?bdate)>1 || DAY(?bdate)>1)
          FILTER (YEAR(?bdate)>1850)
        }
        LIMIT 30000
      } AS %selection
    WHERE {
      INCLUDE %selection
    
      FILTER (MONTH(?bdate) = MONTH(?ddate)
        && DAY(?bdate) = DAY(?ddate)
        && YEAR(?bdate) != YEAR(?ddate))
      hint:Prior hint:rangeSafe true.
    

    – you write your subquery in a WITH-block and give it a name that you then INCLUDE in your WHERE clause. In several SQL database systems, such a construct provides a planner barrier, that is, the planner will not rearrange expressions across a WITH.

    So does, according to the optimisation hints, Wikidata's current SPARQL engine. But disappointingly, things don't speed up. Hmpf. Even so, I consider named subexpresisons more readable than nested ones[2], so for this post, I will stay with them. In case you come up with a brilliant all-Wikidata query, you probably want to go back to inline subqueries, though, because then you probably do not want to constrain the planner too much.

    Finally: Numbers. But what do they Mean?

    With my barrier-protected subqueries, I have definitely given up on working with all 6 million persons with birthdays within Wikidata. Interestingly, I could go from a limit of 500 to one of 30'000 and stay within the time limit. I never went back to try and figure out what causes this odd scaling law, though I'd probably learn a lot if I did. I'd almost certainly learn even more if I tried to understand why with a limit of 50'000, the queries tended to time out. But then 30'000 persons are plenty for my purpose provided they are drawn reasonably randomly, and hence I skipped all the tempting opportunities to learn.

    And, ta-da: With the above query, I get 139 matches (i.e., people who died on their birthdays).

    What does that say on the danger of birthdays? Well, let's see: If birthdays were just like other days, one would expect 30'000/365 deaths on birthdays in this sample, which works out to a bit more than 80. Is the 140 I am finding different from that 80 taking into account statistical noise? A good rule of thumb (that in the end is related to the grand central limit theorem) is that when you count n samples, your random error is something like (n) if everything is benevolent. For 140, that square root is about 12, which we physicist-hackers like to write as σ = 12, and then we quickly divide the offset (i.e., 140 − 80 = 60) by that σ and triumphantly proclaim that “we've got a 5-σ effect”, at which point everyone is convinced that birthdays are life-threatening.

    This is related to the normal distribution (“Gauss curve”) that has about 2/3s of its area within “one σ” (which is its width as half maximum and would be the standard deviation of something you draw from such a distribution), 95% of …

  • Mary Lea Heger: Interstellares Natrium und Geburtstage

    Fotonegativ eines hellen Sterns und des umgebenden Sternfelds.

    Der Stern δ Orionis in einer Aufnahme von 1927 (B5232a aus HDAP) – das war eines der zwei Objekte, in deren Spektrum Mary Lea Heger das interstellare Natrium entdeckt hat.[1]

    In der DLF-Sternzeit vom 13. Juli ging es um Mary Lea Heger, die vor rund 100 Jahren entdeckte, dass es Natrium im Raum zwischen den Sternen gibt (auch wenn sie sich im verlinkten Artikel von 1919 noch nicht ganz sicher war, wo genau). Wer mal Himmelsaufnahmen aus der Zeit gesehen hat, wird ahnen, wie haarig das gewesen sein muss.

    Heger hat nämlich Spektren aufgenommen, was damals überhaupt nur für sehr helle Sterne wie den oben abgebildeten δ Orionis alias Mintaka (der am weitesten rechts stehende Gürtelstern des Orion) sinnvoll ging. Aus diesen Spektren hat sie dann Radialgeschwindigkeiten abgeleitet, also im Groben beobachtete Wellenlängen von Spektrallinien bekannter Elemente mit deren auf der Erde messbaren Wellenlängen verglichen, daraus die Blau- bzw. Rotverschiebung abgeleitet und daraus wiederum bestimmt, wie schnell sich die Objekte gerade auf uns zu oder von uns weg bewegen.

    Ehrlich gesagt weiß ich gar nicht, wie das damals gemacht wurde. Heute malt einem der Computer schöne Kurven und kann dann auch beliebige Funktionen dranfitten. Damals hingegen war, denke ich, schon die numerische Erfassung der Schwärzungen der Fotoplatte (bei der ihrerseits doppelte Schwärzung mitnichten doppeltes Licht bedeutet) eine echte Herausforderung. Die Wikipedia schreibt leider unter Densitometer nichts zur Geschichte dieser Geräte, und zu einer richtigen Recherche kann ich mich gerade nicht aufraffen.

    Mintaka und Hegers zweites Objekt, der von uns aus kaum ordentlich zu beobachtende β Scorpii alias Akrab[2], sind beides ziemlich heiße Sterne, im Jargon Spektralklasse B mit Oberflächentemperaturen deutlich über 20000 Kelvin (die Sonne: 6000 K). Weil bei diesen Temperaturen die Atome recht schnell unterwegs sind, wenn sie Photonen absorbieren, sind die Linien solcher Sterne in der Regel breit (vgl. Dopplerverbreiterung); auf den Fotos, aus denen solche Spektren gewonnen wurden, wirken die Linien sozusagen ausgewaschen.

    Tanzende und stehende Linien

    Heger hat nun aber auch ein paar recht scharfe Linien von Kalzium und Natrium in den Spektren dieser Sterne gefunden, und zwar in Absorption, was heißt: Irgendwo zwischen da, wo das Licht herkommt und Hegers Spektrographen muss es Kalizum- und Natriumatome geben, die das Licht der passenden Wellenlängen absorbiert (und dann wieder woandershin emittiert) haben. Und davon nicht zu knapp.

    Plot einer Kurve, beschriftet mit Wellenlängen

    Ein modernes Spektrum von β Ori (vom FEROS-Spektrographen der ESO, HD36485_1069462_2014-08-24T08:30:43.517_S0.5x11_1x1_UVB_NOD). Auf der x-Achse ist die Wellenlänge in Nanometer, auf der y-Achse die Flussdichte in Instrumenteneinheiten. Gezeigt ist die Umgebung der Fraunhofer-Linien H (Labor: 393,368 nm) und K (Labor: 396,847 nm) des einfach ionisierten Kalziums. Links ist eine relativ schmale und unstrukturierte Linie zu sehen, wie sie Heger für die interstellare Absorption gesehen haben wird, rechts dann eine breite Linie mit vielen Komponenten von den Einzelsternen: die Höcker da drauf würden tanzen, wenn mensch einen Film machen würde. Nach etwas Überlegung habe ich beschlossen, mich nicht festzulegen, was welche Linie ist…

    Sowohl Akrab als auch Mintaka sind zudem recht enge Doppelsterne[3]. So enge, dass sie mit damaligen Techniken wie ein Stern erschienen. Dass es sich um Doppelsterne handelt, war bekannt, weil in ihren Spektren (im Groben) jede Linie nicht ein Mal, sondern zwei Mal vorhanden ist, und die Teile eines Paars darüber hinaus regelmäßig umeinander tanzen. Die Erklärung: jeder Stern macht für sich eine Linie, die je nach Stellung in der Bahn anders dopplerverschoben ist als die seines Partners. Nun sind solche Sterne sehr schwer, und sie umkreisen sich auf relativ engen Bahnen (bei Mintaka: das Jahr ist im engen Paar 5.7 Tage lang), so dass die Bahngeschwindigkeiten bis hunderte Kilometer pro Sekunde betragen können[4]. Damit sind auch die Dopplerverschiebungen der Linien recht ernsthaft, und so ist die Natur der ersten dieser spektroskopischen Doppelsterne schon Ende des 19. Jahrhunderts aufgefallen.

    Nur: Hegers scharfe Linien tanzen nicht. Sie bleiben stur stehen, während die Sterne umeinander rasen. Und damit ist klar, dass die absorbierenden Atome zumindest nicht zu den einzelnen Sternen gehören. Sie könnten im Prinzip aus der Erdatmosphäre kommen, denn die Natriumschicht in so um die 100 km Höhe, die heute für Laser-Leitsterne verwendet wird, ist in hinreichend empfindlichen Spektren durchaus zu sehen. Wie das mit damaligen Spektren war, weiß ich nicht, die Schicht als solche wurde aber erst 1929 entdeckt (was sich jedoch nur auf die spezifische Verteilung des Natriums beziehen mag – andererseits ist neutrales Natrium in Gegenwart von Sauerstoff nicht gerade stabil. Also: ich weiß es wirklich nicht).

    Abgeleitete Kopfzahl: mit 30⋅3600 Sachen um die Sonne

    Heger wird aber (auch wenn sie das im verlinkten Artikel nicht schreibt, weil die entsprechende Korrektur Teil der Standard-Datenreduktion war und ist) in ihren scharfen Linien doch eine Bewegung gesehen haben, nämlich um etwas weniger als 30  km ⁄ s. Das ist der Reflex der Bewegung der Erde um die Sonne, und der wäre in atmosphärischen Linien nicht zu sehen, da sich ja die Atmosphäre mit der Erde bewegt.

    Die Geschwindigkeit der Erde bei ihrem Weg um die Sonne ist übrigens mit zwei Kopfzahlen schnell abgeschätzt: erstens dem Dauerbrenner 30 Millionen Sekunden pro Jahr (oder π⋅107  s, was tatsächlich die Art ist, in der ich mir das merke) und dann die 150 Millionen km (was ich mir als 1.5⋅1011  m merke) für den Radius der Erdbahn. Die Geschwindigkeit ist dann einfach Umfang der Erdbahn geteilt durch ein Jahr oder in überschaubareren Einheiten

    (2⋅π⋅1.5⋅108  km)/(π⋅107  s) = 3⋅101  km ⁄ s

    Das “etwas weniger“ als diese 30  km ⁄ s kommt daher, dass die volle Amplitude dieser Bewegung nur bei Sternen in der Ekliptik, also der Abbildung der Erdbahn am Himmel, zu sehen ist. Geht mensch von dieser gedachten Linie weg, wird die Geschwindigkeitskomponente in Richtung des Sterns kleiner (nämlich mit dem Kosinus der ekliptikalen Breite), bis am ekliptikalen Pol gar kein Reflex der Erdbewegung mehr zu sehen ist[5].

    Akrab nun steht in einem Tierkreiszeichen und von daher quasi per definitionem nahe an der Ekliptik. Auch der Orion (gleich südlich vom Stier) ist nicht weit von ihr entfernt – die ekliptikale Breite von Mintaka ist ungefähr 23.5 Grad. Deshalb taugt 30  km ⁄ s schon als Abschätzung für die Amplitude der Radialgeschwindigkeit der beiden Sterne aufgrund der Bewegung der Erde um die Sonne.

    Mit 10⋅3600 Sachen mit der Sonne durch die Strom

    Tatsächlich konnte Mary Lea Heger die Rotverschiebungen ihrer scharfen Linien und unscharfen Linien messen und kam auf folgendes Geschwindigkeiten (alles in km/s):

    Objekt β Sco δ Ori
    Natrium -9.2 17.6
    Kalzium -8.5 18.7
    RG des Systems -11.0 15.2
    Sonnenbewegung -10.7 18.1

    Die „Sonnenbewegung“ ist dabei das, was damals schon gemessen war als Bewegung der Sonne gegenüber der allgemeinen galaktischen Rotation von etwa 200  km ⁄ s – wie die damals darauf gekommen sind, ist eine ganz eigene Geschichte –, projiziert auf den Richtungsvektor zum jeweiligen Stern. Die „Radialgeschwindigkeit (RG) des Systems“ hingegen ist die Geschwindigkeit, mit der der Schwerpunkt der jeweiligen Sternsysteme auf uns zukommt oder sich von uns entfernt.

    Dass die Sonnenbewegung und Radialgeschwindigkeiten hier recht eng beieinander liegen, ist übrigens kein Zufall. Beide Sterne sind wie gesagt heiße B-Sterne, und diese sind[6] nach astronomischen Maßstäben sehr jung, gerade erst (also: vor ein paar oder ein paar zehn Millionen Jahren) aus Gaswolken geboren. Die Gaswolken wiederum laufen sehr brav mit der allgemeinen galaktischen Rotation mit. Sie können gar nicht anders, denn anders als die Sterne kollidieren Gaswolken in Galaxien durchaus miteinander, wenn eine versucht, quer zum Strom zu schwimmen. Wenn sie dann kollidieren, verlieren sie rasch ihre Eigengeschwindigkeiten (und produzieren sehr wahrscheinlich noch eifrig Sterne). Was übrig bleibt, läuft wieder brav mit dem Rest der Galaxis.

    Sterne hingegen können sich frei durch die Galaxis bewegen, weil sie praktisch nie mit anderen Sternen kollidieren – für einen Stern, kompakt wie er ist, ist die Galaxis quasi ein Vakuum, wenn auch eins mit Gavitationsfeld. Gerät ein Stern allerdings in die Nähe schwerer Dinge (wie etwa solchej Wolken), wird er ein wenig aus seiner Bahn gehoben, und das äußert sich am Ende in Eigengeschwindigkeiten wie der Sonnenbewegung von oben. Junge Sterne hatten noch keine Zeit, diese Sorte Schwung zu holen, und so ist die Radialgeschwindigkeit oben eigentlich nichts anderes als die Sonnenbewegung.

    Auch wenn Heger keine Fehlerschätzungen angibt, ist die Übereinstimmung der Geschwindigkeiten der scharfen Linien und der Sonnenbewegung umwerfend gut, jedenfalls, wenn mensch die Schwierigkeiten der in diese Tabelle eingehenden Messungen bedenkt. Tatsächlich gibt die Wikipedia für die Radialgeschwindigkeit des Gesamtsystems Akrab  − 1±2  km ⁄ s gegen Hegers -11; in einem System aus sechs Sternen muss das noch nicht mal auf ein Problem bei Heger hindeuten, aber ganz ehrlich: Ich wäre sehr verwundert, wenn sie besser als auf, sagen wir, 5 km/s hätte messen können.

    Hegers Fazit

    Entsprechend war Heger in ihren Schlussfolgerungen vorsichtig:

    The agreement of the velocity obtained from the D lines …
  • Wird Bolsonaro Schuld sein an der nächsten großen Seuche?

    Diagramm mit Einflussfaktoren wie Wald-Dichte, Artenvielfalt, Stadtnähe und ihren Korrelationen untereinander und mit der Inzidenz von Zoonosen

    Wie verschiedene Metriken die Häufigkeit von Zoonosen beeinflussen: Abbildung zwei aus doi:10.1126/sciadv.abo5774. CC-BY-NC Winck et al.

    Auch wenn (oder gerade weil) in China ein SARS-Erreger schon mal aus enem Labor entkommen ist, glaube ich ja immer noch ziemlich fest daran, dass SARS-2 aus (zu) engem Kontakt von Menschen und Wildtieren entstanden ist. Wo es viele Tiere gibt, sind solche Krankheiten mit tierischer Beteiligung, Zoonosen, Regel eher als Ausnahme, und wo es viele verschiedene Tiere gibt, ist entsprechend mit vielen Überraschungen zu rechnen. So erscheint Brasilien als ideales Land, um quantitative Schätzungen zu bekommen zur Frage, wie insbesondere neuartige Krankheitserreger Artgrenzen überwinden können und was dann passiert.

    Das war das Projekt von Gisele R. Winck und Ciclilia Andreazzi vom Institiuto Oswaldo Cruz in Rio de Janeiro sowie KollegInnen von verschiedenen anderen brasilianischen Instituten, über das sie in „Socioecological vulnerability and the risk of zoonotic disease emergence in Brazil”, Science Advances 8 (2022), doi:10.1126/sciadv.abo5774, berichten – und auch gleich anmerken, dass Brasilien vielleicht doch kein ganz ideales Land ist, ist doch ein Großteil der derzeit in Brasilien grassierenden Zoonosen gar nicht in Amerika entstanden: Malaria, Dengue, Zika oder Gelbfieber kommen alle aus der alten Welt.

    Aber es gibt auch Beispiele für Zoonosen aus Südamerika, so etwa Chagas, ein von Trypanosomen – das sind einzellige Eukaryoten, also in gewissem Sinn einfache Tiere – hervorgerufenes Syndrom, das zu tödlichen Verdauungsstörungen führen kann, sich aber nur gemeinsam mit relativ memmigen Wanzen weiterverbreiten kann.

    Pfadanalyse

    Winck et al versuchen, der Frage nach künftigen Zoonose-Risiken mit einer Pfadanalyse auf den Grund zu gehen, einer statistischen Methode zur Aufklärung von Netzwerken einander beeinflussender Größen, von der der ich, soweit ich mich erinnere, zuvor noch nie gehört habe. Diese Lücke dürfte wohl damit zusammenhängen, dass die Methode in der Biologie entwickelt wurde (ihr Erfinder war Populationsgenetiker) und im Bereich von Physik und Astronomie wenige etwas damit anzufangen wussten.

    Eine entsprechende ADS-Anfrage (und das ADS hat eigentlich alles, was es in der Astronomie gibt) liefert dann auch vor allem Kram aus Randbereichen, darunter eine Studie in den Geophysical Review Letters, die fast in das aktuelle Thema passt: „Urban Vegetation Slows Down the Spread of Coronavirus Disease (COVID-19) in the United States“. Da allerdings wette ich ungelesen, dass von dem Effekt wenig übrigbleibt, wenn mensch die Korrelation zwischen graueren Vierteln und Armut auf der einen und SARS-2 und Armut auf der anderen Seite rausrechnet.

    Wie dem auch sei: Bei einer Pfadanalyse braucht es eine Zielgröße (also das, dessen Verhalten erklärt werden soll) und „Kausalfaktoren“ (also Größen, das Verhalten der Zielgröße erklären sollen). Die Zielgröße im Paper ist die Fallzahl von einigen Zoonosen[1] in den verschiedenen brasilianischen Bundesstaaten.

    Das grobe Modell, das der Arbeit zugrundeliegt, ist nun, dass enge Kontakte zwischen Menschen und Tieren, gerade wenn wie beim Verzehr von Bushmeat Blut im Spiel ist, die Zoonosen nach oben treibt. Es könnte auch indirekte Effekte geben, wenn es etwa Wildtieren schlechter geht, weil die Menschen gerade ihr Habitat zerstören, und daher Pathogene, die vorher selten und harmlos waren, genau dann durch die geschwächte Population rauschen, wenn Menschen und Wildtiere während der Rodungen und vor der Etablierung funktionierender Landwirtschaft besonders wahrscheinlich interagieren. Mit solchen Motivationen betrachtet die Arbeit folgende Kausalfaktoren (vgl. Tabelle 1 im Paper):

    • Exposition gegenüber Zoonosen (Wie viele wilde Tiere gibt es? Wie gut ist die medizinische Versorgung der Nutztiere? Wie viel Boden ist (artenarme und in der Hinsicht wahrscheinlich eher sichere) landwirtschaftliche Fläche? Wie ist der Anteil der im Wesentlichen unberührten Fläche? Wie schnell gehen unberührte Flächen verloren?)
    • Empfindlichkeit gegenüber Zoonosen (Bäume in Städten als Proxy für die Art der Besiedlung; Kontakt mit Hausmüll als Proxy für die Dichte des Kontakts zu Vektoren wie Ratten und Mücken; Zustand der Abwassererfassung; Bruttoinlandsprodukt pro EinwohnerIn als Proxy für die Armutsrate)
    • Resilienz (Wie viel Gesundheitspersonal gibt es? In wie vielen Einrichtungen? Wie weit ist es in die nächste Stadt, in der spezialisierte Kliniken verfügbar sein werden?)

    Ich muss an der Stelle ein wenig die Nase rümpfen, denn an sich kann dieses Modell nicht so richtig das, was die AutorInnen zu versprechen scheinen: Aufklären, was mensch tun könnte, um neue Zoonosen im Zaum zu halten. Die Zielgröße ist ja die Ausbreitung längst an den Menschen gewöhnter Erreger. Zudem wird die Mehrheit der untersuchten Zoonosen von einzelligen Tieren verursacht und nicht von Viren oder Bakterien, deren pandemisches Potenzial ich weit höher einschätze, zumal, wenn sie anders als die meisten Einzeller keine Zwischenwirte brauchen.

    Aber seis drum: Ganz unplausibel ist ja nicht, dass, wo bekannte Erreger besonders intensiv zwischen Menschen und Tieren ausgetauscht werden, sich auch unbekannte Erreger allmählich an Menschen gewöhnen können.

    BIP ist wurst

    Angesichts des betrachteten Reichtums an Faktoren ist schon erstaunlich, dass die Mathematik der Pfadanalyse mit den Daten von Winck et al das Bild am Anfang des Posts ergibt (nicht signifikante Kausalfaktoren sind dort nicht gezeigt), also etwa das Bruttoinlandsprodukt pro EinwohnerIn keinen signifikanten Einfluss auf die Zoonoserate hat (was aus meiner Sicht nur heißen kann, dass es in Brasilien kein nützliches Maß für den Wohlstand mehr ist). In den Worten des Artikels:

    Zoonotic epidemic risks, as inferred from the observed mean number of ZD cases, are positively associated with vegetation loss (path analysis coefficient = 0.30), mammalian richness (0.47), and remoteness (0.72) and negatively related to urban afforestation (−0.33) and vegetation cover (−0.82).

    Also: Bäume in der Stadt (hätte ich erstmal nicht als einen wichtigen Faktor geraten, aber siehe das oben erwähnte GeoRL-Paper) und vor allem intakte Wildnis sind gut gegen Zoonosen. Eine hohe Dichte wilder Säugetiere, mit denen Menschen im Zuge von Entwaldung eifrig interagieren und, noch stärker, die Entfernung von größeren menschlichen Ansiedlungen befördern demgegegenüber solche Krankheiten.

    Besonders stark ist dabei der Effekt der Bewaldung (bzw. Besteppung oder Bemoorung, wenn das die lokal vorherrschenden Ökosysteme sind): Sie fördert zwar sehr stark die Artenvielfalt von Säugetieren, doch hemmt sie dennoch Zoonosen insgesamt. Das passt erstaunlich gut zur Beobachtung von Jared Diamond in seinem lesenswerten Buch „Collapse: How societies choose to fail or succeed“[2], dass Entwaldung wohl der allerwichtigste Faktor für den Zusammenbruch von Zivilisationen ist.

    Und dann die Schurken

    Ich bin auf das Paper wie üblich über einen Beitrag in der DLF-Sendung Forschung aktuell gegekommen, in dem Fall vom 30.6. Darin wurde vor allem abgehoben auf den Schluss der AutorInnen, die aktuelle Herrschaft in Brasilien beeinflusse die Kausalfaktoren mit ihrer marktradikalen, reaktionären und teils auch anderweitig dummen Politik stark in Richtung Zoonose:

    Ein weiterer wichtiger Aspekt, dessen Relevanz sich gerade erst erwiesen hat, ist die Empfindlichkeit gegenüber fehlgeleiteten politischen Maßnahmen, wie sie von den augenblicklichen Regierungen veranlasst wurden.

    Besonders gut hat mir dabei gefallen die Rede von einer „increasing socioecological degradation“, also einem zunehmenden sozio-ökologischen Verfall, zumal ich dabei an meine eigene brasilianische Geschichte denken musste.

    Foto eines Schildes aus Portugiesisch: Vorsicht, Waldtiere auf der Straße

    Im Parco de Tijuca auf dem Stadtgebiet von Rio de Janeiro: Warnung vor den „Waldtieren“, die auf der Straße rumlaufen. Tatsächlich turnen Affen sogar durch die Telefonleitungen, die zum Nationalobservatorium führen.

    Im Jahr 2014 habe ich rund eine Woche am Nationalobservatorium in Rio de Janeiro gearbeitet. Ich denke, es ist nicht verkehrt, so etwa in dieser Zeit den Höhepunkt der Wirkungen der Sozialpolitik von Lula da Silva zu verorten, der speziell mit seiner bolsa familia Dutzenden Millionen Menschen ein halbwegs menschenwürdiges Leben ermöglicht hat.

    Das hatte sehr profunde Konsequenzen auch für Menschen aus der Mittelschicht. Mein Gastgeber etwa erzählte, er sei vor Lulas Sozialpolitik „Opfer ungefähr jedes Verbrechens gewesen, das es gibt“, und das sei eine recht typische Erfahrung der Cariocas gewesen. Demgegenüber sei in den vieleicht fünf Jahren vor meinem Besuch eigentlich nichts mehr in der Richtung passiert. Ein weiterer Kollege ergänzte, er sei in dieser Zeit nur einmal ausgeraubt worden, und zwar mit chirurgischer Präzision (seine Worte), als er in den frühen Morgenstunden schon ziemlich beschickert unterwegs gewesen sei und die Räuber die Nettigkeit hatten, ihm seinen Geldbeutel wieder zurückzugeben, zwar ohne Bargeld, aber mit allem Plastikwahnsinn, dessen Wiederbeschaffung wirklich viel Stress gewesen wäre.

    Diese Zeiten sind lange vorbei. Nach dem (rückblickend ist diese Charakterisierung wohl nicht zu bestreiten) Putsch gegen Dilma ging die Politik zurück zur Umverteilung von unten nach oben, mit den erwartbaren Konsequenzen für das Leben in einer Stadt wie Rio – und den weniger offensichlichen Konsequenzen für das Heranbrüten der nächsten großen zoonotischen Pandemie.

    Ich frage mich ja bei solchen Betrachtungen immer, wie Leute wie Bolsonaro eigentlich ruhig schlafen können. Aber dann: Die Frage stellt sich ja ganz analog für Scholz, Steinmeier, für Fischer und Schröder, die mit Hartz IV oder der versuchten Rentenprivatisierung ganz ähnliche Dinge, wenn auch vielleicht auf kleinerer Flamme, angerichtet haben. Und ich vermute, ich habe den Kern der Antwort schon berechnet: Allein der Umstand, dass diese Menschen Macht haben, macht es sehr wahrscheinlich, dass sie über erhebliche moralische Flexibilität verfügen.

    [1]Im einzelnen Bilharziose, Leishmaniose (innere und Haut-; wird im Rahmen des Klimawandels auch in der BRD häufiger), Leptospirose (letzter großer Ausbruch in der …
  • Konferenzplattformen-Shaming

    In meinem Job hatte ich über die letzten Jahre reichlich Gelegenheit, mich über verschiedene Konferenzplattformen zu ärgern – und dabei gibt es weit Schlimmeres als indico, das dank CERN die meisten Konferenzen in meiner fachlichen Umgebung organisiert und auch schon reichlich Gelegenheit zum Kopfschütteln gibt. Jetzt gerade muss ich mich mit einer „Plattform“ auseinandersetzen, die mühelos den Klick-mich-weg-Preis für die grottigste Software ihrer Klasse abräumt: whova.com

    Das fängt dort an, wo die Tagesordnungs-Links nicht etwa auf das Programm der jeweiligen Session führen, sondern blind zu einem eingebetteten Zoom-Widget und hört noch lange nicht auf, wo die ProgrammiererInnen viel Mühe darauf verwenden, dass NutzerInnen die Zoom-Raumkennung nicht rauskriegen und so sowohl den proprietären Zoom-Scheiß und die murksigen Browser-Medien (im Gegensatz zum immerhin halbwegs ordentlich funktionierenden nativen Client) haben. Das Schlechteste aus allen Welten.

    Aber über sowas kann ich mich normalerweise nicht mehr aufregen[1]. Zur Tastatur greifen musste ich erst, als ich unvorsichtigerweise dem „Leaderboard“-Link in der Sidebar der Plattform folgte. Dabei zeigte sich folgendes:

    Screenshot eines Browserfensters: Eine Rangliste mit 308900, 211900 und 23400 Punkten an den ersten drei Plätzen.

    Ich habe ein wenig anonymisierend eingegriffen, weil ich Konferenzplattformen, aber keine Konferenzen oder Personen shamen will.

    Ich wollte meinen Augen nicht trauen: Diese Plattform will die TeilnehmerInnen mit albernen „Challenges“ und künstlichen Wettbewerben steuern? Nur der Klarheit halber: Das ist eine Konferenz mit lauter MoverInnen und ShakerInnen aus dem Wissenschaftsbetrieb, die endlos „Strategien“, „Nachhaltigkeit“ und, görks, „Innovation“ durchquirlen können. Solche Leute sollen wegen Fleißbienchen ihr Verhalten ändern? Tun die das am Ende gar?

    Wenn ich das richtig verstanden habe, werden folgende Dinge belohnt:

    • Add a topic or social group (20000 Punkte)
    • Suggest meet-ups (20000 Punkte)
    • Post a question in Session Q&A (10000 Punkte)
    • Recommend a conference (6000 Punkte)
    • Post a reply (500+ Punkte – wer entscheidet über das „+“?)
    • Share an article (500+ – und was ist, wenn die Urherberrechtspolizei kommt?)
    • Join a meet-up or share a ride (? Punkte)
    • Add 3 sessions to personal agenda (300 Punkte)
    • Beef up your profile (300 Punkte)
    • Say hi to someone in the attendee list (300 Punkte)
    • Post an Ice Breaker in the community board (? Punkte)

    „Hallo sagen“? Und das wird dann belohnt? Ich will mal hoffen, dass diese whova.com-Leute weit außerhalb der DSGVO-Jurisdiktion sitzen, denn mit welchem Buchstaben von Artikel 6 (1) sich so eine Datenverarbeitung begründen ließe, könnte ich mir auch mit starken bewusstseinserweiternden Substanzen nicht vorstellen. Und: Hat wirklich eine reale Person auf die „Congratulate“-Links geklickt? Wenn ja: Was ging derweil in deren Gehirnen vor? „Es könnte ja auch meine zweijährige Tochter sein, und mit meinem Lob verbessere ich ihren Wettbewerbswillen“?

    So entsetzt ich insgesamt über diesen Großangriff auf Menschenwürde und Vernunft bin, eine Frage drängt sich mir schon auf: Wenn die beiden „Leader“ jeweils zehn Mal mehr Punkte haben als die Person auf Platz drei: Sind das Beschäftigte, deren Job es ist, auf dieser Zumutung aus dem Webbrowser rumzuklicken? Oder sind es Leute, die ihren Computern beigebracht haben, Fleißbienchen für sie zu erklicken? Wenn Letzteres: Ist das stummer Protest oder demonstrative Selbstaufgabe?

    [1]Wobei: Ich habe ja nicht viel mit Jira zu tun, aber doch genug, um die Testimonials auf https://ifuckinghatejira.com/ mit grimmer Befriedigung zu lesen. Ganz so entspannt im Hinblick auf nervige proprietäre Software wie ich gerne wäre bin ich also doch nicht.
  • Darf mensch Königinnen aufeinander hetzen?

    Nicht in meiner DLF-Lieblingssendung Forschung aktuell, sondern im Freistil vom 5.6.2022 bin ich auf den nächsten Fall meiner kleinen Sammlung von Fragen an die Ethikkommission bei Tierversuchen gestoßen. Im Groben: Ist es ok, Tiere bewusst und absichtlich gegeneinander kämpfen zu lassen? Und gibt es im Hinblick auf diese Frage Unterschiede zwischen Stieren und Regenwürmern?

    Aus meiner Sicht nicht weit von der Mitte der Wurm-Rind-Skala entfernt befinden sich die Papierwespen, für die die deutsche Wikipedia enttäuschenderweise auf die ordinäre Wespenseite weiterleitet. Speziell für die Stars dieses Posts, Polistes fuscatus – die biologische Normenklatur könnte mich der Physik abspenstig machen – gibt es immerhin einen Link auf der Feldwespen-Seite, doch hat sich noch niemand gefunden, der/die die zugehörige Seite angefangen hätte.

    Portraits von vier Wespen

    Fast noch spannender als die Frage, ob Wespen die Gesichtszeichnungen von Individuen auseinanderhalten können, finde ich ja die Frage, ob sie auch mal gut gelaunt aussehen können. Bildrechte: doi:10.1016/j.cub.2008.07.032 (bearbeitet).

    Bei Freistil klang es nun so, als habe jemand jeweils zwei Königinnen dieser Wespen miteinander bekannt gemacht; dass sie sich erkennen können, und zwar ziemlich sicher am Gesicht, ist offenbar spätestens seit den Arbeiten von Michael Sheehan und Elizabeth Tibbetts wohlbekannt. Unter den einschlägigen Artikeln, die ab den 2000er Jahren an der Uni von Michigan in Ann Arbor entstanden sind, ist viel zitiert „Specialized Face Learning Is Associated with Individual Recognition in Paper Wasps“ (viel zitiert vermutlich weil: Science 334 (2011), 1272, doi:10.1126/science.1211334). Das darin beschriebene Experiment ist erkennbar nicht das, von dem im Freistil die Rede war, wirft aber selbst eine ethische Frage auf:

    Darf mensch Königinnen elektroschocken?

    Sheehan und Tibbet gaben den Wespen nämlich eine T-förmige Flugzone, die überall Elektroschocks verabreichte, bis auf eine Stelle, die dann mit einem von einem paar von Bildern markiert war. Mithin war der Reiz, den die Leute zum Training der Wespen nutzten, die Abwesenheit von Elektroschocks, wenn es die Wespen richtig machten. Hm. Hrrmmmmmmmm! Wäre das nicht auch etwas freundlicher gegangen?

    Ausgangspunkt der Arbeit war die Vermutung, dass fuscatus-Wespen, die staatenbildend sind und deren Königinnen sich vor Gründung ihres Staates mit einem ganzen Haufen anderer Wespen raufen, zwei verschiedene Wespengesichter besser auseinanderhalten können („habe ich gegen die schon mal verloren?“) als metricus-Wespen, die meist allein leben und sich wenig prügeln. Um ein wenig sicherer zu sein bei der Frage, was da eigentlich beobachtet wird, haben Sheehan und Tibbetts auch Versuchstiere („healthy wild-caught adult female[s]“) auf Raupen (die die Wespen gerne essen), geometrische Zeichen (Kreuze, Dreiecke und sowas) und Wespenköpfe ohne Antennen trainiert.

    Das Ergebnis: Wespengesichter mit Antennen haben ausgelernte fuscatus-Wespen in 80% der Fälle vorm Elektroschock bewahrt (wobei der Nulleffekt 50% wäre), und sie haben die Gesichter schneller gelernt als die an sich viel einfacheren Zeichen. Waren die Antennen rausretuschiert, hat das Lernen länger gedauert, und bei 70% richtiger Wahl war Schluss.

    Wie viel Ausdauer braucht es für 10'000 Versuchsläufe?

    Und von wegen „Erst kommt das Fressen, dann kommt die Moral“: Wenn der Hinweis aus verschiedenen Raupensorten bestand, haben die Wespen nur in 60% der Fälle die trainierte Raupe gefunden, also fast nicht häufiger als durch Zufall zu erwarten. Und etwa genauso gut wie die einsiedlerischen metricus-Wespen, die mit den Gesichtern ihrer Artgenossinnen gar nichts anfangen konnten.

    Fleißbienchen am Rande: grob überschlagen müssen Sheehan und Tebitt die Wespen gegen 10'000 Mal haben fliegen lassen. Ich mag mir gar nicht vorstellen, wie viel Ausdauer es dafür gebraucht haben mag. Auf beiden Seiten. Aufgrund vorheriger Interaktionen mit Wespen vermute ich jedoch fast, dass für diese der repetetive Charakter der Unternehmung weniger problematisch gewesen sein dürfte. Ach ja, und ich würde gerne wissen, wie viele Stiche sich die beiden Menschen während der Arbeiten eingefangen haben.

    Wie ist es mit Kämpfen?

    Sheehan, der inzwischen an die Cornell-Universität in New York gewechselt ist, hatte schon zuvor (und hat noch weiter) mit den Wespen gearbeitet und berichtet darüber zum Beispiel in Current Biology 18 (2008), Nr. 18, R851 (doi:10.1016/j.cub.2008.07.032), „Robust long-term social memories in a paper wasp“. Für diese Studie haben die Leute ebenfalls einen Haufen fuscatus-Papierwespen gefangen, dieses Mal aber gezielt Begegnungen herbeigeführt. Dabei haben sie an Tag 0, 6 und 8 jeweils Wespen zusammengeführt, die sich nicht kannten, am siebten Tag dagegen nochmal die von Tag 0 vorbeigeschickt. Das fand ich schon mal ein recht cleveres Design: Wenn sich die Rauflustigkeit der Wespen generell geändert hätte, wäre das durch die Kontrollen an den Tagen sechs und acht aufgefallen.

    Aber das führt auf die Eingangsfrage: Ist diese Sorte Experiment nicht ziemlich eng verwandt mit Hahnenkämpfen, bei denen zwei Tiere, die, wären sie nicht in menschlicher Gefangenschaft, vermutlich friedlich vor sich hingelebt hätten, künstlich dazu gebracht werden, aufeinander einzuhacken? Wäre ich in einer Ethikkommission, müsste ich zumindest mal etwas nachdenken, ob ich Königinnenkämpfe eigentlich absegnen möchte, auch wenn es hier nicht um das Gaudium einer blutrünstigen Menge, sondern um die Förderung der Wissenschaft geht.

    Unter Bekannten doppelt so viele Begegnungen ohne Gewalt

    Immerhin scheinen die Kämpfe der Wespen relativ zivilisiert abzulaufen. Zumindest berichten Sheehan et al nicht davon, dass die Begegnungen an Tag 7 mal hätten ausfallen müssen, weil die Besucherinnen von Tag 0 inzwischen vielleicht totgestochen worden wären (Disclaimer: ich habe die Zusatzdaten nicht auf solche Vorkommnisse hin durchgesehen, denn ich war ja eigentlich auf der Suche nach etwas anderem).

    Das Ergebnis ist wieder recht beeindruckend; kannte sich ein Wespenpaar, gingen offenbar doppelt so viele Begegnungen ohne Gewalt aus wie andernfalls.

    Meine eingestandenermaßen oberflächliche Literaturrecherche hat aber leider kein Paper geliefert, bei dem jemand Wespen geschminkt hätte; ich hatte ich die Geschichte aus dem Freistil nämlich so verstanden, dass jemand zwei Wespen bekannt gemacht hat und dann das Gesicht einer der beiden verändert, um zu prüfen, ob es wirklich das ist, an das sich die Wespen erinnern und nicht etwa, sagen wir, der Geruch oder die Melodie des Summens. Auch wenn das Elektroschockexperiment das sehr nahelegt: Ich finde es völlig plausibel, so ein Schminkexperiment zu machen. Wer die dazugehörige Studie findet: das Antwortfomular gehört völlig euch.

    Empathietraining

    Wer die ganze Sendung hört, dürfte auf ein anderes ethisches Problem stoßen, eines, das mir, der ich nicht in einer Ethikkommission sitze, deutlich mehr Sorgen macht: Im O-Ton wird eingespielt, wie jemand eine Drosophile erst mit Wachs festklebt und dann immer weiter fesselt. „Drosophile“: Ihr merkt, ich habe rein emotional ein spezielles Verhaltnis zu Fruchtfliegen, weil ich in ihnen, die wie ich Obst nicht widerstehen können – je süßer, je besser – ganz entfernt Geistesverwandte sehe.

    Andererseits: Wenn ich den Kompostmüll leere, nehme ich, ehrlich gesagt, keine Rücksicht darauf, wie viele von ihnen ich dabei wohl zerquetsche. Die insgesamt vergleichbar menschenähnlichen Mücken und Zecken töte ich sogar gezielt, wenn ich kann. Und nun habe ich diesen Bericht gehört und musste mich sehr beherrschen, um mich nicht zu empören. Das mag ein wenig zu tun haben mit dem völlig überflüssigen Gag, Enrico Caruso durch das Drosophilenohr aufzunehmen, denn Folter[1] ist nochmal schlimmer, wenn irgendeine Sorte, ach ja, „Humor“ mitschwingt.

    Aber auch ohne das: Ist es verlogen, wenn ich mich über die Misshandlung von Lebewesen empöre, die ich andererseits ohne große Reue und ganz nebenbei – oder gar gezielt – töte?. Auf der anderen Seite will mensch, so glaube ich, diese Anflüge von Empathie auch nicht wirklich bekämpfen. Die Charakterisierung der Feinde als Ratten und Schmeißfliegen (der Namenspate des Münchner Flughafens, Franz Josef Strauß, war Meister dieses Genres), als Tiere also, mit denen Empathie zu haben wirklich schwerfällt, wenn sie sich erstmal ordentlich vermehrt haben, ist ein recht konstantes Feature so gut wie aller Kriege und anderer Massenmorde der Geschichte.

    Mit diesem Gedanken bin ich nach der Freistil-Sendung auf folgendes Fazit gekommen: Selbst wenn es nicht der Tiere selbst wegen geboten sein sollte, schon ganz speziezistische Humanität gebietet es, diese Sorte von Mitleid mit jeder Kreatur zu hegen und nicht zu kritisieren. Und vor den Feldzügen gegen die Nacktschnecken wenigstens noch ein wenig mit sich zu ringen.

    [1]Ja, ich behaupte, es ist Folter, wenn mensch so ein Lebewesen bei lebendigem Leibe immer weiter eingießt, bis es (nehme ich an) erstickt, weil die Tracheen alle dicht sind.
  • Zum Glück ist das nicht Hollywood

    Die ziemlich hörenswerte Miniserie über Pilze und Menschen in der Deutschlandfunk-Sendung Wissenschaft im Brennpunkt (Teil 1, Teil 2) endet mit folgenden Worten von (ich glaube) Oliver Kurzai von der Uni Würzburg:

    Deswegen müssen wir glaub ich nicht damit rechnen, dass wir in absehbarer Zeit tasächlich, ich sag mal, eine Killerpilz-Pandemie kriegen, die auch den normalen, gesunden Menschen bedroht.

    Wenn unsere Realität irgendeine Ähnlichkeit hat mit einem zünftigen Katastrophenfilm, wisst ihr, was als Nächstes passieren wird.

Seite 1 / 3 »

Letzte Ergänzungen