Tag Wissenschaft

  • Angst ist eine schlechte Beifahrerin

    Am ersten Mai hatte ich mich an dieser Stelle gefragt, wann wohl die „Dauerbeflimmerung“ – also: leuchtende Werbedisplays am Straßenrand – an der Heidelberger Jahnstraße dazu führen wird, dass Leute einander kaputtfahren. Fünf Tage später lief in Forschung aktuell ein Beitrag, der einen ganz speziellen Blick auf Gefahren durch Beflimmerung vom Straßenrand warf.

    Grundlage des Beitrags ist der Artikel „Can behavioral interventions be too salient? Evidence from traffic safety messages“ der Wirtschafts- hrm -wissenschaftler Jonathan Hall und Joshua Madsen aus Toronto und Madison, WI, erschienen in Science vom 22.4.2022 (doi:10.1126/science.abm3427)[1].

    Bevor ich den Blick nachvollziehen konnte, musste ich mich zunächst ärgern, denn alles, was ich beim Folgen des DOI gesehen habe, war das hier:

    Screenshot einer Cloudflare-Verzögerungsseite

    Der Fairness halber will ich einräumen, dass die drei Punkte animiert waren, und dann und wann hat die Seite, als ich ihr erstmal Javascript erlaubt hatte, einen Reload geworfen und dann eine neue „Ray ID“ angeboten. Dennoch ist das gleich in mehreren Richtungen Mist, verschärft hier dadurch, dass Landing Pages von DOIs statisch sein können und sollen. Es lässt sich kein Szenario denken, in dem mensch für statische Seiten auf einem ordentlichen Webserver einen „DDoS-Schutz“ (was immer das sein mag) braucht, und schon gar keinen, der ohne Javascript, Referrer und weiß ich noch was nicht funktioniert.

    Ich muss gestehen: ich war es müde, den Mist zu debuggen. Da der Artikel leider noch nicht bei libgen (die – Science, horche auf! – diese Sorte Unfug nicht nötig haben) war, habe ich in den sauren Apfel gebissen und statt meines Standardbrowsers einen überpermissiv konfigurierten Firefox genommen, der der Cloudflare-Scharlatanerie schließlich akzeptabel schien. Auch eine Art, das Web kaputtzumachen.

    Zur Sache

    In Texas hat das Verkehrsministerium über viele Jahre hinweg „Campaign Weeks“ gemacht, während derer auf den elektronischen Großanzeigen an vielbefahrenen Straßen – wer Falling Down gesehen hat, weiß, wovon die Rede ist – unbequeme Wahrheiten („Für Menschen zwischen 5 und 45 ist der Straßenverkehr die führende Todesursache“) angezeigt wurden.

    Der Effekt: Offenbar fahren die Leute nach so einer Mahnung nicht vorsichtiger, sondern abgelenkter. Jedenfalls gehen die Unfallraten hinter solchen Nachrichten merklich nach oben. In Abbildung eins des Papers sieht das so aus:

    Scatterplot -- Punktpaare gehen allmählich gegen Null

    Rechte: AAAS, Science

    Das „DMS” in der Beschriftung heißt „dynamic message signs“ – zumindest im Untersuchungszeitraum zwischen 2012 und 2017 war das aber sicher richtig fades Zeug im Vergleich zu moderner Werbebeflimmerung. Bei den roten Punkten kamen nach der ersten Tafel für 10 km keine weiteren mehr, so dass das das sauberere Signal ist.

    Auch wenn der Effekt im Vergleich zu den Fehlerbalken nicht sehr groß ist und es allerlei versteckte Confounder geben mag – die Autoren gehen aber erfreulich vielen nach und können viele glaubhaft kontrollieren –, überzeugt mich das Paper davon, dass mindestens auf dem Kilometer nach der Tafel die von alarmierenden Zahlen beunruhigten Menschen ein paar Prozent mehr Unfälle bauen.

    Ein Grund für meine Einschätzung der Zuverlässigkeit des Effekts ist, dass offenbar die Zunahme der Unfälle mit der Drastik der Nachrichten korrelierte: Spät im Jahr, wenn texanische Autos schon tausende Menschen zermalmt haben und also entsprechend große Zahlen auf den Tafeln zu sehen sind, sind die Effekte deutlich stärker als früh im Jahr:

    Scatterplot mit abnehmenden Punkten

    Rechte: AAAS, Science

    Zwar ist die Null auch hier überall innerhalb von „zwei sigma“, also der doppelten Fehlerbalken, so dass ich das nicht völlig überbewerten würde. Ich könnte insbesondere nicht erklären, woher ein negativer Achsenabschnitt der Ausgleichsgerade kommen könnte, warum Leute also besser fahren sollten, wenn die Zahlen klein (oder ihre Neujahrsvorsätze noch frisch?) sind. Dennoch entsteht, nimmt mensch alle Evidenz zusammen, durchaus ein recht robustes Signal, das wiederum nur schwer durch Confounder zu erklären ist.

    Und auch wenn was wie 5% nicht nach viel klingen: Der Straßenverkehr ist mörderisch (in den USA gibt es, Kopfzahl, in jedem Jahr so um die 50000 direkte Verkehrstote), und es gibt einen Haufen dieser Displays. Hall und Madsen schätzen, dass ihr Effekt in den 28 Staaten, die das ähnlich wie Texas machen, 17000 Unfälle mit 100 Toten verursachen dürfte.

    Verblüffung am Rande: Für ein Kontrollexperiment haben Hall und Madsen nach Tafeln gesucht, die mindestens 10 km vor sich keine andere Tafel haben (damit sich die Effekte der Vortafel hoffentlich bereits gelegt haben). Das hat die Samplegröße um 75% reduziert. 75%! Dass diese DMSe so sehr clustern – denn es sich sicherlich undenkbar, dass über das ganze riesige Straßennetz von Texas hinweg alle paar Kilometer Tafeln stehen –, hätte ich nicht erwartet. Warum planen Leute sowas?

    Und Werbetafeln?

    Nun gebe ich zu, dass Hall und Madsen über ganz andere Dinge reden als die Werbe-Displays von Ströer und JCDecaux, sie ja sogar auf die Wichtigkeit der Natur der Nachricht abheben und so das Medium eher aus dem Blick nehmen.

    Sie zitieren aber auch Literatur, die sich allgemeiner um die Frage der Ablenkung durch Beflimmerung kümmert. Davon gibts einiges, und offenbar ist umstritten, wie tödlich Werbetafeln wirklich sind. Vermutlich wäre es ein wertvolles Projekt, die Drittmittelgeber der entlastenden Studien zu ermitteln.

    Was Hall und Madsen zitieren, ist leider nichts in dieser Richtung. Dennoch habe ich mir ihre Quelle „Driving simulator study on the influence of digital illuminated billboards near pedestrian“ von Kirstof Mollu (aus dem Dunstkreis der Wiwis an der Universiteit Hasselt, Belgien) et al, Transportation Research Part F 59 (2018), S. 45 (doi:10.1016/j.trf.2018.08.013) kurz angesehen. Das braucht immerhin keine Beschwörungen von Cloudflare, ist aber wieder kein Open Access und zwingt NutzerInnen erstmal den "Elsevier Enhanced Reader" auf, der ohne Javascript gar nichts tut – eine sehr aufwändige Art, ein PDF runterzuladen.

    Nun: Mollu et al haben sieben Handvoll Führerscheinhabende rekrutiert und in einen einfachen Fahrsimulator (zwar force-feedback, aber keine Beschleunigungssimulation) gesetzt, in das Szenerio verschieden hektisch flimmernde Displays integriert und dann gesehen, wo die Leute hingucken und wie oft sie übersehen, dass FußgängerInnen über die Straße wollen.

    Wenig überraschende Einsicht: Die Leute gucken mehr, wenn die Bilder nur 3 Sekunden (statt 6 Sekunden) stehen bleiben. Was Filmchen (bei denen Bilder ja nur was wie 1/25stel Sekunde stehenbleiben) anrichten, untersuchen sie nicht. Überhaupt macht der Artikel quantitativ nicht viel her. Oh, abgesehen von Zahlen, die sie selbst nur zitieren: In den Fahrradländern Niederlande und Dänemark sterben nur drei bis vier FußgängerInnen pro Million Einwohner und Jahr. In den jüngst wild motorisierten Lettland und Litauen ist es ein Faktor 10 mehr, also etwas wie 35 pro Million und Jahr.

    Zur Einordnung will ich nicht verschweigen, dass ausweislich der aktuellen RKI-Zahlen SARS-2 in der BRD 1500 Menschen auf eine Million EinwohnerInnen umgebracht hat und das auch schlimmer hätte kommen können (aber: Caveat bezüglich dieser Sorte Zahlen). Andererseits: Wollte mensch den gesamten Blutzoll des Autos bestimmen, Verkehrstote, durch Verkehrsverletzungen verfrühte Tode, Opfer von Lärm und Luftverschmutzung, vielleicht gar von Bewegungsmangel, wäre es wohl nicht schwer, für die BRD auf 700 Autoopfer pro Million und Jahr zu kommen und damit ziemlich genau in den Bereich des durch Maßnahmen und Impfung gezähmten SARS-2. Aber diese Rechnung braucht mal einen anderen Post.

    [1]Leider hat Science den Artikel, dessen AutorInnen fast sicher aus öffentlichem Geld bezahlt wurden und die jedenfalls öffentliche Infrastruktur (U Toronto, Vrije Uni Amsterdam, U Minnesota) nutzten, weggesperrt, und er ist im Augenblick auch noch nicht auf libgen. Hmpf.
  • Ähm – ist das ein Wort?

    Foto: Viele Menschen warten auf einen Vortrag

    All diese Leute warteten 2014 im Karlsruher ZKM auf einen Vortrag von Noam Chomsky. In diesem Post geht es um etwas, wo er ziemlich klar falsch lag.

    Nachdem ich gestern so empört war über Computerlinguistinnen, denen der ethische Kompass klar abhanden gekommen ist, möchte ich gerne ein paar Worte über eine wunderbare linguistische Arbeit nachschieben, die mir neulich auf den Rechner kam. Um es gleich zu gestehen: Auch in der steckt schmutziges Geld, in diesem Fall vom US Department of Defense – aber wenn damit schöne Wissenschaft gemacht wird, will ich nicht mit Steinen werfen.

    Ausgangspunkt war die Sendung Äh, ähm, genau – Wozu gibt es Füllwörter?, die am 15.3. in SWR2 Wissen lief (großes Lob übrigens an die Redaktion, die noch das Manuskript zur Sendung auf die Webseite legt, etwas, das beim DLF inzwischen leider Seltenheitswert hat). Meine Aufmerksamkeit angezogen hat die Geschichte vom „Powerpoint-Genau“, jenem „Genau“, das tatsächlich viele Menschen entweder kurz vor oder kurz nach dem Umblättern bei Programmen wie… na ja, impressive sagen. Jetzt, wo ich mal darauf hingewiesen wurde, fällt mir auch auf, was für eine verbreitete und, ganz streng genommen, etwas alberne Sitte das doch ist.

    Eine kleine Revolution in der Linguistik (gegen König Noam) aus dem Jahr 2002.

    Von dort bin ich auf die Arbeiten von Joan Fox Tree von der staatlichen Universität in Santa Cruz, CA gekommen, die im SWR2-Beitrag als Auslöserin einer kleinen Revolution in der Linguistik bezeichnet wird, weil sie Ähs und Ähms nicht nur als nützlich – weil verständnisfördernd – sondern sozusagen als Wörter erster Klasse identifizierte. Beim Artikel zu Teil zwei firmiert Fox Trees Stanford-Kollege Herbert Clark als Erstautor, und er erschien 2002, just, als ich für ein paar Jahre selbst in Computerlingustik dilett^Wlehrte: „Using uh and um in spontaneous speaking“ (ist leider bei Elsevier erschienen, so dass ich die dorthin führende DOI 10.1016/S0010-0277(02)00017-3 nur widerstrebend gebe).

    Das Paper argumentiert wie gesagt ziemlich stringent, dass Äh und Ähm ganz normale Wörter sind. Das geht gegen einen Ukas des Gottvaters der moderneren Lingustik, Noam Chomsky, der sie (in etwa) als vorprachliche Oberflächenform von Verhakungen bei der Sprachproduktion angesehen hat. So sehr ich Chomsky als großen Vereinheitlicher der Theorie formaler Sprachen und klarsichtigen Beobachter „unserer“ Weltpolitik schätze: Ich schließe mich, glaube ich, dem modernen computerlinugistischen Mainstream an, wenn ich vermute, dass er sich bei der Untersuchung natürlicher Sprache meist vertan hat.

    Ein sehr starkes Argument für die Worthypothese von Clark und Fox Tree ist zum Beispiel, dass verschiedene Sprachen verschiedene, na ja, Laute verwenden anstelle unseres Äh. Tabelle eins aus dem Paper gibt folgende Aufstellung:

    Deutsch äh, ähm
    Niederländisch uh, um
    Schwedisch eh, äh, ääh, m, mm, hmm, ööh, a, ööh
    Norwegisch e, e=, e==, eh, eh=, m, m=, […], øhø, aj
    Spanisch eh, em, este, pues
    Französisch eu, euh, em, eh, oe, n, hein
    Hebräisch eh, e-h, em, e-m, ah, a-m
    Japanisch eeto, etto, ano, anoo, uun, uunto, konoo, sonoo, jaa

    (für Referenzen siehe die Arbeit selbst). Es heißt darin weiter:

    Speakers of English as a second language often import the fillers from their first language – we have heard examples from native French, Hebrew, Turkish, and Spanish speakers – and that is one reason they continue to be heard as non-native speakers.

    Während ich die langen eueueueu-s von FranzösInnen, die Englisch sprechen, bestätigen kann, ist mir leider noch niemand Spanischsprechendes begegnet, der/die mit „este“ verzögert hätte. Aber ich werde jetzt besser aufpassen. Jedenfalls: dass Ähms zwischen verschiedenen Sprachen verschieden, innerhalb der Sprachen aber recht konstant sind, schließt, soweit es mich betrifft, aus, dass Äh und Ähm vorsprachliche Fehlermarker sind.

    Die anderen Argumente für die Worthypothese von Clark und Fox Tree sind vielleicht nicht durchweg vergleichbar stark. Aber die AutorInnen wollten erkennbar einmal alle konventionellen Sprachebenen durchgehen und argumentieren deshalb auch phonologisch (sie sind normale englische Silben), mofphologisch (sie funktionieren auch als Klitika, können sich also an andere Wörter anlehnen: „und-äh”), mit Prosodie (sie fallen aus der Satzmelodie heraus, wie das etwa auch Einschübe wie diese Klammer machen), über die Syntax (hier folgen sie einfach anderen Interjektionen: Heissa!), über die Semantik (sie haben eine definierte Bedeutung, nämlich: jetzt kommt gleich eine kleinere oder größere Verzögerung im Sprechen) und über die Pragmatik, also die Frage: was wollen die Leute mit einem Äh bewirken?

    Einen Eindruck von der Relevanz dieser letzten Frage mag gewinnen, wer im SWR2-Beitrag Mark Zuckerberg hört, wie er auf die Frage eines Kongressabgeordneten antwortet, ob er mitteilen wolle, in welchem Hotel er heute geschlafen habe:

    Der Artikel untersucht diese pragmatischen Aspekte, speziell, was seit Grice Implikatur heißt, und bietet dazu alles Mögliche zwischen „ich habe noch was zu sagen, rede noch nicht rein“ bis „hilf mir und rede du weiter“. Im Fall von Zuckerberg – Facebook war 2002 übrigens noch dystopische Science Fiction – wäre das wohl „Ich tu wenigstens so, als müsste ich über diese Zumutung noch nachdenken“.

    Methodisch ist das alles wirklich schön gemacht. Ich wünschte, mir wäre das Paper schon in meiner Coli-Zeit aufgefallen. Zumindest meine Studis hätten viel Spaß haben können[1].

    Drei mal Öhm sind allein schon hier im Blog zu finden.

    Ein weiterer Punkt aus der Arbeit, den ich für recht überzeugend halte: Äh und Ähm kommen durchaus gerne in geschriebener Sprache, gerade etwa in Chats, vor, was bei einer Art zerebralen Notsignal wirklich nicht zu erwarten wäre. Ein schnelles grep Öhm *.rst im content-Folder dieses Blogs liefert bereits drei Belege (a, b, c) – ich suche mal nicht weiter nach anderen graphische Repräsentationen von Ähm, denn der Punkt ist gemacht: Ich selbst öhme auch, wenn ich sicher keine Wortfindungsprobleme oder Sackgassen in meinem Textplan habe, und ich weiß dabei ziemlich genau, was meine Öhms bedeuten sollen.

    Angesichts so leicht greifbarer Belege ist schon eher seltsam, dass ein so heller Kopf wie Chomsky seinen Irrtum offenbar lange vertreten hat. Andererseits: Wenn ich an die Gelegenheiten denke, zu denen ich ihn live have reden hören… Nun, ich glaube, er äht selbst schon arg wenig, und die Sorte informeller (und vielleicht ja comicinspirierter?) Schreibe, an die wir uns weit über die Blogosphäre hinaus gewöhnt haben, war in den 60er und 70er Jahren vielleicht wirklich noch eher Underground. Clark und Fox Tree führen in diesem Zusammenhang aus, warum Menschen in formaleren, vielleicht hierarchiedominierteren Situationen weniger ähen werden:

    On the minus side, whenever speakers use fillers, they are announcing that they are having preparedness problems, something they may not want to admit in public. Speakers on the radio, on television, and in formal speeches are expected to be knowledgeable and competent, so it might undermine their authority to admit to preparedness problems.

    – eine Einsicht, die sie einer Arbeit über „Radio Talk“ von einem Herrn Goffman aus dem Jahr 1981 zuschreiben. Und in der Tat:

    If speakers have control of uh and um, they should use them less often in formal than in informal registers, and there is much evidence that they do.

    Ich bin ganz sicher, dass ich das so mache. Den Eindruck, ich würde um so weniger ähen, je öffentlicher ich spreche, hatte ich bisher eher mit mehr oder weniger Konzentration in verschiedenen Dia- oder Monologsituationen erklärt, ganz im Sinne von Chomskys Äh-Theorie. Jetzt hingegen neige ich auch stark zur These, dass die Ähs in etwa so verschwinden wie, sagen wir, kräftige Flüche, die ich auf, sagen wir, Konferenzen normalerweise auch vermeide.

    Äh… Scheiße, was für ein fetzengeiles Paper.

    Wenn das DoD für sowas zahlen kann: Muss es dann für die Bundewehr wirklich dieser Großschnüffel-Mist von gestern sein?

    [1]Was DozentInnen halt so glauben…
  • Computerlinguistik ethisch abgerutscht

    Wie prioritär die Auflösung der Bundeswehr ist, zeigt derzeit nicht nur die allabendliche Berichterstattung zu den Folgen von Krieg[1]. Nein, eine von der Gesellschaft getragene Armee macht diese – die Gesellschaft – auch furchtbar anfällig für anderweitige autoritäre Versuchungen. So ist schon Existenz einer Armee das Nachgeben gegenüber der maximalen autoritären Versuchung, denn ihr zugrunde liegt ja die Überzeugung, eine große Klasse von Problemen ließe sich lösen, indem mensch hinreichend viele der richtigen Menschen tötet – und dieses Töten sei auch gerechtfertigt, wenn nicht gar geboten.

    Außerhalb des engeren Tötungsgeschäfts fallen militärisch insprierte Antworten normalerweise etwas weniger final aus, doch bleibt auch dort ethisch kaum ein Stein auf dem anderen, wenn die Armee interveniert. Ein gutes und aktuelles Beispiel ist das Projekt, von dem die Computerlinguistin Michaela Geierhos von der Universität der Bundeswehr in Computer und Kommunikation vom 9.4.2022 berichtet.

    Im Groben will die ihre Gruppe statistische und vielleicht linguistische Werkzeuge („künstliche Intelligenz“) zur – immerhin noch polizeilichen und nicht militärischen – Massenüberwachung von Telekommunikation nutzen. In den Geierhos' Worten:

    …den Ermittler zu unterstützen, überhaupt mal zu erkennen, was es in Millionen von Zeilen, wo kommen da überhaupt Namen vor von Personen, was ist ne Adressangabe, gehts jetzt hier um Drogen oder gehts vielleicht um ganz was anderes.

    Mit anderen Worten: Die Polizei soll richtig viele Menschen abschnorcheln – denn sonst kommen ja keine „Millionen von Zeilen“ zusammen – und dann per Computer rausbekommen, welche der Überwachten die bösen Buben sind. Das ist der gute, alte Generalverdacht, und Menschen mit einem Mindestmaß an menschenrechtlichem Instinkt werden so etwas ganz unabhängig von den verfolgten Zwecken ablehnen. Grundfeste des Rechtsstaats ist nun mal der Gedanke, dass allenfalls dann in deine Grundrechte eingegriffen wird, wenn es einen begründbaren Verdacht gibt, du habest gegen Gesetze verstoßen – und auch dann können nur sehr konkrete Hinweise auf schwere Verstöße so schwere Eingriffe wie die „TKÜ“ rechtfertigen (vgl. §100a StPO).

    Transparent: Wer nichts zu verbergen hat ist langweilig

    2008 zierte dieses Transparent das Berliner bcc, während der CCC dort tagte.

    In den Beispielen von Geierhos hingegen geht es um ein von vorneherein zweckloses Unterfangen wie die repressive Bekämpfung des illegalen Handels mit und Gebrauchs von Rauschmitteln. Das völlige Scheitern dieses Ansatzes ist ein besonders schönes Beispiel dafür, wie trügerisch die autoritäre Versuchung ist. Wie so oft mögen die (staats-) gewalttätigen Lösungsansätze naheliegend sein. Das heißt aber noch lange nicht, dass sie tatsächlich funktionieren, schon gar nicht auf Dauer. Und da habe ich noch nicht mit den schweren Nebenwirkungen angefangen.

    Leider ist auch der Moderator Manfred Kloiber – versteht mich nicht falsch: das ist, soweit ich das nach Plaudereien mit ihm im DLF-Studio beim Chaos Communication Congress beurteilen kann, ein sehr netter Mensch – schon der autoritären Versuchung erlegen, wenn er fragt:

    Auf der anderen Seite würde man sich ja wünschen, dass man genau davon [z.B. von Drogengeschichten] ein unabhängiges System findet, was eben halt über die Bereiche hinweg Kriminalität oder anormale Vorgänge feststellen kann.

    Ich weiß nicht, ob ihm klar war, was er sich da wünscht, und die eher stolpernden Worte mögen andeuten, dass die Frage so nicht geplant war. Jedenfalls: Eine universelle Verhaltensüberwachung, die nonkonformes Verhalten (nichts anderes sind ja „anormale Vorgänge“ im sozialen Kontext) polizeilicher Intervention zugänglich machen soll? Wer könnte sich sowas unter welchen Umständen zur Lösung welcher Probleme wünschen?

    Zum „wer“ kann mensch immerhin schon mal antworten: Wissenschaftlerinnen der Universität der Bundeswehr, denn Geierhos antwortet ungerührt:

    Ja, das ist eine sehr große Vision, aber von dieser Vision sind wir leider noch weit entfernt.

    (Hervorhebung von mir).

    Zu weiteren „Kriminalitätsbereichen“, in denen Geierhos ihr digitales Stahlnetz gerne auswerfen würde, sagt sie:

    Also, Wirtschaftskriminalität, wie gesagt, schwieriger, dass wir das synthetisch herstellen können […] Aber so Chatprotokolle, Telegram und wie sie alle heißen, da kann man definitiv ansetzen, wir gucken uns aber auch an, Hasskriminalität beispielsweise, Mobbing, dass es in die Richtung geht.

    Klar, das sind Probleme, deren autoritäre Behandlung (in Wahrheit wohl: Verschlimmerung) das Aushebeln selbst noch basalster Menschenrechtsstandards rechtfertigt.

    Oh je. Wie genau haben Costa Rica und Island es geschafft, ihr Militär loszuwerden? Können wir das bitte auch ganz schnell haben?

    [1]Bei den Bildern vom Krieg bleibt, nebenbei, zu bedenken, dass an ihnen im Gegensatz zum offenbar noch verbreiteten Eindruck nichts neu ist: Armeen, auch „unsere“ Armeen und die „unserer“ Verbündeten, haben seit jeher und auch in den letzten Jahren ganz ähnliche und noch schlimmere Gräuel angerichtet. Dass nennenswert viele sogar halbwegs gutwillige Menschen die aktuellen Gräuel zum Anlass nehmen, „unsere“ Fähigkeiten zum Anrichten von Gräueln verbessern zu wollen: Das wird künftige HistorikerInnen wohl ebenso verwundern wie uns heute die Freude, mit der nennenswerte Teile der kaiserlichen Untertanen in den ersten Weltkrieg gezogen sind. Mich verwundert schon heute beides in gleichem Maße. Aber das ist nun wirklich nicht Thema dieses Artikels.
  • Affen zählen ist schwer

    Nachdem mich gestern die Publikationen der Gruppe von Kathelijne Koops so gelockt haben, habe ich gleich eine durchgeblättert, und zwar „How to measure chimpanzee party size? A methodological comparison“ von Kelly van Leeuwen und KollegInnen (doi:10.1007/s10329-019-00783-4, Preprint).

    Bevor ich das lobe, muss ich etwas mosern. Erstens, weil das Ganze von unfreier Software nur so strotzt – die statistische Auswertung ist mit SPSS gemacht (geht ja auch anders), und das Paper wurde wohl in Word geschrieben, auch wenn die Metadaten des Preprints etwas verwirred aussehen (leicht redigiert):

    $ pdftk ZORA198831.pdf dump_data
    InfoKey: ModDate
    InfoValue: D:20220128142734+01'00'
    InfoKey: Creator
    InfoValue: Acrobat PDFMaker 17 für Word
    InfoKey: CreationDate
    InfoValue: D:20220128142734+01'00'
    InfoKey: Producer
    InfoValue: GPL Ghostscript 9.25
    

    Warum da nacheinander ein „PDFMaker für Word“ und dann (?) nochmal ein Ghostscript drübergelaufen sind? Hm. Das PDF vom Verlag ist übrigens nochmal anders gemacht und meldet „Acrobat Distiller 10.1.8 (Windows)“ als die Software, die das PDF geschrieben hat. Uh. Ein wenig neugierig wäre ich nun schon, woraus das destilliert wurde.

    Zweitens ist nicht schön, dass die Open-Access-Webseite der Uni Zürich „You need to enable JavaScript to run this app.“ sagt. Das ist in diesem Fall um so weniger angebracht, als sie auch ohne Javascript eine ganz brauchbare Seite ausliefert. Allerdings fehlen in dem Word-generierten PDF die Abbildungen und Tabellen, und sie sind auch nicht erkennbar verlinkt. Immerhin sind beim Verlag (Springer) „Online Resources“ offen (während sie von Leuten, die nicht für hinreichend reiche Unis arbeiten, absurde 37.40 Euro fürs formatierte PDF haben wollen). Zumindest im Falle der ziemlich sinnlos gestapelten Ergebnisse der verschiedenen Methoden in Abbildung 1 ist das Fehlen der Abbildungen aber hier vielleicht sogar verschmerzbar.

    Ich würde noch nicht mal auf die Tests, die die AutorInnen so durchgeklickt haben, furchtbar viel geben, auch wenn sie immerhin ein wenig statistsiche Abbitte geleistet haben (das ist die realweltliche Bedeutung des dann und wann angerufenen hl. Bonferroni).

    Screenshot von Tabelle 1 aus dem bespreochenen Artikel

    Mein persönliches Highlight aus dem Artikel: Eine qualitative Betrachtung einiger systematischer Effekte. Rechte beim Japan Monkey Centre und Springer Japan KK (aus doi:10.1007/s10329-019-00783-4).

    Wirklich schade ist es aber um die Tabelle 1 (wenn die Abbildung hier nicht reicht: Libgen kann helfen). Sie liefert eine schöne Quintessenz der qualitativen Betrachtungen zu möglichen systematischen Fehlern, und die geben gute – und vor allem im Vergleich zu entsprechenden Betrachtungen in der Physik auch recht greifbare – Beispiele für das, von dem ich in meinem Lob von small data geredet habe. Van Leeuwen et al schätzen nämlich die Größe von umherziehenden Schimpansengruppen. Weil die Tiere nun in den Baumkronen umherturnen und noch dazu vielleicht nicht so gern gezählt werden, ist das nicht ganz einfach, und die Leute probieren vier verschiedene Verfahren:

    • Hingehen und Affen zählen
    • Eine Fotofalle aufstellen und sehen, wie viele Schimpansen auf den Bildern sind
    • Anrücken, wenn die Tiere weg sind und zählen, wie viele Tagesnester – leichte Konstrukte aus Blättern und Zweigen, in denen Schimpansen kleine Nickerchen halten – in den Bäumen sind
    • Anrücken, wenn die Tiere weg sind und zählen, wie viele Schlafnester – elaborierte Konstruktionen, in denen ein Schimpanse die Nacht (aber immer nur eine) verbringt – in den Bäumen sind.

    In einer idealen Welt würde für eine gegebene Gruppe immer die gleiche (kleine natürliche) Zahl rauskommen, also vielleicht 5. Und ich finde die erste wertvolle Einsicht schon mal: Selbst einer 5 kann mensch in vielen Bereichen der Wissenschaft nicht vertrauen. Na gut: Als Astronom sollte ich da nicht mit Steinen werfen, denn wir kommen ja auch mit acht, neun oder zehn (Planeten im Sonnensystem) ins Schleudern.

    Wenig überraschenderweise lieferten verschiedene Methoden tatsächlich verschiedene Ergebnisse, und zwar systematisch. Zur Erklärung schlagen die AutorInnen unter anderem vor:

    • Direkte Beobachtungen werden vermutlich große Gruppengrößen bevorzugen, da sich kleinere Gruppen noch scheuer gegenüber Menschen verhalten werden als große – und umgekehrt die Menschen größere Gruppen wegen mehr Geschrei auch leichter finden.
    • Umgekehrt werden direkte Beobachtungen eher einzelne Tiere übersehen, wenn diese besonders scheu sind, was zu einer systematischen Unterschätzung speziell bei besonders wenig an Menschen gewöhnten Gruppen führen wird.
    • Die Fotofallen könnten ähnliche Probleme haben, wenn die Schimpansen ihre Existenz spitzkriegen. Offenbar gibt es da Vermeidungsverhalten. Und natürlich haben Fotofallen nur ein endliches Gesichtsfeld, so dass sie bei realen Schimpansengrupen recht wahrscheinlich einzelne Tiere nicht erfassen werden.
    • Bei den Tagesnestern werden eher Tiere übersehen, weil einige sich gar keine Tagesnester bauen, etwa, weil sie gar kein Nickerchen halten. Und außerdem sind diese Nester häufig so locker gezimmert, dass Menschen sie übersehen. Das kann aber durchaus auch zu einer Überschätzung der mittleren Gruppengröße führen, weil kleinere Tageslager gar nicht auffallen; ähnlich würde es sich auswirken, wenn sich ein Tier zwei oder gar mehr Tagesnester baut.
    • Bei Nachtnestern könnte die Gruppengröße überschätzt werden, weil sich vielleicht mehrere Gruppen zur Übernachtung zusammentun (was dann den Übergang von systematischen Fehlern in interessante Ergebnisse markiert). Demgegenüber dürften die Probleme mit übersehenen kleinen Nachtlagern wie auch mit übersehenen Nestern bei Nachtnestern weniger ins Gewicht fallen als bei Tagnestern, einfach weil sie viel aufwändiger gebaut sind.

    Nun reichen die Daten von van Leeuwen et al nicht, diese Systematiken ordentlich zu quantifizieren, zumal sie sehr wahrscheinlich auch von allerlei Umweltbedingungen abhängig sind – im Paper geht es in der Hinsicht vor allem um die Verfügbarkeit von Obst (mit der die Gruppengröße wachsen könnte, weil mehr Tiere gleichzeitig essen können, ohne sich in die Quere zu kommen) und um die Anwesenheit fortpflanzungsbereiter Schimpansinnen.

    Dass systematische Fehler sehr wohl qualitative Ergebnisse ändern können, zeigt die Studie schön. So werden Gruppen laut Fotofallenmethode größer, wenn sie fortpflanzungsbereite Frauen umfassen; dieses Ergebnis verschwindet aber, wenn die Gruppengrößen durch direkte Beobachtungen geschätzt werden. Durch Nestzählung ist zu dieser Frage keine Aussage möglich, weil jedenfalls ohne viel Kletterei nicht herauszubekommen ist, wie es mit Geschlecht und Zykluslage der NestbauerInnen ausgesehen haben mag.

    Und auch wenn die Arbeit nicht auseinanderhalten kann, wie weit die größeren Gruppen, die sich bei Betrachtung der Nachtnester ergeben, Folge systematischer Fehler bei der Erfassung sind oder durch das Verhalten der Tiere verursacht werden: Klar ist jedenfalls, dass mensch bis auf Weiteres lieber keine Schlüsse von Nachtzählungen aufs Tagesverhalten zieht.

    Was ja auch ein schönes Ergebnis ist.

  • Steinzeit bei Schimpansen

    Foto: Krähe sitzt auf Wildschwein

    Ob diese Krähe überlegt, wie sie das Schwein lenken kann? Und wenn sie rauskriegt, wie das geht, könnte sie es ihren Kindern sagen? (Das ist übrigens im Käfertaler Wildpark)

    Auf meinem Mal-genauer-ansehen-Stapel lag schon seit der Forschung aktuell-Sendung vom 25. Januar die Geschichte von den Schimpansen und den Steinen. In aller Kürze: Irgendwo in Guinea leben zwei Schimpansengruppen (-stämme?), deren eine seit vielen Jahren mit großer Selbstverständlichkeit Nüsse mit Steinen knackt, deren andere aber das noch nicht mal tut, wenn mensch ihnen Steine und Nüsse frei Haus liefert. Der Clou: die beiden Gruppen wohnen nur ein paar Kilometer voneinander entfernt.

    Ich fand diese Geschichte sehr bemerkenswert, und zwar einerseits, weil ich Schimpansen grundsätzlich für kreativ genug gehalten hätte, um bei so viel Nachhilfe schnell selbst aufs Nüsseknacken zu kommen. Krähen zum Beispiel – jedenfalls die im Handschuhsheimer Feld – werfen Nüsse aus großer Höhe auf Teerstraßen, nicht aber auf normale Erde. Na gut, das mag auch soziales Lernen gewesen sein, aber ich will eigentlich schon glauben, dass so eine Krähe da auch selbst draufkommt. Und a propos „sozial“: Wer Möwen kennt, wird wohl wie ich sicher sein, dass deren Muschelknacktechniken, wenn überhaupt, nur durch antisoziales Lernen vermittelt werden könnten.

    Wenn jedoch die Schimpansen zu vernagelt sein sollten, um rasch selbst auf die Nutzung eines Steins zum Nüsseknacken zu kommen, finde ich es andererseits fast unglaublich, dass Gruppen, die nur ein paar Kilometer voneinander entfernt leben, so wenig Austausch haben, dass sich so eine Kultur innerhalb von Jahrzehnten nicht sozusagen intertribal verbreitet. Es gehen doch immer wieder einzelne Tiere auf Wanderschaft, oder nicht?

    Ein Gedanke, der mich beim Hören ein wenig beschäftigt hat, war: Was, wenn das nicht ganz ordinäre Dummheit ist, sondern dessen verschärfte Form, nämlich Patriotismus? In seinem Buch „Collapse – how societies choose to fail or succeed“ (gibts in der Imperial Library) spekuliert Jared Diamond, die mittelalterliche Wikingerkultur auf Grönland sei untergegangen, weil ihre Mitglieder darauf bestanden haben, wie „in der Heimat“, also von Getreide und Viehzucht, zu leben und nicht, wie die Inuit, die sie garantiert beobachtet haben werden, von Fisch. Das Bauernmodell habe die gegen Ende des mittelalterlichen Klimaoptimums sinkende Temperatur einfach nicht mitgemacht.

    That [the Greenland Norse] did not hunt the ringed seals, fish, and whales which they must have seen the Inuit hunting was their own decision. The Norse starved in the presence of abundant unutilized food resources. Why did they make that decision, which from our perspective of hindsight seems suicidal?

    Actually, from the perspective of their own observations, values, and previous experience, Norse decision-making was no more suicidal than is ours today.

    Schon, weil dieser Artikel mit Wissenschaft getaggt ist, muss ich anmerken, dass Diamonds Argumente vielleicht nicht immer die stichhaltigsten sind und auch die Sache mit der Kälte zwar naheliegend, aber nicht alternativlos ist (vgl. Wissenschaft im Brennpunkt vom 14.11.2019) und wenigstens nach Zhao et al (2022), doi:10.1126/sciadv.abm4346, wegen Nicht-kälter-werden inzwischen regelrecht unplausibel wird. Und doch: Dass Kulturen Dinge aus völlig albernen Gründen tun (ich sage mal: Autos fahren und, schlimmer noch, parken) und noch mehr nicht tun (ich sage mal: Alltagsradeln), ist wahrlich nichts Neues. Was also, wenn sich die nichtknackenden Affen die Nüsse quasi vom Mund absparen, um nur sich nur ja nicht gemein zu machen mit den knackenden Affen von nebenan? Ich würde das Experiment ja gerne mal mit anderen, weiter entfernten Gruppen probieren.

    Mit solchen Gedanken habe ich die Webseite der im DLF-Beitrag zitierten Kathelijne Koops von der Uni Zürich besucht. Ein Paper zur Nussgeschichte habe ich nicht gefunden – basierte der Beitrag im Januar auf einem Preprint? einer Pressemitteilung der Uni Zürich? –, aber dafür jede Menge anderer Papers, die es direkt in meinen Mal-genauer-ansehen-Stapel schaffen: „Quantifying gaze conspicuousness: Are humans distinct from chimpanzees and bonobos?“, „Chimpanzee termite fishing etiquette“ oder, im Hinblick auf meinen Dauerbrenner „Was taugen diese Zahlen eigentlich?“ besonders reizvoll: „How to measure chimpanzee party size?“. Ich bin ganz hingerissen.

  • Hatte Marc Aurel Bandwürmer?

    Foto: Konservierte Bandwürmer in hohen Glasbehältern

    Bandwürmer im großartigen Naturhistorischen Museum in Wien: Den besonders lange in der Mitte soll sich der Arzt wohl so zur k.u.k.Zeit selbst gezogen haben. Auch „bei uns“ hatten also selbst wohlhabende Menschen noch vor recht kurzer Zeit beeindruckende Würmer.

    In den DLF-Wissenschaftsmeldungen vom 15. Februar ging es ab Sekunde 50 um römische Archäologie mit Bandwürmern. Ich gestehe ja einen gewissen Römerfimmel ein, und ich fand zudem die Passage

    In römerzeitlichen Fundstätten auf Sizilien wurden mehrfach konische Tongefäße ausgegraben. Bisherigen Interpretationen zufolge wurden darin Lebensmittel gelagert.

    vielversprechend im Hinblick auf mein Projekt interessanter Selbstkorrekturen von Wissenschaft, denn die neuen Erkenntnisse zeigen recht deutlich, dass zumindest eines dieser Gefäße in Wahrheit als Nachttopf genutzt wurde. Und deshalb habe ich mir die Arbeit besorgt, auf der die Kurzmeldung basiert.

    Es handelt sich dabei um „Using parasite analysis to identify ancient chamber pots: An example of the fifth century CE from Gerace, Sicily, Italy“ der Archäologin Sophie Rabinow (Cambridge, UK) und ihrer KollegInnen (DOI 10.1016/j.jasrep.2022.103349), erschienen leider im Elsevier-Journal of Archeological Science. Ich linke nicht gerne auf die, zumal der Artikel auch nicht open access ist, aber leider gibts das Paper derzeit nicht bei der Libgen.

    Publikationsethische Erwägungen beiseite: Diese Leute haben einen der erwähnten „konischen Tongefäße” aus einer spätrömischen Ruine im sizilianischen Enna hergenommen und den „sehr harten, weißlichen Rückstand von schuppigem Kalk“ („very hard whitish lime-scale deposit“) am Boden des Gefäßes untersucht. Vor allem anderen: Ich hätte wirklich nicht damit gerechnet, dass, was in einem lange genutzten Nachttopf zurückbleibt, schließlich diese Konsistenz bekommt.

    Nie wieder Sandalenfilme ohne Wurmgedanken

    Aber so ist es wohl, denn nachdem die Leute das Zeug in Salzsäure aufgelöst und gereinigt hatten, waren durch schlichte Lichtmikroskopie (mein Kompliment an die AutorInnen, dass sie der Versuchung widerstanden haben, coole und drittmittelträchtige DNA-Analysen zu machen) haufenweise Eier von Peitschenwürmern zu sehen – und das halte auch ich für ein starkes Zeichen, dass reichlich menschlicher Kot in diesem Pott gewesen sein dürfte. Auch wenn, wie die AutorInnen einräumen, keine Kontrollprobe der umgebenden Erde zur Verfügung stand, ist es nicht plausibel, wie Eier in dieser Menge durch nachträgliche Kontamination in den „harten, weißen Rückstand“ kommen sollten.

    Römer hatten – das war schon vor dieser Arbeit klar – nicht zu knapp Würmer. Alles andere wäre trotz der relativ ordentlichen Kanalisation in größeren römischen Siedlungen höchst erstaunlich, da auch in unserer modernen Welt die (arme) Hälfte der Menschheit Würmer hat (vgl. z.B. Stepek et al 2006, DOI 10.1111/j.1365-2613.2006.00495.x). Dennoch guckt sich so ein zünftiger Sandalenfilm (sagen wir, der immer noch hinreißende Ben Hur) ganz anders an, wenn mensch sich klar macht, dass die feschen Soldaten und fetten Senatoren alle des öfteren mal Würmer hatten. Und auch Caesars Gallischer Krieg oder Mark Aurels Selbstbetrachtungen erhalten, finde ich, eine zusätzliche Tiefe, wenn mensch sich vorstellt, dass in den Gedärmen jener, die da Kriegspropaganda oder stoische Philosophie betrieben, parasitische Würmer mitaßen.

    Forschungsprojekt: Wurmbefall in Köln vor und nach 260

    Nun schätzen Rabinow et al allerdings, dass ihre Rückstände wohl in der Mitte des fünften Jahrhunderts entstanden. Damals hatte die römische Zivilisation und damit auch ihre Kanalisation wahrscheinlich auch in Sizilien schon etwas gelitten. Die Kölner Eifelwasserleitung etwa – die eingestandenermaßen technisch besonders anspruchsvoll war und in einem besonders unruhigen Teil des Imperiums lag – haben „Germanen“ schon im Jahr 260 zerstört, und sie wurde danach nicht mehr in Betrieb genommen, obwohl Köln bis weit ins 5. Jahrhundert hinein eine römische Verwaltung hatte.

    Ich persönlich wäre überzeugt, dass, wer mit der Rabinow-Methode an entsprechend datierbare Überreste heranginge, mit dem Jahr 260 eine sprunghafte Erhöhung der Verwurmung in Köln feststellen würde. Insofern: Vielleicht hatten Caesar und Mark Aurel, zu deren Zeiten der römlische Wasserbau noch blühte, ja doch nicht viel mehr Würmer als wir im kanalisierten Westen?

    Ach so: Das mit dem Irrtum – „nee, die Teile hatten sie für Essen“ – war so wild in Wirklichkeit nicht. Wie üblich in der Wissenschaft waren die Antworten auch vorher nicht so klar. Rabinow et al schreiben:

    A recent study of material at the town of Viminacium in Serbia, where over 350 identically deep-shaped vessels are known, was able to confirm at least 3 potential uses: storage for cereals or water, burial urns, and chamber pots […]. Chamber pots clearly were also sometimes put to secondary use, for example as a container for builder’s lime […], while vessels initially destined for other purposes may have been turned into chamber pots.

    Nun, dann und wann kommen sogar Wissenschaft und „gesunder“ Menschenverstand zu recht vergleichbaren Ergebnissen.

  • Jost Bürgi, der Sinus und Umberto Eco

    Kryptische, leicht mathematisch aussehende Zeicnung

    „Reimers' Diagramm“: Für 400 Jahre der einzige Hinweis darauf, wie Jost Bürgi wohl seine Sinustabelle berechnet hat. Nicht mal Kepler hat das Rätsel lösen können.

    Ein Geheimnis, das im antiken Griechenland ein wenig angekratzt wurde, über das dann Gelehrte in Indien und Arabien nachgedacht haben, für das in der zweiten Hälfte des 16. Jahrhunderts ein wandernder Schweizer Uhrmacher eine genial einfache Lösung fand, von der aber die Nachwelt nur ein paar kryptische Referenzen hat, bis ein unerschrockener Wissenschaftler in den Tiefen längst vergessener Bibliotheken ein Manuskript entdeckt, das des Rätsels Lösung enthält: Es gibt Geschichten, die klingen nach einem Roman von Umberto Eco (oder, je nach Temperament und/oder Geschmack, Dan Brown) und sind doch wahr.

    Auf die Geschichte von Jost Bürgis Sinusberechnung bin ich über die DLF-Sternzeit vom 27.2.2022 gekommen, und sie geht ungefähr so: Nachdem Hipparchos von Nicäa so um die 150 vdcE[1] nicht nur den ersten brauchbaren Sternkatalog vorgelegt, sondern auch die ersten ordentlichen Rezepte angegeben hatte, wie mensch für jede Menge Winkel den zugehörigen Sinus[2] ausrechnet, gab es zur Berechnung trigonometrischer Funktionen sehr lange nicht viel Neues.

    Klar, der große Ptolomaios, genau, der mit dem Weltbild, hat Hipparchos' Methode zur Berechnung des Sinus über regelmäßige Vielecke kanonisiert. In Indien gab es einige Fortschritte – etwa den Übergang von der Sehne zum Sinus –, in Arabien wurden verschiedene Ergebnisse zusammengetragen und systematisiert, aber immer war es eine mühsame, geometrisch insprierte, endlose Rechnerei.

    Und dann kommen wir in die frühe Neuzeit in Europa, genauer die zweite Hälfte des 16. Jahrhunderts. Kopernikus hat noch einmal ganz klassisch den Sinus mit Vielecken berechnet, während er die Konflikte zwischen Ptolomaios und der Realität untersuchte. In Italien macht sich allmählich Galileo bereit, die Physik als experimentelle Naturwissenschaft zu etablieren. Und in Kassel, beim wissenschaftsbegeisterten hessischen Landgraf Wilhelm IV, sammeln sich ein paar Mathe- und Astro-Nerds, die beim ebenso berühmten wie fiesen Tycho gelernt haben, unter ihnen Nicolaus Reimers, der das kryptische Bild über diesem Post veröffentlicht hat, vermutlich, weil er versprochen hatte, nicht mehr zu verraten.

    Bürgis geniale Methode

    Es weist auf ein Verfahren zur Berechnung von Werten der Sinusfunktion hin, das nichts mehr mit den umschriebenen Polygonen des Hipparchos zu tun hat. Sein Erfinder, der Toggenburger Uhrmacher-Astronom-Erfinder Jost Bürgi, hatte zu dieser Zeit ein großes Tabellenwerk vorgelegt, mit dem mensch auch ohne Taschenrechner rausbekommen konnte, wie viel wohl sin(27 32’ 16’’) sei[3]. Offensichtlich funktionierte die Methode. Doch hat Bürgi – Autodidakt und vielleicht etwas verschroben – die Methode nie richtig veröffentlicht, und so brüteten MathematikerInnen, unter ihnen wie gesagt Johannes Kepler, der immerhin die Sache mit den Ellipsenbahnen im Planetensystem rausbekommen hat, lang über der eigenartigen Grafik. Und kamen und kamen nicht weiter.

    Das war der Stand der Dinge bis ungefähr 2014, als der (emeritierte) Münchner Wissenschaftshistoriker Menso Folkerts im Regal IV Qu. 38ª der Universitätsbibliothek in Wrocław auf eine lange übersehene gebundene Handschrift stieß. Ein wenig konnte er ihre Geschichte nachvollziehen: Jost Bürgi persönlich hatte das Werk Kaiser Rudolf II – dem Mäzen von Tycho und Kepler – am 22. Juli 1592 (gregorianisch) in Prag übergeben, was ihm eine Zuwendung von 3000 Talern eingebracht hat. Ich habe leider nicht die Spur eines Gefühls, wie sich der Betrag mit modernen Drittmittelanträgen vergleicht. Die Form des Antrags jedenfalls ist aus heutiger Sicht als unkonventionell einzustufen.

    Das Werk fand seinen Weg in das Augustinerkloster im unterschlesischen Sagan (heute Żagań). Wie es dort hinkam, ist nicht überliefert, aber mensch mag durchaus eine Verbindung sehen zu Keplers Aufenthalt in Sagan in den Jahren von 1628 bis 1630. Vielleicht hat er das Buch ja nach seinen Diensten in Prag mitgenommen, auf seinen verschiedenen Wanderungen mitgenommen und schließlich selbst im Kloster gelassen? Aber warum hätte er dann über Bürgis Methode gerätselt?

    Wie auch immer: Im Gefolge des Reichsdeputationshauptschlusses wurde das Kloster 1810 aufgelöst – ich stelle mir das ein wenig vor wie in Poes „Die Grube und das Pendel“ –, und der Bestand der Bibliothek fiel an die Universität Breslau, die wiederum nach dem zweiten Weltkrieg zur polnischen Uni Wrocław wurde.

    In diesem geschichtsträchtigen Manuskript erklärt Bürgi seinen Algorithmus. Dargestellt ist das in der Abhandlung von Folkerts et al (arXiv:1510.03180), in der sich auf den Seiten 11 und 12 auch die Auflösung für Reimers' Rätsel findet. Etwas schöner beschreibt das Verfahren Denis Roegel in seinem Aufsatz Jost Bürgi's skillful computation of sines. Dort wird auch Bürgis mutmaßliche Grundeinsicht besser erläutert, nach der der Sinus einfach das Ding ist, das, modern gesprochen, nach zweifacher Ableitung sich selbst (mal minus eins) ergibt. Das ist der mathematische Hintergrund dafür, dass folgendes Stück Python tatsächlich relativ schnell zu einer Tabelle der Sinuswerte von n im ersten Quadranten gleichverteilten Winkeln konvergiert:

    tot_sines = list(range(n+1))
    for iter_index in range(n_iter):
    
      intermediates = [tot_sines[-1]//2]
      for tot in reversed(tot_sines[1:-1]):
        intermediates.append(intermediates[-1]+tot)
    
      tot_sines = [0]
      for diff in reversed(intermediates):
        tot_sines.append(tot_sines[-1]+diff)
    
    return dict((k*math.pi/2/n,  v/tot_sines[-1])
      for k, v in enumerate(tot_sines))
    

    – es ist, glaube ich, unmöglich, zu verstehen, was hier passiert (und warum), ohne den Roegel oder zumindest den Folkerts gelesen zu haben. Aber ich könnte andächtig werden angesichts so simpler Manipulationen, die so schnell zu richtig vielen Stellen einer transzendenten Funktion wie des Sinus führen.

    Ein numerischer Traum

    Wie schnell das mit den vielen Stellen bei Bürgis Algorithmus geht, zeigt folgende Grafik:

    Heatmap, die recht gleichmäßig von Gelb nach Schwarz übergeht

    Hier läuft horizontal der Winkel – und der Algorithmus funktioniert wirklich nur, wenn das einen rechten Winkel einschließt –, vertikal die Iterationen von Bürgis Algorithmus. Die Farben entsprechen dem dekadischen Logarithmus der Abweichung der Bürgi-Ergebnisse von dem, was die Python-Standardbibliothek gibt, im Groben also die Zahl der Stellen, die der Algorithmus richtig hinbekommt. Mehr als 18 geht da schon mal nicht, weil die Zahlen von Python in 64-bittigen IEEE-Fließkommazahlen („double precision“) kommen, und mehr als 18 Dezimalstellen sind da nicht drin (in der Grafik steckt die Zusatzannahme, dass wir von Zahlen in der Größenordnung von eins sprechen).

    Mithin gewinnt der Algorithmus pro Iteration ungefähr eine Dezimalstelle, und das gleichmäßig über den ganzen Quadranten. DemoprogrammiererInnen: billiger kommt ihr, glaube ich, nicht an eine beliebig präzise Sinustabelle ran.

    Spannend fand ich noch die kleinen dunkelblauen Klötzchen ganz unten in der Grafik: Hier werden sich Bürgi und Python offenbar auf Dauer nicht einig. So, wie ich das geschrieben habe, würde ich fast eher Bürgi vertrauen, denn bei den Ganzzahlen, die da verwendet werden, kann eigentlich nichts schief gehen. Andererseits sind Fließkommazahlen eine heikle Angelegenheit, insbesondere, wenn es ums letzte Bit geht. Um mich zu überzeugen, dass es nur um genau jenes unheimliche letzte Bit geht, habe ich mir geschwind eine Funktion geschrieben, die die Fließkommazahlen vinär ausgibt, und der Code gefällt mir so gut, dass ich sie hier kurz zeigen will:

    import struct
    
    _BYTE_LUT = dict((v, "{:08b}".format(v)) for v in range(256))
    def float_to_bits(val):
      return "".join(_BYTE_LUT[v] for v in struct.pack(">d", val))
    

    Mit anderen Worten lasse ich mir geschwind ausrechnen, wie jedes Byte in binär aussehen soll (_BYTE_LUT), wobei die Python-Bibliothek mit dem 08b-Format die eigentliche Arbeit macht, und dann lasse ich mir die Bytes der Fließkommazahl vom struct-Modul ausrechnen. Der einzige Trick ist, dass ich das Big-end-first bestellen muss, also mit dem signfikantesten Byte am „linken“ Ende. Tue ich das nicht, ist z.B. auf Intel-Geräten alles durcheinander, weil die Bits in der konventionellen Schreibweise daherkommen, die Bytes aber (wie bei Intel üblich) umgedreht, was ein furchtbares Durcheinander gibt.

    Jedenfalls: Tatsächlich unterscheiden sich die Werte schon nach 20 Iterationen nur noch im letzten bit, was für 45 Grad alias π/4 z.B. so aussieht:

    45
      0011111111100110101000001001111001100110011111110011101111001101
      0011111111100110101000001001111001100110011111110011101111001100
    

    Ich lege mich jetzt mal nicht fest, was das „bessere“ Ergebnis ist; ich hatte kurz überlegt, ob ich z.B. mit gmpy2 einfach noch ein paar Stellen mehr ausrechnen sollte und sehen, welches Ergebnis näher dran ist, aber dann hat mich meine abergläubische Scheu vor dem letzten Bit von Fließkommazahlen davon abgehalten.

    Wer selbst spielen will: Meine Implementation des Bürgi-Algorithmus, der Code zur Erzeugung der Grafik und die Bitvergleicherei sind alle enthalten in buergi.py.

    [1]Das vdcE bringe ich hiermit als Übertragung von BCE, before the Christian era, in Gebrauch. Und zwar, weil v.Chr völlig albern ist (es ist ja nicht mal klar, ob es irgendeine konkrete Figur „Christus“ eigentlich gab; wenn, ist sie jedenfalls ganz sicher nicht zur aktuellen Epoche – also dem 1. Januar 1 – geboren) und „vor unserer Zeitrechnung“ ist auch Quatsch, denn natürlich geht Zeitrechnung (wenn auch mangels Jahr 0 etwas mühsam) auch vor der Epoche. „Vor der christlichen Epoche“ hingegen bringt ganz schön auf den Punkt, was das ist, denn die „Epoche“ ist in der Zeitrechnung einfach deren Nullpunkt (oder halt, vergurkt wie das alles ist, hier der Einspunkt).
    [2]Na ja, in Wirklichkeit hat er mit der Länge der Sehne gerechnet, die ein Winkel in einem Kreis aufspannt, aber das ist im Wesentlichen das Gleiche wie der Sinus, der ja gerade der Hälfte dieser Sehne entspricht.
    [3]Ich bleibe natürlich bei meiner Verurteilung …
  • Bienen wollen SaZu

    Foto: Blüte mit darauf rumlaufender Biene

    Diese Biene würde vielleicht schon zwischen den Staubbeuteln rumrüsseln, wenn die Blume sich nur etwas mehr Mühe beim Würzen gegeben hätte.

    In Marc-Uwe Klings Qualityland (helle Ausgabe in der Imperial Library) gibt es das großartige Konzept der FeSaZus, eines Nahrungsmittels, das zu je einem Drittel aus Fett, Salz und Zucker besteht und zumindest für das Proletariat von Qualityland in einigen – nicht zu vielen! – Darreichungsformen (FeSaZus im Cornflakesmantel, Muffins mit FeSaZu-Füllung, Schmalz-FeSaZus mit Speckgeschmack) eine wichtige Ernährungsgrundlage darstellt.

    Via den Wissenschaftsmeldungen vom 3.2.2022 in DLF Forschung aktuell bin ich nun auf den Artikel „Sodium-enriched floral nectar increases pollinator visitation rate and diversity“ von Carrie Finkelstein und KollegInnen (Biology Letters 18 (3), 2022, DOI 10.1098/rsbl.2022.0016) gestoßen, der recht überzeugend belegt, dass Insekten im Schnitt einen Geschmack haben, der sich vom Qualityländer Durchschnittsgeschmack gar nicht so arg unterscheidet.

    Finkelstein et al haben an der Uni von Vermont mindestens je zwölf Exemplare von fünf örtlich üblichen Blumenarten blühen lassen. Je Experiment (und davon gab es einige) haben sie sich pro Art sechs Individuen ausgesucht und mit Kunstnektar versehen. Bei dreien war das einfach eine 35%-ige Zuckerlösung, bei den anderen drei kam dazu noch 1% Kochsalz. In Wasser aufgelöst ist 1% Salz schon ziemlich schmeckbar. Ich habe darauf verzichtet, im Selbstversuch zu überprüfen, ob 1% Salz in so konzentriertem Sirup menschlichen Zungen überhaupt auffällt.

    Und dann haben sie gewartet, bis bestäubende Insekten kamen und diese gezählt. Das zentrale (und jedenfalls von außen betrachtet trotz etwas Voodoo bei der Auswertung auch robuste) Ergebnis: An den Pflanzen, die Salz anboten, waren doppelt so viele Insekten – am stärksten vertreten übrigens allerlei Sorten von Bienen – wie an denen, die das nicht taten, und zwar ziemlich egal, um welche Blume es nun gerade ging. Mit anderen Worten: Insekten sind nicht wild auf faden Nektar.

    Allerdings: So ein Faktor zwei in der Präferenz ist gar nicht so viel. Zwischen den BesucherInnenzahlen bei Schafgarbe (laut Paper 54.1 ± 6.3) und dem blutroten Storchschnabel (16.6 ± 3.5) liegt eher ein Faktor drei. Dennoch ist recht deutlich, dass die Insekten eher wenig Verständnis haben für Lauterbachs salzarme Ernährung. Dabei will ich nicht argumentieren, dass ein Durchschnittsmensch auf Dauer 150 mg Salz pro Kilogramm Körpergewicht und Tag essen könnte, ohne schließlich mit Hypertonie und Nierenversagen kämpfen zu müssen. Aber 10 oder 15 Gramm Salz am Tag kriegt mensch, wie Samin Nosrat in ihrem wunderbaren Kochbuch Salt, Fat, Acid, Heat (auch in der Imperial Library) ausführt, durch selbstsalzen oder auch den Salzgebrauch in selbstkochender Gastronomie, kaum hin[1]; salzarms Kochen und fades Essen mag mithin positive gesundheitliche Folgen haben, aber vermutlich kaum mehr als etwa der Einsatz von Himalayasalz, Voodoopuppen oder anderen potenten Placebos.

    Erfreulich fand ich im Paper noch die Aussage „All analyses were performed in R (v. 4.0.2)“ – dass auch in weniger technologieaffinen Wissenschaftsbereichen proprietäre Software (in diesem Fall ganz vornedran SAS und SPSS) auf dem Weg nach draußen ist, halte ich für eine ausgezeichnete Nachricht.

    Weniger schön fand ich das Bekenntnis, dass es in Anwesenheit von BiologInnen ganz offenbar gefährlich ist, einer unüblichen Spezies anzugehören:

    If we were unable to identify a floral visitor in the field, we collected it and stored it in 75% ethanol.

    Arme kleine Fliegen und arme VertreterInnen ungewöhnlicher Bienenarten. Wären sie stinknormale Honigbienen gewesen, hätten sie ihren Ausflug zu den verlockenden Blüten mit dem fein gesalzenen Nektar überlebt.

    [1]Nosrat argumentiert in ihrem Buch für mich zumindest plausibel (und durch meine eigene Kochpraxis bestätigt), dass Lauterbauchs Kritik am „Salzgeschmack“ zumeist am Thema vorbeigeht – in aller Regel vermittelt Kochsalz etwa durch Kontrolle von Osmolaritäten ziemlich nichttriviale Prozesse beim Garen und Verarbeiten von Lebensmitteln, und diese sind für den Geschmack der fertigen Speisen viel wichtiger als das Salz selbst. Aber das ist dann wirklich eine andere Geschichte.
  • Lang lebe Small Data

    Zu den unerfreulicheren Begleiterscheinungen der Coronapandemie gehörte die vielstimmige und lautstarke Forderung nach „mehr Daten“, selbst aus Kreisen, die es eigentlich besser wissen[1]. Wie und warum diese Forderung gleich mehrfach falsch ist, illustriert schön ein Graph, der seit ein paar Wochen im RKI-Wochenbericht auftaucht:

    Dargestellt sind die Zahlen von „im Zusammenhang mit“ SARS-2 in deutsche Krankenhäuser aufgenommenen PatientInnen. Die orange Kurve entspricht dabei den „Big Data“-Zahlen aus der versuchten Totalerfassung – d.h., Krankenhäuser melden einfach, wie viele Menschen bei der Aufnahme SARS-2-positiv waren (oder vielleicht auch etwas anderes, wenn sie das anders verstanden haben oder es nicht hinkriegen). Die blaue Kurve hingegen kommt aus der ICOSARI-Surveillance, also aus spezifischen Meldungen über Behandlungen akuter Atemwegsinfektionen aus 71 Kliniken, die für Meldung und Diagnose qualifiziert wurden.

    Wären beide Systeme perfekt, müssten die Kurven im Rahmen der jeweiligen Fehlerbalken (die das RKI leider nicht mitliefert; natürlich zählt keines von beiden ganz genau) übereinanderlaufen. Es ist offensichtlich, dass dies gerade dann nicht der Fall ist, wenn es darauf ankommt, nämlich während der Ausbrüche.

    Eher noch schlimmer ist, dass die Abweichungen systematisch sind – die Entsprechung zu halbwegs vertrauten Messungen wäre, wenn mensch mit einem Meterstab messen würde, dessen Länge eben nicht ein Meter ist, sondern vielleicht 1.50 m. Nochmal schlimmer: seine Länge ändert sich im Laufe der Zeit, und auch abhängig davon, ob mensch Häuser oder Giraffen vermisst. Wäre der Meterstab wenigstens konstant falsch lang, könnte mensch die Messergebnisse im Nachhinein jedenfalls in gewissem Umfang reparieren („die Systematik entfernen“). Bei der Hospitalisierung jedoch wird keine plausible Methode die Kurven zur Deckung bringen.

    Das RKI schreibt dazu:

    Im Vergleich zum Meldesystem wurden hierbei in den Hochinzidenzphasen - wie der zweiten, dritten und vierten COVID-19-Welle - höhere Werte ermittelt. In der aktuellen fünften Welle übersteigt die Hospitalisierungsinzidenz der Meldedaten die COVID- SARI-Hospitalisierungsinzidenz, weil zunehmend auch Fälle an das RKI übermittelt werden, bei denen die SARS-CoV-2-Infektionen nicht ursächlich für die Krankenhauseinweisung ist.

    Die Frage ist nun: Welche Kurve „stimmt“, gibt also das bessere Bild der tatsächlichen Gefährdungssituation für das Gesundheitssystem und die Bevölkerung?

    Meine feste Überzeugung ist, dass die blaue Kurve weit besser geeignet ist für diese Zwecke, und zwar weil es beim Messen und Schätzen keinen Ersatz für Erfahrung, Sachkenntnis und Motivation gibt. In der Vollerfassung stecken jede Menge Unwägbarkeiten. Um ein paar zu nennen:

    • Wie gut sind die Eingangstests?
    • Wie konsequent werden sie durchgeführt?
    • Wie viele Testergebnisse gehen in der Hektik des Notfallbetriebs verloren?
    • Wie viele Fehlbedienungen der Erfassungssysteme gibt es?
    • Haben die Zuständigen vor Ort die Doku gelesen und überhaupt verstanden, was sie erfassen sollen und was nicht?
    • Wie viele Doppelmeldungen gibt es, etwa bei Verlegungen – und wie oft unterbleibt die Meldung ganz, weil das verlegende Krankenhaus meint, das Zielkrankenhaus würde melden und umgekehrt?

    Und ich fange hier noch gar nicht mit Fragen von Sabotage und Ausweichen an. In diesem speziellen Fall – in dem die Erfassten bei der Aufnahme normalerweise nicht viel tun können – wird beides vermutlich eher unwichtig sein. Bei Datensammelprojekten, die mehr Kooperation der Verdateten erfordern, können die Auswahleffekte hingegen durchaus auch andere Fehler dominieren.

    Erfasst mensch demgegenüber Daten an wenigen Stellen, die sich ihrer Verantwortung zudem bewusst sind und in denen es jahrelange Erfahrung mit dem Meldesystem gibt, sind diese Probleme schon von vorneherein kleiner. Vor allem aber lassen sie sich statistisch untersuchen. Damit hat ein statistisch wohldefiniertes Sample – anders als Vollerfassungen in der realen Welt – tendenziell über die Jahre abnehmende Systematiken. Jedenfalls, solange der Kram nicht alle paar Jahre „regelauncht“ wird, was in der heutigen Wissenschaftslandschaft eingestandenermaßen zunehmend Seltenheitswert hat.

    Wenn also wieder wer jammert, er/sie brauche mehr Daten und es dabei um Menschen geht, fragt immer erstmal: Wozu? Und würde es nicht viel mehr helfen, besser definierte Daten zu haben statt mehr Daten? Nichts anderes ist die klassische Datenschutzprüfung:

    • Was ist dein Zweck?
    • Taugen die Daten, die du haben willst, überhaupt dafür? („Eignung“)
    • Ginge es nicht auch mit weniger tiefen Eingriffen? („Notwendigkeit“)
    • Und ist dein Zweck wirklich so großartig, dass er die Eingriffe, die dann noch übrig bleiben, rechtfertigt? („Angemessenheit“)

    Ich muss nach dieser Überlegung einfach mal als steile Thesen formulieren: Datenschutz macht bessere Wissenschaft.

    Nachtrag (2022-05-16)

    Ein weiteres schönes Beispiel für die Vergeblichkeit von Vollerfassungen ergab sich wiederum bei Coronazahlen Mitte Mai 2022. In dieser Zeit (z.B. RKI-Bericht von heute) sticht der bis dahin weitgehend unauffällige Rhein-Hunsrück-Kreis mit Inzidenzen um die 2000 heraus, rund das Doppelte gegenüber dem Nächstplatzierten. Ist dort ein besonders fieser Virusstamm? Gab es große Gottesdienste? Ein Chortreffen gar? Weit gefehlt. Das Gesundheitsamt hat nur retrospektiv Fälle aus den vergangenen Monaten aufgearbeitet und ans RKI gemeldet. Dadurch tauchen all die längst Genesenen jetzt in der Inzidenz auf – als sie wirklich krank waren, war die Inzidenz zu niedrig „gemessen“, und jetzt halt zu hoch.

    So wurden übrigens schon die ganze Zeit die Inzidenzen berechnet: Meldungen, nicht Infektionen. Das geht in dieser Kadenz auch nicht viel anders, denn bei den allermeisten Fällen sind die Infektionsdaten anfänglich unbekannt (und bei richtig vielen bleibt das auch so). Wieder wären weniger, aber dafür sorgfältig und kenntnisreich gewonnene Zahlen (ich sag mal: PCR über Abwässern), hilfreicher gewesen als vollerfassende Big Data.

    [1]Vom Totalausfall der Vernunft etwa bei der Luca-App will ich gar nicht anfangen. Der verlinkte Rant von Fefe spricht mir ganz aus der Seele.

    Nachtrag (2023-02-08): Das sehe übrigens nicht nur ich so.

  • Menschliche Leistung: Hundertfünfzig Watt

    Ich bin gerade über einen Artikel in Spektrum der Wissenschaft 11/17 (leider Paywall) an das Paper „Hunter-Gatherer Energetics and Human Obesity” von Herman Pontzer und KollegInnen geraten (DOI 10.1371/journal.pone.0040503, open access). Darin geht es grob darum, dass JägerInnen, SammlerInnen und BäuerInnen ungefähr genauso viel Kohlenstoff verstoffwechseln wie StadtbewohnerInnen, und das, obwohl sich letztere natürlich deutlich weniger bewegen als die anderen. Diese Erkenntnis hätte mich jetzt noch nicht sehr begeistert, doch die folgende Grafik verdient jede Aufmerksamkeit:

    Punktwolke mit großer Streuung und nicht stark ausgeprägter Korrelation

    Energieaufwand pro Tag für westliche Menschen (grau), bolivianische BäuerInnen (blau) und afrikanische Jäger/Sammlerinnen (rot), aufgetragen über eine Art normiertes Körpergewicht. CC-BY Pontzer et al.

    Dieser Plot nimmt – nicht ganz absichtlich – meine Frage zur thermischen Leistung von Menschen auf. Damals war ich ja aufgrund der Messungen meines CO₂-Messgeräts im Büro darauf gekommen, dass ich für ungefähr 16 Watt CO₂ ausatme – das stellt sich, wie erwartet, als kräftige Unterschätzung heraus. Ich sollte das wirklich mal neu ausrechen, zumal ich die wirkliche Stoffwechselrate inzwischen auch besser einschätzen kann, weil mir der CO₂-Verlust durch Fenster, Türen und Blumen dank vieler Daten für den leeren Raum inzwischen gut zugänglich sein sollte.

    Aber das ist für einen anderen Tag. Heute lese ich aus der Grafik von Pontzer et al ab, dass ein Mensch wie ich (70 Kilo alles zusammen, davon vielleicht 20% Fett, also in der Grafik bei log(56) ≈ 1.75 zu suchen) so zwischen 3.3 und 3.6 auf der y-Achse liegt. Nach Delogarithmierung (also: Zehn hoch) würde ich demnach zwischen 2000 und 4000 Kilokalorien am Tag umsetzen. Mensch ahnt erstens, dass Fehlerbalken unter Logarithmierung zusammenschrumpfen – dass „3.3 bis 3.6“ in Wahrheit „innerhalb eines Faktors 2“ heißt, mag für logarithmenferne Bevölkerungsschichten überraschend sein – und zweitens, dass große Teile der Wissenschaft immer noch Einheiten aus der ersten Hälfte des letzten Jahrhunderts verwenden. Seit dessen zweiter Hälfte nämlich kommen Arbeit und Energie bei anständigen Leuten in Joule (einer Kalorie entsprechen 4.2 davon).

    Das führt auf meine Kopfzahlen für heute: Ein Mensch wie ich leistet etwas zwischen 8000 und 16000 Kilojoule am Tag. Hier will sich mensch übrigens die Spannbreite ganz definitiv mitmerken, und zwar als Gegengift zum „Tagesbedarf“, der auf jeder Lebensmittelverpackung aufgedruckt ist[1].

    Unter vielen guten Gründen für die Verwendung des Joule (statt der Kalorie) steht weit oben die Tatsache, dass mensch gleich auf Leistungen in Watt kommt (das ist nämlich ein Joule pro Sekunde). Wer im Kopf hat, dass ein Tag 86400 Sekunden lang ist, erhält meine Leistung in üblichen Einheiten zwischen den 100 und 200 Watt, zwischen denen ich im November-Post bedingt durch DuckDuckGo und meine grobe Erinnerung schwankte.

    Bemerkenswert an der Pontzer-Grafik finde ich noch die beiden Ausgleichsgeraden für westliche Männer (durchgezogen) und Frauen (gestrichelt). Ich habe ja schon immer große Zweifel an Gender-Unterschieden in vielen „Normalbereichen“ gehabt, die es für Tagesbedarfe und allerlei Laborwerte gibt; so war z.B. in meiner Zivildienstzeit der Normalbereich des Kreatininspiegels für Frauen eine ganze Ecke höher als für Männer, und ich bin immer noch fest überzeugt, dass das einen rein sozialen (Frauen trinken im Schnitt weniger, weil sie es meist deutlich schwerer haben, unbelästigt zu pinkeln) und keinen vertretbar als biologisch zu bezeichnenden Grund hat.

    Warum nun der Energieumsatz von Frauen steiler mit ihrer Masse wachsen sollte als bei Männern, warum sie ab einer Masse von vielleicht 75 Kilo (da würde ich die Mit-Fett-Masse des Schnittpunkts der Geraden sehen) dann sogar mehr leisten sollten als gleichschwere Männer, das leuchtet mir nicht ein – wie mir auch nicht einleuchtet, warum leichtere Frauen praktisch einen Faktor zwei weniger leisten sollten als gleichschwere Männer. Aber wer die Punktwolken mal qualitativ auf sich wirken lässt, wird ohnehin Zweifel an den Ausgleichsgeraden entwickeln.

    Tja: Mal sehen, wie sich das entwickelt, wenn die Systematiken von Pontzers Methode zur Bestimmung des Energieumsatzes (Leute trinken einen Haufen D₂-18O-Wasser, und mensch verfolgt, wie über die nächsten Tage Deuterium und der 18er-Sauerstoff im Urin runtergehen) etwas besser verstanden sind.

    Pontzer scheint jedenfalls bereit zu sein, irrtümliche Dogmen über Bord zu werfen. So ist er Mitautor einer Arbeit von Anna Warrener et al (DOI 10.1371/journal.pone.0118903), die seinerzeit (2015) auch breit durch die Presse ging. Das Paper zerstörte (nach meinem Eindruck als Laie in dem Feld) die lange quasi konkurrenzlose These, der doch sehr grenzwertig enge Geburtskanal menschlicher Frauen sei ein physiologischer Kompromiss, denn ein breiteres Becken würde sie beim aufrechten Gang behindern. So ein „lass uns das mal nachrechnen, auch wenn es ganz plausibel klingt“ ist für mich ein recht gutes Zeichen für ordentliche Wissenschaft besonders dann, wenn die plausible Vermutung nachher nicht rauskommt.

    [1]Wobei der „Tagesbedarf“ bei den „Kalorien“ nochmal besonderer Mumpitz ist: der „Brennwert“, der dort angegeben ist, ist genau das, ein Brennwert. Das Futter wird getrocknet und verbrannt, um auf „die Kalorien“ zu kommen. Am Beispiel von Holz oder Rohöl ist, glaube ich, gut einsichtig, dass das nur in Ausnahmefällen viel zu tun hat mit dem, was der menschliche Körper daraus an Bewegung oder Fett machen könnte. Sprich: Kalorienzählen ist schon von der Datenbasis her Quatsch.
  • Ameisen-Ambulanz in der Pandemie

    Foto

    Da helfen nicht mal mehr Ameisenarmeen: Ein Faultier in einem Cecropia-Baum. Von hier unter GFDL.

    In den Wissenschaftsmeldungen der Forschung aktuell-Sendung am Deutschlandfunk vom 4.1.22 gab es ab Minute 2:50 eine Geschichte einer doch sehr überraschenden Symbiose: Ameisen, so heißt es da, verbinden verletzte Bäume. Nun würde mich so ein Verhalten nicht völlig vom Hocker hauen – ich bin ja ein Feind der Soziobiologie und halte das „egoistische Gen“ für einen methodischen Fehler –, aber Krankenpflege ist schon innerhalb einer Spezies bemerkenswert (gibts bei Ameisen). Geht sie gar über Speziesgrenzen hinaus, weckt das schon meine Neugier. Darum habe ich mir das zugrundeliegende Paper rausgesucht: „Azteca ants repair damage to their Cecropia host plants“ aus dem Journal of Hymenoptera Research, Band 88, doi:10.3897/jhr.88.75855.

    Das erste, was auffällt, ist die Autorenliste: geschrieben haben das Ding Alex Wcislo, Xavier Graham, Stan Stevens, Johannes Ehoulé Toppe, Lucas Wcislo, und William T. Wcislo. Das sind einen Haufen Wcislos, und die Erklärung findet mensch in den Affiliations. William T. ist vom Tropeninstitut der Smithsonian Institution, alle anderen Autoren kommen von der International School of Panama – wo ein Forscher-Expat seine Kinder wohl hinschicken wird – beziehungsweise von der Metropolitan School in Panama.

    In diesem Licht bekommt die Eröffnung des Artikels einen ganz eigenen Charme, der in dem DLF-Kurzbeitrag ganz und gar fehlt (da war nur die übliche Rede von „den Forschenden“):

    One of us (AW) used a sling shot to shoot a clay ball (9 mm diameter) at high velocity through an upper internode of a large Cecropia tree, making clean entry and exit wounds. Within 24 hours both holes were nearly sealed. This anecdotal observation...

    Also: Da hat der kleine Nick^W^W der Sohn des Smithsonian-Biologen mit einer Zwille oder Steinschleuder rumgeballert und hat es geschafft, ein Loch durch ein Internodium, also so eine Art Zweig, zu schlagen; nun, tropische Bäume sind oft relativ weich. Der Lausejunge war aber Professorenkind genug, um genauer hinzuschauen und festzustellen, dass Ameisen am Loch rumlaufen und es offenbar zunähen.

    Daraufhin haben er, seine Freunde und sein Vater ein richtiges Programm aufgelegt, um aus der Anekdote etwas wie Wissenschaft zu machen. Sie haben dazu systematisch Löcher in rund zwanzig Ameisenbäume im Stadtwald („opportunistically selected“ schreiben sie) gebohrt, in denen Aztekenameisen Azteca alfari wohnten. Über deren Symbiose war bisher vor allem bekannt, dass die Bäume Ameisen schicken, wenn andere Tiere an ihren Blättern knabbern. Die Ameisen dürfen dafür in den erwähnten Internodien wohnen (die sind hohl und haben dünne Wände, damit die Ameisen leicht reinkommen) und bekommen darin sogar lecker Futter (na ja, im Zweifel Futter für ihre Blattläuse).

    Und dann haben die Schülis dokumentiert, was passiert. Das war nicht immer einfach, wie sie ehrlich berichten:

    But ants [also die Ameisen, die an einem Loch arbeiteten] were not marked so the total size of the repair force is unknown. […]

    We greatly thank the Cárdenas police patrols for allowing us to work safely outdoors during the early days of a pandemic, and tolerating our activity during severe restrictions on movement.

    Sie mussten sich auch auf junge Bäume beschränken, denn die Ameisen wohnen gerne so weit oben wie möglich und merken dann nicht mehr, was unten vor sich geht, während die Schülis nicht höher als zwei Meter kamen: „we selected internodes as high up as we could reach“.

    Die resultierende Beobachtung mochte dann schon wieder Material für die Ethikkommission sein, denn sooo viel anders als bei den ganz klassischen Begegnungen von Lausbuben und Ameisenhaufen ging es auch nicht ab, jedenfalls aus Sicht der Ameisen: Diese retteten erstmal ihre Brut, bevor sie tatsächlich recht oft und überzeugend die Bohrungen verschlossen. Dieses Gesamtbild aber lässt schon ahnen, dass sie eher ihren Bau reparierten als ihrem Baum medizinische Hilfe angedeihen ließen. Dafür spricht auch, dass der Baum im Anschluss ein eigenes Heilprogramm anwarf und die Wunde komplett mit eigenem Gewebe auffüllte.

    Andererseits: Vielleicht sehen wir hier gerade der Evolution zu, denn es könnte ja sein, dass Bäume, die Ameisen zu besserer medizinischer Versorgung anhalten – und das übliche survival of the fittest[1] würde jetzt dafür sorgen – auch deutlich besser leben als welche, die einfach nur ganz normale Baumheilung machen?

    Was es auch sei: ich war sehr angetan davon, mal ein paar Seiten aus dem Journal of Hymenoptera Research zu lesen. Dafür, dass es solche Publikationen gibt, liebe ich die Wissenschaft.

    [1]Nur zur Sicherheit: nicht des „strongest“ oder sowas.
  • Wes Brot ich ess…

    Ein schrumpeliger Apfel

    Würdest du diesen Apfel in einem Supermarkt kaufen? Geht nicht mehr. Ich habe ihn vorhin gegessen. Also: Das, was Wurm und Balkonlagerung davon übrig gelassen haben. Auf der anderen Seite dürfte das Ding einen Behandlungsindex um die Null gehabt haben – siehe unten.

    Neulich hat die Parteistiftung der Grünen, die Böll-Stiftung, einen Pestizidatlas herausgegeben, eine Sammlung von Infografiken und Karten über den Einsatz von Giften aller Art in der Landwirtschaft. Wie üblich bei diesen Atlanten, haben sie das dankenswerterweise unter CC-BY publiziert, und besser noch: Die Sachen sind auch ohne Javascript leicht zugänglich[1].

    Ich hatte mir davon einige Kopfzahlen erhofft, denn ich habe wirklich kein gutes Gefühl dafür, was so an Giften auf den Feldern (und Weinbergen!) in meiner Umgebung landet und was das bedeutet. In der Hinsicht hatte ich kein Glück. Im Atlas gibts zwar haufenweise Zahlen, aber wirklich überzeugen konnten mich nur wenige, oft genug, weil sie letztlich Metriken ohne Bedeutung sind. Ein gutes Beispiel für diese Kategorie ist die Masse der Agrochemikalen (verwendet z.B. auf S. 11, S. 15, S. 44), die wohl als Proxy für „Umfang des Gifteinsatzes“ stehen soll.

    Das halte ich für profund fehlerhaft. Neonikotinoide, Glyphosat und DDT (um mal ein paar Pole aufzumachen) sind in spezifischer Giftigkeit, Wirkprofilen, Umweltauswirkungen, Kinetik und eigentlich jeder anderen Hinsicht fast völlig verschieden voneinander. „Eine Tonne Pestizid“ sagt daher so gut wie nichts aus. Obendrauf kommt noch ein kleiner Faktor Unsicherheit, ob sich die Masse auf Wirkstoffe, fertige Rezepturen oder irgendwas dazwischen bezieht, aber das wird wohl in diesem Geschäft kaum mehr als einen kleinen Faktor ausmachen – verglichen mit dem Grundproblem (in dem wir vermutlich über Faktoren von einigen tausend sprechen) wohl vernachlässigbar.

    Ähnlich schwerwiegende Einwände hätte ich zur breiten Mehrheit der Zahlen in dem Atlas: Vage beeindruckend, aber immer ein gutes Stück unterhalb der Schwelle von Wohlfundiertheit und allgemeinen Anwendbarkeit, die ein paar Ziffern zu einer Orientierung gebenden Kopfzahl machen könnten.

    Es gibt jedoch auch ohne schlagende Zahlen von werkübergreifender Bedeutung einige Einsichten, die wertvoll sind, so etwa auf S. 33 die Bankrotterklärung der Idee, durch grüne Gentechnik den Pestizideinsatz zu reduzieren. In Brasilien, wo transgene Pflanzen die Landwirschaft vollständig dominieren, sind 2019 47% mehr Pestizide ausgebracht worden als 2009. Gut: Soja (darauf schaut der Rest der Grafik, und das wird wohl auch den Pestizidverbrauch dominieren) ist in diesem Zusammenhang ein schlechtes Beispiel, denn das populäre transgene Soja („Roundup ready“) ist ja gerade designt, um große Mengen Herbizide zu überleben. Dazu sind wieder blind Massen angegeben, und die angesichts galloppierender Rodungen in Brasilien vermutlich rasch wachsende Anbaufläche wäre eigentlich auch noch einzurechnen, wenn die Zahlen einen analytischen Blick erlauben wollten.

    Aussagekräftiger wären für die behandelte Frage Zahlen für Mais gewesen (nämlich den mit der Bt-Abwehr gegen den Maiszünsler) und folglich auch Insektizide beim Mais. Aber seis drum: Die Grafik zeigt auch ohne methodische Strenge, dass es so nicht weiter gehen kann.

    A propos Mais: Dass der mit recht wenig Chemie auskommt, hat mich schon verblüfft:

    Mit "Schlechte Nachrichten für Apfel-Fans" überschriebene Grafik

    Grafik von Seite 14 des Pestizidatlasses. Die Caption im Atlas deutet an, dass der „Behandlungsindex“ etwas wie die mittlere Anzahl von Anwendungen von Pflanzenschutzmitteln ist; ob das wirklich so ist: Wer weiß? CC-BY Pestizidatlas

    Dass Wein heftig pflanzengeschützt wird, ist hier in der Gegend unübersehbar. Bei Hopfen und Äpfeln überrascht es mich aber, denn hiesige Apfelbäume in Streulagen, um die sich im Wesentlichen niemand kümmert, liefern durchaus sehr essbare Äpfel; hinreichend viele und große, um mir den ganzen Winter über die Basis für mein Frühstücksmüsli zu liefern (das Foto oben zeigt den von heute).

    Klar haben fast alle Hautdefekte, und in vielen wohnte auch mal ein Wurm – aber das tut ihrer Essbarkeit wirklich keinen Abbruch. Aus dieser Erfahrung heraus hätte ich erwartet, dass schon mit recht moderaten Interventionen supermarktkompatible Äpfel erreichbar wären. Das stimmt offenbar so nicht. Die letzten 50% zum makellosen Produkt – und wahrscheinlich auch die Spalierzucht in Monokultur – scheinen Äpfel von einer ganz einfachen zu einer ganz heikelen Kultur zu verwandeln.

    Meine Lieblingsgrafik ist schließich auf Seite 39:

    Eine Kopfzahl gibt auch das nicht her. Als Beleg für das alte Motto „Wes Brot ich ess, des Lied ich sing“ kann das aber durchaus durchgehen. Und als Illustration dafür, wie problematisch es ist, Wissenschaft – wie wir das in unserer Drittmittelkultur nun mal tun – über Geld zu regulieren.

    [1]Na ja, blöderweise ist ohne Javascript so ein doofes animiertes GIF neben jedem Ding, das runtergeladen werden kann. Tipp an die WebseitenmacherInnen: Wenn ihr diese Sorte Gimmick schon braucht, stattet ihn doch wenigstens mit einem display: none im CSS aus. Per Javascript könnt ihr das display-Attribut dann nach Bedarf konfigurieren. Nettoeffekt: UAs ohne JS (aber mit elementarem CSS) sehen keine blinkenden Trümmer.
  • Optimierte Inzidenz

    Mortalitätspunkte und eine Fit-Gerade in einem Logplot

    Abbildung 3 aus dem Paper von Levine et al, auf das ich unten ein wenig eingehe: das Risiko, an SARS-2 zu sterben, geht ziemlich genau exponentiell mit dem Alter (die Ordinate ist logarithmisch aufgeteilt). Diese Beobachtung führt ziemlich direkt zu einem Kult-Paper aus den wilden Jahres des Internet. CC-BY doi:10.1007/s10654-020-00698-1.

    Als das WWW noch jung war und das Internet jedenfalls nicht alt, im Dezember 1999 nämlich, haben Chris Gottbrath, Jeremy Bailin, Casey Meakin, Todd Thompson und J.J. Charfman vom Steward Observatory das bemerkenswerte Paper „The Effects of Moore's Law and Slacking on Large Computations“ auf astro-ph, der Astrophyik-Abteilung des Preprint-Servers arXiv, veröffentlicht. Obwohl das damals nach meiner Erinnerung hohe Wellen geschlagen hat (selbst slashdot, damals eine der wichtigsten Seiten im Netz, berichtete), haben sie es bis heute zu keiner Fachzeitschrift eingereicht. Keine Ahnung, warum nicht, denn ihr Punkt ist trotz ihres eher leichtfüßigen Stils[1] völlig korrekt und jedenfalls nicht ganz offensichtlich.

    Gottbrath und Freunde sagen nämlich, dass, wer eine riesige Rechenaufgabe und ein festes Budget hat, durch Warten schneller fertig werden kann. Das liegt daran, dass mensch nach 18 Monaten (das ist die konventionelle Zeitskala für Moore's Law) fürs gleiche Geld einen Rechner mit doppelt so vielen Transistoren kaufen kann und der wird mit etwas Glück doppelt so schnell sein wie der, den mensch heute kaufen würde. Sie berechnen auch, wie groß eine Rechnung sein muss, damit sich das Warten lohnt: mit dem 18-Monate-Gesetz ist die Grenze bei Aufgaben, die 26 Monate rechnen würden.

    Weil das Paper damals in meiner Blase intensiv herumgereicht worden ist, finde ich überraschend, dass es laut ADS nur sechs Mal zitiert (wenn auch von einer illustren Auswahl von Papern) worden ist und bei den üblichen Suchmaschinen bei Anfragen wie „Moore's Law optimal waiting“ nicht in Sicht kommt.

    Transistoren vs. SARS-2

    Gesucht hatte ich es wiederum, weil ich ja schon länger mit Niedriginzidenzsstrategien hadere. Ganz unabhängig davon, ob wir als Gesellschaft hohe Inzidenzen ohne Schrammen überstehen, dürfte inzwischen niemand mehr ernsthaft bestreiten, dass „am Ende“ alle SARS-2 gehabt haben werden – die Frage ist nur, wann („werden wir im Herbst 2022 wieder einen Lockdown brauchen?“) und auch, wie viele Menschen bis dahin wegen SARS-2 schwer krank geworden oder gar gestorben sein werden.

    An diesem Punkt ist mir das 1999er-Paper eingefallen, denn wir haben bei SARS-2 etwas ganz ähnliches wie Moore's Gesetz: Die Sterblichkeit nach einer Erstinfektion steigt exponentiell mit dem Alter. Das haben im September 2020 (also einige Monate, bevor Impfungen gegen SARS-2 epidemiologisch relevant wurden) Andrew Levin und Kollegen in ihrem Artikel „Assessing the age specificity of infection fatality rates for COVID-19: systematic review, meta-analysis, and public policy implications“ (doi:10.1007/s10654-020-00698-1) recht sorgfältig und beeindruckend gezeigt. Die Abbildung am oben im Post ist aus dieser Arbeit.

    Da hier das Risiko und nicht die Leistung zunimmt, ist jetzt allerdings die Frage nicht, ob mensch lieber etwas warten soll. Nein, je älter Leute werden, desto größer ist ihr Risiko, eine SARS-2-Infektion nicht zu überleben, und dieses Risiko wächst ziemlich steil. Der Gedanke, die Gesamtopferzahl könnte sinken, wenn sich Menschen anstecken, solange sie noch jünger sind und sie also die Infektion mit höherer Wahrscheinlichkeit überleben, liegt also nicht fern. Die zur Prüfung des Gedankens notwendige Mathematik läuft im Wesentlichen analog zu den Überlegungen von Gottbrath und Freunden.

    Ethisch ist es natürlich nicht analog, aber ich wollte dennoch wissen, wie viel das eigentlich ausmachen könnte. Deshalb habe ich mir folgendes Modell ausgedacht:

    1. Die Infection Fatality Rate, also die Wahrscheinlichkeit, an einer (erkannten oder unerkannten) SARS-2-Infektion zu sterben, ist inspiriert von der Abbildung oben

      IFR = exp((t − A1) ⁄ λ) ⁄ 100.

      Dabei ist t das Alter der erkrankten Person, A1 das Alter, in dem 1% der Infizierten versterben (das pro-cent ist auch der Grund für die Division durch Hundert), und λ so etwas wie die Steigung; nennt mensch das Alter, in dem die Todesrate auf 10% gestiegen ist, A10, so lässt sich leicht

      λ = (A10 − A1) ⁄ ln(10)

      ausrechnen.

    2. Eine ultrakompetente Regierung (oder Schwarmintelligenz auf Brillianzniveau cosmic) kriegt es hin, die Inzidenz konstant über viele Jahre auf i zu halten. In meiner Simulation bleibe bei der Interpretation als Wocheninzidenz und simuliere die Infektion von Woche zu Woche. Gegenüber den Inzidenzen in der realen Welt gibt es bei mir außerdem keine Dunkelziffer.

    3. Wer nicht an SARS-2 stribt, stirbt nach Gompertz (cf. Mortalität in der Wikpedia), es stirbt also jedes Jahr ein Anteil („General Fatality Rate”)

      GFR = S30⋅exp(G⋅(t − 30  a)).

      der t-jährigen. Dabei ist S30 die Sterberate für 30-jährige, die ich aus dem Wikipedia-Artikel als ungefähr 40/100000 pro Jahr ablese, und G der Gompertz-Sterbekoeffizient – ich bin nicht sicher, ob ich so eine Größe eigentlich nach mir benannt haben wollte -, den die Wikipedia als 0.08 ⁄  a gibt. Etwas jenseits von Gompertz lasse ich jede Woche 1/52 der fürs jeweilige Wochen-Alter berechneten Menschen sterben; das macht vor allem die Kurven von SARS-2-Opfern über der Zeit glatter.

    4. Wer eine SARS-2-Infektion überlebt hat, stirbt nicht mehr an SARS-2. Das ist sicher eine unrealistische Annahme, aber sie macht das Modell auch deutlich klarer.

    Bliebe noch die Schätzung der Parameter aus der Formel für die IFR. Aus der Abbildung am Artikelanfang lese ich per Auge A1 = 65  a und A10 = 83  a ab (wer von den a irritiert ist: das ist die Einheit, nämlich das Jahr).

    Hier liegt die zweite wesentliche Schwäche meines Modells: Nachdem inzwischen in den dabei mitspielenden Altersgruppen wirklich eine überwältigende Mehrheit geimpft ist, werden diese Zahlen heute garantiert anders aussehen als in der ersten Jahreshälfte 2020, als die Studien gemacht wurden, die Levine et al ausgewertet haben. Andererseits legen die immer noch recht erheblichen Sterbefallzahlen nahe, dass sich die Kurve wohl nur ein wenig nach rechts verschoben haben wird; ich komme gleich nochmal darauf zurück.

    Der Berg des Todes

    Habe ich dieses Modell, kann ich einer Gruppe von Menschen folgen, bis sich (fast) niemand mehr infizieren kann, weil alle entweder tot oder in meinem Sinne immun sind. Ohne es probiert zu haben, glaube ich, dass das Modell einfach genug ist, um es in eine geschlossen lösbare Differentialgleichung umschreiben zu können. Aber wer will denken, wenn es doch Computer gibt?

    Und so habe ich die Modellannahmen von oben einfach in ein paar Zeilen Python gepackt und folge dem Schicksal einer Kohorte von 100000 70-jährigen, bis alle tot oder genesen sind. Und das mache ich für einen Satz von Inzidenzen zwischen 20 und 2000. für Das Ergebnis:

    Eine Kurve mit einem deutlichen Maximum um die 100

    Ich gebe zu, dass ich mit dieser Kurvenform nicht gerechnet hatte. Dass ganz niedrige Inzidenzen die Todeszahlen drücken, ist zwar zunächst klar, denn bei, sagen wir, 20/100000/Woche würde es 100000 ⁄ 20 = 5000 Wochen oder fast 100 Jahre dauern, bis alle mal das Virus hätten haben können, und in der Zeit sind 70-jährige natürlich anderweitig gestorben.

    Das hohe und recht steile Maximum um die 100 herum hatte ich so aber nicht erwartet. Zu ihm tragen vor allem Leute bei, die erst nach einigen Jahren – und dann deutlich gebrechlicher – mit SARS-2 in Kontakt kommen. Bei einer 100er-Inzidenz sieht die Wochensterblichkeit über der Zeit (in Wochen) so aus (cf. make_hist_fig im Skript):

    Kurve mit einem Maximum zwischen 1000 und 1700 Wochen

    Diese Kurve wäre ziemlich zackig, wenn ich strikt nach Gompertz-Formel nur ein Mal im Jahr natürliche Tode hätte, statt die diese geeignet auf die Wochen zu verteilen.

    Die Menschen, die am Anfang der Pandemie 70 sind, sterben in diesem Modell also typischerweise nach 1000 Wochen oder fast 20 Jahren, wenn sie ihn ihren 90ern wären. Das mag etwas fantastisch klingen. Jedoch: Das RKI hat früher immer dienstags die Demographie der Verstorbenen veröffentlicht (z.B. Bericht vom 30.3.2021, siehe S. 12), und tatsächlich sind 20% der Coronatoten in der Altersgruppe 90-99.

    Aber klar: Das ist hypothetisch. Niemand kann die Inzidenzen konstant auf 100 halten, und niemand wird das vernünftigerweise wollen. Vor allem aber mag die Impfung die IFR-Kurve durchaus so weit nach rechts verschieben, dass der Sterblichkeitspeak, der hier noch bei 90-jährigen sitzt, jenseits der 100 rutscht, und dann betrifft das, bei heutigen Lebenswerwartungen, praktisch niemanden mehr.

    Zynische Metriken

    Als Gedankenexperiment jedoch finde ich das Ganze schon bemerkenswert: Wenn wir eine 1000er-Inzidenz aushalten können, würden wir nach diesem, eingestandenermaßen idealisierten, Modell 7% der 70-jährigen den Tod durch SARS-2 ersparen.

    Ein so starker Effekt muss eigentlich schon aufgefallen sein. Wenn das kein Fehler auf meiner Seite ist: steht das schon irgendwo in der epidemiologischen Literatur?

    Allerdings ist die, ach ja, Metrik „Wie viele Leute sterben an SARS-2?“ auch ziemlich nichtssagend. Weit üblicher zur Einschätzung der Frage, wie viel Geld (oder Nerven) mensch für Interventionen gegen Krankheiten ausgeben mag, sind die YLL, Years of Life Lost (cf. nochmal DALY in der Wikipedia). Diese Metrik ist zwar – ganz wie meine Rechnung hier – ein wenig zynisch, aber doch nachvollziebar genug, dass ich mir aus meinem Modell auch nochmal die Gesamtlebensjahre habe ausspucken lassen, die meine 100000er-Kohorte in den Läufen mit den verschiedenen Inzidenzen …

  • Müdigkeit zur rechten Zeit

    Ich persönlich bin ja überzeugt, dass Public Health-Studien in einer mindestens ebenso dramatischen Replikationskrise stecken wie Studien in der Psychologie. Die Überzeugung resultiert in erster Linie aus einer Überdosis von Papern zu Broccoli oder Spirulina als „Superfoods“, aber eigentlich glaube ich im Groben gar keiner Studie, die Lebensgestaltung mit Lebenserwartung zusammenbringt, ohne eine wenigstens annähernd plausible mechanistische Begründung zu liefern (im Idealfall natürlich so stringent wie bei der erblichen Hypomagniesiämie).

    Manchmal jedoch sind epidemiologische Befunde einfach zu schön für Skepsis. Der Wille zum Glauben regte sich bei mir beispielsweise bei „Accelerometer-derived sleep onset timing and cardiovascular disease incidence: a UK Biobank cohort study“ von Shahram Nikbakhtian et al (doi:10.1093/ehjdh/ztab088). Politikkompatibel formuliert behauptet die Arbeit, mensch solle zwischen 10 und 11 ins Bett gehen, um möglichst alt zu werden; so in etwa war es auch in Forschung aktuell vom 9.11.2021 zu hören (ab 2:58).

    Piktogramme und Schlagworte

    Aus dem Paper von Nikbakhtian et al: Ein „graphical abstract“. Wer bitte ist auf die Idee gekommen, alberne Piktogramme würden beim Verständnis eines wissenschaftlichen Aufsatzes helfen? CC-BY-NC Nikbakhtian et al.

    Angesichts meiner spontanen Sympathie für das Ergebnis wollte ich ein besser fundiertes Gefühl dafür bekommen, wie sehr ich dieser Arbeit misstrauen sollte – und was sie wirklich sagt. Nun: abgesehen vom „graphical abstract“, das auf meinem crap-o-meter schon nennenswerte Ausschläge verursacht, sieht das eigentlich nicht unvernünftig aus. Die AutorInnen haben um die 100000 Leute eine Woche lang mit Beschleunigungsmessern schlafen lassen, und ich glaube ihnen, dass sie damit ganz gut quantifizieren können, wann da wer eingeschlafen und wieder aufgewacht ist.

    Dann haben sie fünf Jahre gewartet, bis sie in der UK Biobank – einer richtig großen Datenbank mit allerlei Gesundheitsdaten, in die erstaunlich viele BritInnen erstaunlich detaillierte Daten bis hin zu ihren Gensequenzen spenden[1] – nachgesehen haben, was aus ihren ProbandInnen geworden ist.

    Eigentlich nicht schlecht

    Ein Projekt, das sich fünf Jahre Zeit lässt, ist schon mal nicht ganz verkehrt. Weiter haben sie ihre Datenanalyse mit R und Python gemacht (und nicht mit proprietärer klicken-bis-es-signifikant-istware wie SPSS oder SAS, oder gar, <gottheit> bewahre, Excel), was auch kein schlechtes Zeichen ist. Klar, es gibt ein paar kleine technische Schwierigkeiten. So haben sie zum Beispiel notorische SchnarcherInnen („Schlafapnoe“) ausgeschlossen, so dass von ihren gut 100000 ProbandInnen am Schluss zwar gut 50000 Frauen, aber nur knapp 37000 Männer übrig geblieben sind.

    Dann gibt es Dinge, die in der Tabelle 1 (S. 4 im PDF) seltsam wirken, aber wohl plausibel sind. So schätzen sich ein Drittel der TeilnehmerInnen selbst als „more morning type“ ein – wo sind all die Morgentypen in meiner Bekanntschaft? Und warum schätzen sich 27% der Leute, die erst nach Mitternacht einschlafen, als „more morning type“ ein (14% sogar als „morning type“)? Kein Wunder, dass die armen Leute dann allenfalls sechs Stunden Schlaf kriegen, die Nach-Mitternacht-SchläferInnen sogar nur fünfeinhalb. Oh grusel.

    Und die Tabelle gibt her, dass die Diabetesrate bei den Nach-Mitternacht-SchläferInnen erheblich höher ist als bei den Früher-SchläferInnen (fast 9% gegen um die 5.5%) – ist das eine Folge von Chips auf dem Sofa beim Fernsehkonsum? Ganz überraschend fand ich schließlich den niedrigen Anteil von RaucherInnen, der in allen Gruppen deutlich unter 10% lag. Das, denke ich, würde in der BRD auch bei der betrachteten Altersgruppe (meist älter als 50) noch ganz anders aussehen. Aber ich vermute eher, dass RaucherInnen in der (nach meiner Erinnerung auf freiwilliger Rekrutierung basierenden) Biobank stark unterrepräsentiert sind. Das wirft dann natürlich Fragen bezüglich anderer Auswahleffekte in der Testgruppe auf.

    Wie dem auch sei: Das Ergebnis am Schluss war, grafisch zunächst sehr beeindruckend (Abbildung 2 in der Arbeit), dass Leute, die zwischen 10 und 11 einschlafen, deutlich weniger Herz-Kreislauf-Probleme haben als die anderen, ein Ergebnis, das mir gut gefällt, denn ich werde recht zuverlässig gegen 22 Uhr müde und bin dann froh, wenn ich ins Bett kann.

    Aber leider: Wenn mensch z.B. die erhöhte Diabetesrate rausrechnet, bleibt von dem Schlaf-Effekt nicht mehr viel übrig, jedenfalls nicht bei Männern, bei denen nur die Frühschläfer gegenüber Andersschläfern signifikant erhöhte Risiken hatten. Diese ließen sich recht zwanglos erklären, wenn das z.B. Schichtarbeiter gewesen wären, denn die Korrelation zwischen Schichtarbeit und Herzgeschichten ist wohlbekannt.

    Das ist aus meiner Sicht ohnehin die größte Schwierigkeit des Papers: Da Armut und Reichtum in westlichen Gesellschaften der beste Prädiktor für die Lebenserwartung ist[2], hätte ich gerne eine Kontrolle gegen die Klassenzugehörigkeit gesehen. Aber ich vermute, dass die Biobank solchen Einschätzungen aus dem Weg geht.

    Was verständlich ist, denn diese könnten ja den Schwefelgeruch des Klassenkampfs verströmen. Der wäre bei der vorliegenen Studie sicher auch deshalb besonders unwillkommen, weil die AutorInnen alle für den Gesundheitshöker Huma arbeiten, der, wenn ich den Wikipedia-Artikel richtig lese, auch im Geschäft mit Fitnesstrackerei unterwegs ist. In deren Welt jedoch ist jedeR seiner/ihrer Gesundheit Schmied, so dass für Klassenfragen besonders wenig Platz ist.

    Global Burden of Disease

    Eine weitere Entdeckung habe ich beim Reinblättern ins Paper gemacht, weil ich schon den ersten Satz nicht glauben wollte:

    Cardiovascular disease (CVD) continues to be the most significant cause of mortality worldwide, with an estimated 18.6 million deaths each year.

    Das schien mir gewagt, denn unter der (falschen) Annahme eines Gleichgewichts müssten bei rund 8 Milliarden Menschen mit einer Lebenserwartung von 100 Jahren 80 Millionen im Jahr sterben; auf einen Faktor zwei wird das trotz starken Wachstums vor allem in der zweiten Hälfte des 20. Jahrhunderts (senkt die Todesrate, weil ja mehr Menschen relativ jung sind) sowie gegenläufig geringerer Lebenserwartung schon stimmen. Wenn die 80 Millionen hinkämen, würden Herz-Kreislaufgeschichten 20% der Todesursachen ausmachen. Das soll schon die Nummer 1 sein? Tja – ich bin dem Literaturverweis gefolgt.

    Dabei kommt mensch bei den Global Burden of Disease-Daten (GBD) eines Institute for Health Metrics and Evaluation an der University of Washington heraus, einer Übersicht über das, woran die Leute auf der Welt so sterben und wie viele Lebensjahre was kostet. Nur nur, weil da „Metrik“ drinsteht, wäre an der ganzen Anlage der Daten schon viel zu kritisieren – die Wikipedia bespricht z.B. in ihrem Artikel zu DALY einige Punkte. Und natürlich ist das „Tool“, über das mensch die Daten nutzen soll, wieder so eine Javascript Only-Grütze.

    Aber spannend ist das doch, angefangen bei der Ansage von GBD, es stürben derzeit weltweit rund 56.5 Millionen Menschen pro Jahr. Dabei geben die GBD-Leute ein – Vorsicht, unverantwortlicher Natwi-Jargon – 2 σ-Intervall, also 95%-Konfidenzbereich, von 53.7 bis 59.2 Millionen; so große Fehlerbereiche verstärken tatsächlich mein Zutrauen zu diesen Daten, denn wenn ich mir so das globale Meldewesen vorstelle, scheint es sehr nachvollziehbar, dass drei Millionen Tote mehr oder weniger nicht ohne weiteres auffallen. Sie verlören, und dabei wirds allmählich wirtschafts„wissenschaftlich“, dabei 1.7 Milliarden Lebenjahre an Krankheiten und ähnliches.

    Ich muss mich demnächst mal mehr damit beschäftigen. Schade, dass der November schon vorbei ist. Das wäre eine sehr jahreszeitgemäße Tätigkeit gewesen.

    [1]Auch einer meiner Lieblingskollegen tut das. Als wir uns mal drüber unterhalten haben, meinte er etwas wie: Ich dachte mir schon, dass du das komisch findest. Meine Antwort war: Nun, nicht per se, aber doch in einem Staat, der selbst von Kindern DNA-Profile einsammelt, um damit flächendeckend Ladendiebstahl aufzuklären.
    [2]Gut, das ist jetzt etwas provokant, zumal „bester“ ja immer eine Menge braucht, innerhalb derer verglichen wird, und über dieser eine Totalordnung, was für ziemlich viele praktisch relevante Mengen schon mal nicht (eindeutig) gilt. Hier: klar ist der Unterschied der Lebenserwartung für Leute mit und ohne amyotrophe Lateralsklerose noch größer als der zwischen armen und reichen Menschen, so dass „hat ALS” mit einigem Recht als „besserer“ Prädiktor bezeichnet werden könnte. Aber „ist arm“ erlaubt für weit mehr Menschen eine recht starke Aussage. Deshalb kann ich, ohne nur zu provozieren, mit mindestens gleichem Recht von „besser“ reden. Ist halt eine andere Ordnungsrelation. Oder eine andere Menge, in der exotische Prädiktoren gar nicht vorkommen.
  • Die überraschende Macht der Tradition

    Foto: Grabstein

    Nur, damit ich nicht falsch verstanden werde: Ich bin ein großer Fan von Argelander, so groß, dass ich zu seinem Grab in Bonn gepilgert bin.

    Als ich heute morgen bei heise online einen Artikel las, in dem die Entdeckung eines braunen Zwergs (oder meinethalben auch einen besonders großen Riesenplaneten) durch einen Amateurastronomen verkündet wurde, musste ich traurig lächeln, denn das Objekt, um das es ging, hieß dort – und, wie sich rausstellt, sogar in der Originalarbeit (doi:10.3847/1538-4357/ac2499; open access arXiv:2112.04678) – „BD+60 1417b“.

    Was ist daran traurig? Nun, das „BD“ darin bezieht sich auf die Bonner Durchmusterung, ein eingestandenermaßen epochales Werk. Nur eben eines mit dem Äquinoktium B1855.0, was aus dem Astronomesischen übersetzt „echt retro“ heißt. Genau: Die 1855 steht so in etwa für das bürgerliche Jahr 1855; wer genau nachrechnet, kommt auf den 31.12.1854, kurz vor zehn am Abend, aber legt mich jetzt bitte nicht auf die Zeitzone fest. Was Erdkoordinaten angeht, haben manche Leute damals noch mit der Längenzählung in Paris angefangen. „Äquinoktium B1855.0“ ist tatsächlich ein wenig mit sowas vergleichbar, denn es bezeicnet letztlich eine Art, den Himmel in Länge und Bereite aufzuteilen.

    Damit will ich nichts gegen die Arbeit von Friedrich Argelander – der hat das damals in der Hand gehabt – gesagt haben. Im Gegenteil: sie war unglaublich wertvoll, und es ist heute kaum glaublich, dass Menschen (statt Computer) überhaupt 325000 Sterne beobachten und die Beobachtungen reduzieren können. Aber der Kram ist halt Mitte des vorletzten Jahrhunderts beobachtet worden, und die abschließende Publikation war 1903.

    Dass Bezeichner aus Arbeiten vor der Publikation der speziellen Relativitätstheorie noch in einer Arbeit vorkommen, die mit Daten von einem Weltraumteleskop im mittleren Infraroten operiert, ist schon, na ja, zünftig, zumal eine schnelle Simbad-Anfrage reichlich weniger angestaubte Bezeichnungen geliefert hätte; vermutlich hätte ich das Ding aus persönlicher Verbundenheit PPM 18359 genannt, oder dann halt SAO 15880. Die wirklich aktuellen Gaia-Bezeichnungen hingegen („DR2 1579929906250111232“; ich habe gerade nachgesehen: die Nummer bleibt im DR3) – ach ja, die sind vielleicht wirklich nicht so gut für Menschen geeignet. Dabei sind sind die monströsen Ziffernfolgen nur 64 bit… eigentlich sollte es da eine menschenwürdigere Kodierung geben. Hm.

    Aber am Ende: es ist wieder die Macht der Tradition, die ich gerade für die Astronomie schon jüngst beklagt hatte, als es in Fußnote 1 um die in dem Bereich einfach nicht verschwinden wollenden sexagesimalen Koordinaten ging. Unter diesen Umständen würde ich mir vielleicht auch keine allzu große Mühe geben mit lesbaren Kodierungen von 64-bit-Zahlen.

  • Wasch mir den Pelz

    In der Forschung aktuell-Sendung vom 3.11. am Deutschlandfunk liefen zwei ziemlich bemerkenswerte Beiträge, die sich beide ein wenig im Umfeld von XKCD 1301 bewegen:

    Fake-Balkengrafik

    Nun: Ich würde XLS deutlich weniger trauen als der Autor dieser Grafik, Randall Munroe. Argumente dafür folgen unten. CC-BY-NC XKCD.

    Erstens gab es ein Interview mit Regina Riphan von der Uni Erlangen (nun: sie ist an deren WISO-Fakultät, sitzt also in Wirklichkeit in Nürnberg), in dem sie zur Nutzung wissenschaftlicher Erkenntnisse durch die Politik ab Minute 2:20 berichtet,

    dass die wissenschaftlichen Analysen am häufigsten verwendet werden, wenn sie thematisch und redaktionell aufbereitet sind

    und dann weiter ab 3:35:

    damit die Nutzung von wissenschaftlichen Erkenntnissen steigen kann, müssen die Texte gut verständlich sein und kurz zusammengefasst sein.

    Übersetzt: Wissenschaft bitte nur in Powerpoint. Eine Implikation dieser Erwartung zeigt der XKCD oben.

    Allein: Wenn etwas eindeutig ist, leicht konsumierbar runtergekocht und kurz zusammengefasst werden kann, ist es im besten Fall Lehrbuchwissen, aber jedenfalls nicht mehr Wissenschaft.

    Wissenschaft im Sinne von „was wir gerade erforschen” hat immer Voraussetzungen, Fehlerbetrachtungen und Einschränkungen, ohne die die Aussage nicht sinnvoll eingeordnet werden kann. Natürlich können auch wissenschaftliche Aussagen schon mal auf einen Satz zusammenschnurren („Cygnus X-3 enthält ein schwarzes Loch von 17 Sonnenmassen.”), aber der ist fast immer zu ergänzen mit einem „…wenn A, B und C so stimmen“. Ohne solche Einschränkungen wird es meist mehr oder weniger falsch („…aber wenn das so wäre, könnten wir das nicht im Röntgen sehen, und deshalb kann es gut sein, dass da stattdessen nicht mal ein weniger exotisches schwarzes Loch ist.“).

    Wer sich fragt, warum auch weit über den Umgang mit SARS-2 hinaus politisches Handeln oft ziemlich plemplem wirkt, könnte hier die Antwort finden. Wer Entscheidungen auf wissenschaftlicher Evidenz basieren will, muss sich auf Wisschenschaft einlassen, und das bedeutet in aller Regel, Papers zu lesen. Das dauert auch mit fachkundiger Erläuterung zumindest im Bereich der Naturwissenschaften Stunden. Für ein erstes Verständnis. Wer das nicht will, sollte vielleicht lieber nicht so viel entscheiden. Oder jedenfalls nicht sagen, seine/ihre Politik sei irgendwie anders als durch soziale Zwänge, Interessen, Fast Talk, Loyalität und Bauchgefühl geleitet.

    Dabei bleibt einzuräumen, dass ein großer Teil von Wissenschaft am Ende schlicht gar nicht hinhaut – wenn es einfach wäre, bräuchte es keine Forschung. Und gelegentlich ist Kram auch nicht nur falsch, weil er sackschwierig ist. Eine erstaunlich irre Geschichte in dieser Abteilung wird in einem zweiten Beitrag der Sendung erzählt: Da nutzen Leute ernsthaft Excel für Wissenschaft, etwas, das mir selbst in der Astronomie immer wieder mit fatalen Ergebnissen begegnet[1]. Wo Leute über Genetik reden, hat das besonders lachhafte Folgen:

    Der Name des Gens Septin 4, abgekürzt Sept4, wird automatisch in den vierten September umgewandelt.

    Das ist auch Mark Ziemann und KollegInnen von der Deakin University in Melbourne aufgefallen, die daraufhin nachgesehen haben, wie groß das Problem wohl in publizierten Arbeiten sein mag (PLOS Comput. Biol. 17(7), e1008984, doi:10.1371/journal.pcbi.1008984). Im DLF-Beitrag:

    [Ziemann:] „Die Ergebnisse waren kurz gesagt viel schlechter als bei unserer ersten Analyse 2016.“ [...] In fast jeder dritten Studie war ein Gen-Name in ein Datum gewandelt worden. [... Ziemann:] „Zunächst sollte Genomik nicht in eine Tabellenkalkulation aufgenommen werden. Es ist viel besser, Software zu nehmen, die für umfangreiche Datenanalysen geeignet ist.“

    Dem Appell am Ende des Zitats kann ich mal mit ganzem Herzen zustimmen, und zwar wie gesagt weit über das Feld der Genetik hinaus. Eine so klare und offensichtlich wahre Aussage verlässt das Feld der Wissenschaft. Ich kanonisiere sie hiermit zu Lehrbuchwissen.

    [1]Richtig schräg wird es, wenn Leute in Tabellenkalkulationen mit vorzeichenbehafteten sexagesimalen Koordinaten wie -80° 14' 27" rechnen. Klar, das sollten sie auch ohne Excel nicht tun, aber Leute, die immer noch Excel verwenden, haben offensichtlich besonders große Schwierigkeiten, sich von problematischen Traditionen zu lösen.
  • Kohlendioxid und die thermische Leistung von Menschen

    Mit meinem zyTemp-Kohlendioxid-Messgerät – das, für das ich neulich Software gebastelt habe – bin ich natürlich gleich in die Welt gezogen, um mal zu sehen, wo es überall CO2 (und mithin plausiblerweise Corona-Aerosol) geben wird.

    Der Wind und die Seuche

    Nachdem mich ja zunächst sehr überrascht hat, wie deutlich sich die Anwesenheit von Menschen in rasch steigendem CO2-Gehalt der Luft in Innenräumen niederschlägt, war meine zweite große Überraschung, dass sich umgekehrt im Freien nichts tut. Also, richtig gar nichts. Selbst Autos, die mindestens eine Größenordnungen mehr CO2 emittieren als Menschen (vgl. unten), fallen schon aus ein paar Metern Entfernung im Wesentlichen nicht mehr auf. Ich musste mich schon an Kreuzungen neben die Ampeln stellen, um überhaupt ein schwaches Signal zu bekommen. Und das war kaum mehr als ein leichtes Oszillieren um ein paar ppm, während die wartenden Autos vor sich hinstanken und dann losbrausten. So sehr es nach Abgasen stank – CO2 ist im Nahbereich von Autos kein Problem.

    Die gute Nachricht ist also: Wenn CO2 ein guter Indikator ist, wie schlimm es mit Aerosol sein kann – real verschwindet Aerosol im Regelfall aus hinreichend ruhiger Luft durch Niederschlag, was CO2 nicht tut – ist praktisch sicher, dass an der frischen Luft bei nicht völlig irren Wetterlagen SARS-2 allenfalls durch Tröpfchen übertragen wird.

    Umgekehrt war meine Sorge ja immer der öffentliche Verkehr, und so habe ich mit Hingabe in verschiedenen Zügen gemessen. Als Referenz: Frischluft liegt derzeit hier irgendwo zwischen 280 und 350 ppm CO2. In einem halb vollen ICE habe ich zwischen 800 und 1400 ppm gemessen (interessanterweise nicht so ganz korreliert mit den Bahnhofsstopps; die Bahn kennend, vermute ich eine Nicht-so-ganz-wie-gedacht-Funktion der Lüftung in dem Wagen, in dem ich saß). Ein vollbesetzter IC-Zug der SBB war zwischen 800 und 1050 dabei, ein leerer Nahverkehrszug bei etwa 400, ein halb voller eher bei 700.

    Bei solchen Dynamiken ist wohl klar, dass hinreichend viel frisches Aerosol in der Luft sein wird, jedenfalls, solange nicht alle Passagiere mit richtig sitzenden FFP2-Masken dahocken, und sowas habe ich noch nicht mal dort gesehen, wo es wie in Berlin und Bayern gesetzlich gefordert ist oder war. Es muss also im letzten Winter weit mehr Ansteckungen in Zügen gegeben haben als das RKI in seinen Ausbruchshistogrammen (z.B. S. 12 am 9.3.2021) mit den kleinen roten Säulen andeutet. Aber ok, sie haben ja immer dazugesagt, „Clustersituationen in anonymen Menschengruppen (z.B. ÖPNV, Kino, Theater)“ seien fast sicher unterrepräsentiert.

    Atmende Blumen

    Aber ich hatte auch anderweitig viel Spaß mit dem Gerät. So war ich neulich verreist, und in der Wohnung verlief die CO2-Konzentration so:

    Graph mit Periodizitäten

    CO2-Konzentrationen in meinem Wohnzimmer während der Abwesenheit aller BewohnerInnen. Zeiten sind in UTC.

    Wohlgemerkt: Da war niemand. Es könnte sein, dass sich hier einfach Schwankungen in der Außenluft reflektieren; aber ich glaube zunächst mal, dass wir hier einer Birkenfeige beim Stoffwechsel zusehen; 6 Uhr UTC, wenn die Kurve sich nach unten wendet, entspricht 8 Uhr Lokalzeit und damit wohl der Zeit, in der es in dem Zimmer hell genug für Photosynthese werden dürfte; der große Peak rund um 18 Uhr am 28.9. wäre schön konsistent damit, dass die Pflanze sich zur Ruhe setzt und dazu kurz mal ihre Mitochondrien anwirft; der folgende Abfall wäre dann wieder ein Mischungseffekt, denn der Sensor lag (mehr zufällig) praktisch in den Zweigen des Ficus. Warum er, das angenommen, den Peak am 29.9. doch deutlich früher gemacht hat? Nun, vielleicht war ja Mistwetter? Oder vielleicht ist das auch alles ganz anders: das bräuchte definitiv mehr Forschung.

    Rauchmelder diagnostizieren Blasenschwäche

    Graph mit einigen Spitzen

    CO2-Konzentrationen in meiner Diele. Zeiten sind in UTC.

    Wenig überraschend zeigt sich, dass die CO2-Konzentrationen dramatisch personenbezogene Daten sind. Der zweite Graph illustriert das an einem relativ harmlosen Beispiel: Der Sensor steht jetzt in der Diele, vor meiner Zimmertür. Deutlich zu sehen ist, dass ich an dem Tag gegen 23 Uhr geschlafen habe, oder jedenfalls, dass meine Schlafzimmertür dann zu war. Und dann bin ich kurz vor zwei mal wach gewesen, weil ich am Abend etwas viel Tee getrunken hatte. am Morgen aufgestanden bin ich um sieben, kurz vor acht habe ich mal gelüftet, und um halb neun bin ich gegangen.

    Wer da etwas länger auf diese Weise zuschaut, findet viel über die BewohnerInnen von Wohungen heraus – angefangen davon, wann wie viele Menschen wo in der Wohnung sind –, und das im Zweifelsfall auch automatisiert unter vielen Menschen. Ich habe dabei lediglich zwei Messwerte pro Minute genommen. Das ginge, so würde ich schätzen, für eine ganze Weile mit den zumindest hier im Haus recht verbreiteten per Funk auslesbaren Rauchmeldern ganz gut, ohne dass ihre Batterien gleich alle wären – für die Betreiber und, weil die Krypto von den Teilen schon aus Stromspargründen sehr wahrscheinlich lausig ist, vermutlich auch ungefähr für jedeN, der/die sich hinreichend intensiv für das Leben der Anderen interessiert.

    Nachdenken nur für 50W?

    Schließlich bin ich jeden Tag wieder aufs Neue fasziniert, wie schnell ich in meinem Büro schlechte Luft verbreite.

    Graph mit zwei recht gleichmäßigen Anstiegen

    CO2-Konzentrationen in meinem Büro; ich komme von der Mittagspause zurück, arbeite, und lüfte ein Mal. Zeiten sind in UTC.

    An dieser Kurve ist viel zu sehen, unter anderem, dass sich offenbar die Luft in dem Raum doch recht schnell mischt; das würde jedenfalls schön erklären, warum es beim Lüften kurz nach 12 Uhr UTC so eine Delle nach unten gibt: Das ist die Frischluft von außen, die ziemlich direkt an den Sensor weht, sich dann aber innerhalb von fünf Minuten mit meinen im Raum gebliebenen Abgasen mischt.

    Diese schnelle Homogenisierung ist wesentlich für eine Überlegung, die sich für mich da aufdrängt: Wie viel CO2 mache ich eigentlich? Das geht so:

    In den 96 Minuten von 10:30 bis 12:06 habe ich die Konzentration von 808 auf 1245 ppm erhöht, was einer Rate von

    ((1245 − 808)  ppm)/((96⋅60)  s) = 0.077  ppm ⁄ s

    entspricht[1] (ich habe das nicht aus dem PNG, sondern noch im Plotprogramm selbst abgelesen). Ein zweiter Datenpunkt ist nach Lüften und Mischen: Da ging es von 12:17 bis 14:08 von 837 auf 1288 ppm, was auf eine Rate von 0.068 ppm/s führt.

    Aus den beiden Werten würde ich grob schätzen, dass ich die CO2-Konzentration in meinem Büro so etwa mit 0.07 ppm/s erhöhe, wenn ich normal arbeite; ich nenne diese Rate hier kurz δ. Unter der sicher falschen, aber vielleicht noch hinnehmbaren Annahme, dass kein CO2 entweicht und der nach den Beobachtungen plausiblen Annahme voller Durchmischung im Raum kann ich nun abschätzen, was mein Stoffwechsel so tut.

    Was es dazu braucht, ist das Wissen, dass bei einem idealen Gas (was die Luft nicht ist, aber für die Abschätzung reicht es) bei „Normalbedingungen“ (die bei mir im Zimmer glücklicherweise auch nicht ganz perfekt realisiert sind) ein Mol 22.4 Liter Volumen einnimmt[2]. Unter Kopfzahl-Aspekten kann ich nicht genau sagen, warum ich mir da drei Stellen gemerkt habe. In Wirklichkeit sind 20 l/mol natürlich genau genug als Kopfzahl. Ich nenne das unten Vm.

    Das ist eine Aussage über die Zahl der Gasmoleküle in einem Volumen V, denn ein Mol sind ungefähr 6e23 (so schreibe ich wieder kurz für 6⋅1023) Teilchen („Avogadro-Konstante“; außerhalb von Kopfzahlen ist die inzwischen exakt festgelegt und definiert das Mol). Mein Büro ist so in etwa fünf Meter lang, 2.5 Meter breit und drei Meter hoch, hat also V = 40 Kubikmeter Rauminhalt. Das heißt, dass sich darin

    (40  m3)/(0.0224  m3 ⁄  mol) ≈ 1800  mol

    befinden. Das sind gegen 1e27 oder 1000000000000000000000000000[3] Moleküle. Diese Zahl hat einen Namen: das ist eine Quadrillarde. Aber klar: der Name ist selbstverständlich Quatsch. Ich musste ihn selbst nachsehen. Der wissenschaftliche Fachbegriff für solche Zahlen ist Gazillion. Für alle davon. Weshalb wir eben immer zehn hoch siebenundzwanzig sagen, was viel nützlicher ist.

    Und dann brauche ich noch die Energie (oder hier genauer die Enthalpie, normalerweise geschrieben als ΔH) die bei der Bildung eines Moleküls CO2 auch C und O₂ frei wird; konventionell geben die Leute das nicht für ein Molekül, sondern für ein ganzes Mol (ihr erinnert euch: ganz platt 6e23 Moleküle statt nur eins) an, und die Wikipedia verrät, dass das 394 kJ/mol sind.

    Jetzt baue ich das zusammen, nämlich die Erzeugungsrate von CO2 in physikalischen Einheiten (statt in ppm/s), δV ⁄ Vm, auf der einen Seite, und mein ΔH auf der anderen Seite. Es ergibt sich für meine Leistung:

    P = ΔHδV ⁄ Vm

    Wenn mensch da die Einheiten glattzieht und bedenkt, dass ppm/s eigentlich 1e-6/s ist, muss mensch was rechnen wie:

    P = 394⋅103  J ⁄ mol⋅0.07⋅10 − 6 ⁄  s⋅40  m3 ⁄ (0.0224  m3 ⁄  mol)

    (ich schreibe das so ausführlich, weil ich mich beim schnellen Hinschreiben prompt verrechnet habe), was rund 50 J/s (also 50 W) ergibt.

    Ich habe von irgendwoher im Kopf, dass ein …

  • Wahlen und Informationstheorie

    Ich hatte neulich versprochen, ein paar Worte zu Zweifeln am repräsentativen Modell zu sagen, die sich aus der Informationstheorie speisen. Dazu braucht es zunächst einen Begriff von Information, und um den definieren zu können, ein Modell von Nachrichtenübertragung, in diesem Fall etwa: eine Wahl überträgt die Wünsche zur Organisation der Gesellschaft von Wählenden an die Macht.

    Information: Nachrichten in Bits gemessen

    Wie viel Information steckt nun in den Wunschlisten dieses Modells? Nun, Information – gemessen in Bit – lässt sich recht anschaulich definieren als die Zahl der ja/nein-Fragen, die mensch bei optimaler Fragestrategie im schlimmsten Fall stellen muss, um einer Menge verschiedener Nachrichten eine ganz bestimmte Nachricht rauszufiltern.

    Wenn die Wahl heißt „Parkplätze zu Parks?“ und sonst nichts, reicht eine solche Frage, und mithin wird ein Bit Information übertragen. Kommt als zweite Frage hinzu „Lebkuchen subventionieren?“, braucht es zwei Fragen und mithin Bit, um die kompletten Wünsche zu übertragen.

    Wenn mensch das fortführt, ergibt sich: Für ein komplettes Programm mit n binären Entscheidungen braucht es naiv erstmal n bit Information. Diese n bit reichen aus, um 2n Programme zu kodieren, nämlich alle Kombinationen von ja/nein Entscheidungen über die n Fragen hinweg. Wenn es nur die Parkplätze und die Lebkuchen von oben gäbe, wären das beispielsweise:

    • für Parkplätze/für Lebkuchen
    • für Parkplätze/gegen Lebkuchen
    • gegen Parkplätze/für Lebkuchen
    • gegen Parkplätze/gegen Lebkuchen

    Nochmal: Mit n bits kann ich 2n verschiedene Nachrichten (hier also Programme oder Wunschzettel) auseinanderhalten.

    Das kann mensch jetzt rückwärts aufziehen. Um den Informationsgehalt einer Nachricht herauszubekommen, muss mensch sehen, wie viele verschiedene Nachrichten es gibt und diese Zahl dann als 2x darstellen. Das x in diesem Ausdruck ist der Informationsgehalt in Bit. Das x braucht mensch nicht zu raten, denn es ist nichts anderes als der Logarithmus der Zahl der verschiedenen Nachrichten, genauer der Zweierlogarithmus (meist als ld geschrieben). Wenn euer Taschenrechner den nicht kann: ld x = ln x/ln 2 – aber letztlich kommts nicht so drauf an, denn ln 2 ist nicht viel was anderes als eins. Profis schenken sich sowas.

    Pop Quiz: Wie viele Bits braucht ihr, um eine von 1000 Nachrichten rauszufummeln? (Ungefähr 10). Wie viele, um eine von 1'000'000'0000 zu kriegen? (Ungefähr 30; ihr seht, der Logarithmus wächst sehr langsam).

    Nicht gleichverteilt, nicht unabhängig

    In Wahrheit ist das mit der Information etwas komplizierter. Stellt euch vor, zur Parkplatz-Lebkuchen-Programmatik käme jetzt die Frage „Vorrang für FußgängerInnen auf der Straße?“. Wer die Antwort einer Person auf die Parkplatz-Frage kennt, dürfte recht zuverlässig vorhersagen können, wie ihre Antwort auf die Vorrang-Frage aussehen wird.

    Mathematisch gesprochen sind die beiden Entscheidungen nicht unabhängig, und das führt dazu, dass mensch durch geschicktes Fragen im Schnitt deutlich weniger als drei Fragen brauchen wird, um das komplette Programm mit den drei Antworten rauszukriegen, etwa, indem mensch zusammen nach Parkplätzen und Vorrang fragt. Dieser Schnitt liegt irgendwo zwischen 2 und 3 – für die Mathematik (und den Logarithmus) ist es kein Problem, Fragen auch hinter dem Komma zu zählen: 2.3 bit, vielleicht (ich bin immer wieder erstaunt, wie viele Menschen noch gewillt sind, Parkplätze hinzunehmen, während der Vorrang für FußgängerInnen doch hoffentlich unbestrittener Konsens in der zivilisierten Welt ist[1]).

    Ein ähnlicher Effekt ergibt sich, wenn bestimmte Antworten viel wahrscheinlicher sind als andere. Wenn es z.B. zwei Texte A und B gibt, die jeweils 45% der Nachrichten ausmachen, bekomme ich in 90% der Fälle die Nachricht in nur zwei Fragen raus („Eins von A oder B?“, worauf zu 90% schlicht „A?“ reicht, um die gewählte Nachricht rauszukriegen), ganz egal, ob es noch 10 oder 10'000'000'000 andere Nachrichten gibt.

    Die Sache mit „Information in bit rechnest du als den Logarithmus der Zahl der verschiedenen Nachrichten aus“ gibt also eine Obergrenze für den Informationsgehalt. Sie wird erreicht wenn die Nachrichten gleichverteilt sind (und in gewissem Sinn in sich unabhängig; besser verständlich wird der Unabhängigkeits-Teil, wenn mensch nicht eine Nachricht, sondern eine Folge von Nachrichten betrachtet). Wer wissen will, wie das richtig geht, sei auf die Wikipedia verwiesen.

    Das ganz einfache Modell unabhängiger, gleichverteilter Nachrichten von oben gilt in der Regel nicht – in natürlichsprachigen Texten sind z.B. die Buchstabenhhäufigkeiten drastisch verschieden (Scrabble-SpielerInnen kennen das), und es gibt allerlei Regeln, in welchen Reihenfolgen Buchstaben kommen können. Eine erstaunlich effektive Schätzung für den Informationsgehalt von Nachrichten ist übrigens, einfach mal gzip laufen zu lassen: Für diesen Text bis hierher kommt da 2090 Bytes (á 8 bit) raus, während er auf der Platte 4394 Bytes braucht: Was gzip da geschluckt hat, sind die Abweichungen von Gleichverteilung und Unabhängigkeit, die so ein dummes Computerprogramm leicht finden kann.

    Klar: auch die 2090 ⋅ 8 bit sind höchst fragwürdig als Schätzung für den Informationsgehalt bis hier. Wenn die Nachrichtenmenge „alle bisherigen Blogposts hier“ wäre (davon gibt es etwas weniger als 100), wären es nur sechseinhalb Bit, ist sie „Zeug, das Anselm Flügel schreibt“, wäre es zwar mehr, aber immer noch klar weniger als die 16720 Bit, trotz aller Exkurse über Information und Logarithmen[2]. Informationsgehalt ist nur im Kontext aller anderen möglichen Nachrichten gut definiert. Und dem, was bei EmpfängerInnen ankommt, was bei diesem Post für SchurkInnen auch nur ein Bit sein kann: „Alles Mist“.

    Wie viele bit in einem Wahlzettel?

    Euer Wahlzettel bei der Bundestagswahl neulich dürfte so um die zwei Mal sechzehn Möglichkeiten gehabt haben, etwas anzukreuzen. Im besten Fall – unabhängige Parteien mit gleichen Erfolgschancen – könntet ihr also 8 bit übertragen mit euren zwei Kreuzen. In Wahrheit sorgt schon die 5%-Hürde dafür, dass es allenfalls 8 Listen gibt, die in der Logik repräsentativer Regierungsbildung wählbar sind, und dann noch vielleicht eineN von vier DirektkandidatInnen, die auch nur irgendeine Chance haben. Zusammen, schätze ich (immer noch optimistisch), vielleicht drei Bit.

    Vergleicht das mit den Nachrichten, die so eine Regierung aussendet: So redundant und erwartbar da auch viel sein mag, kein gzip dieser Welt wird die Gesetze, Verordnungen und Exekutivakte von Regierung und Parlament in der letzten Legislaturperiode auf irgendwas unter 100 Megabyte bringen können, selbst wenn es, das Kompressionsprogramm, Politik und Jura schon kann. Gesetze wie das zur Bestandsdatenauskunft etwa sind völlig beliebig: sie setzen einfach Wünsche der Polizeien um und kümmern sich weder um Verfassungen noch um Sinn, und sie würden deutlich anders aussehen, wenn bei BKA, Innenministerium und Polizeiverbänden gerade andere Individuen am Werk gewesen wären. Beliebigkeit ist aber nur ein anderes Wort für Unabhängigkeit und Gleichverteilung. Die 100 Megabyte werden also eine harte untere Grenze sein.

    Bei einem Verhältnis von rund drei Bit rein zu mindestens 100 Megabyte raus (in Worten: eins zu zweihunderfünfzig Millionen, weit unter der Gewinnchance beim 6 aus 49-Lotto) ist evident, dass Wahlen gewiss kein „Hochamt der Demokratie“ sind; ihr Einfluss auf konkrete Entscheidungen wäre auch dann minimal, wenn bei realen Wahlen viel entschieden würde.

    Was natürlich nicht der Fall ist. Niemand erwartet ernsthaft, dass eine Wahl irgendetwas ändert an wesentlichen Politikfragen, hierzulande beispielsweise Reduzierung des Freihandels, Zurückrollen von Privatisierungen, Abschaffung des Militärs, Befreiung der Menschen von der Autoplage, weniger autoritäres Management sozialer Spannungen (z.B. durch weniger übergriffige Polizeigesetze), weniger blutige Staatsgrenzen, weniger marktförmige Verteilung von Boden, kein Wachstum bis zum Kollaps und so weiter und so fort; praktisch die gesamte Bevölkerung hat in allen diesen Punkten die bestehende Regierungspolitik bestätigt, obwohl sie manifest ihren Interessen oder zumindest ihrem moralischen Empfinden widerspricht.

    Warum Wahlen wichtig sind

    Entsprechend tut in den gegenwärtigen Koalitionsverhandlungen nicht mal wer so, als ginge es um mehr als um Selbstverständlichkeiten wie Tempolimits auf Autobahnen (stellt euch mal kurz vor, wie unfassbar bizarr das auf in 100 Jahren eventuell noch lebende Menschen wirken muss).

    Was nicht heißt, dass Wahlen nicht wichtig sind. Die ganz zentrale Funktion von Wahlen dieser Art hat neulich im Deutschlandfunk ein gewisser Andrej Kolesnikow am Beispiel Russland erläutert:

    Die Wahl soll vor allem das Staatsmodell legitimieren, das sich in Russland entwickelt hat. Sie ist deshalb für die Staatsmacht wichtiger als für die Bürger. Die Wahl soll den Menschen auch vor Augen führen, dass die Staatsmacht weiterhin über eine Mehrheit verfügt und dass es besser ist, sich dieser Mehrheit anzuschließen, oder, wenn jemand unzufrieden ist, wenigstens ruhig zu bleiben und seine Unzufriedenheit für sich zu behalten.

    Wer aus ein paar Schritt Entfernung auf die hiesigen Verhältnisse blickt, wird diese Beobachtung auch hierzulande im Wesentlichen bestätigt sehen. Versteht mich nicht falsch: Das ist durchaus wichtig. Ein delegitimierter Staat geht schnell in eine kaputte Gesellschaft über, solange wir es nicht hinbekommen, Menschen auch ohne Nationalgeklingele zu rationalem, sprich kooperativem Verhalten zu bekommen (nicht, dass ich glaube, dass das sehr schwer wäre; es würde aber jedenfalls andere Schulen brauchen). Etwas von dieser Delegitimation sehen wir schon hier, verglichen mit den 1980er Jahren jedenfalls, etwas mehr in den USA, und noch viel mehr im, sagen wir, Libanon. Und etwas weniger als hier in Dänemark oder Schweden. Ich mache kein Geheimnis daraus, wo auf diesem Spektrum ich lieber leben will.

    Allerdings: diese Legitimationsfunktion der Wahl funktioniert weitgehend unabhängig von politischer Partizipation. Auch die finstersten autoritären Regimes halten Wahlen ab und wollen diese in aller Regel auch recht ehrlich …

  • Zu vollgefressen zum Abheben

    Ein Eichhörnchen turnt durch Zweige

    Keine Zikaden in Weinheim: das Eichhörnchen im dortigen Arboretum konnte noch munter turnen.

    Wieder mal eine Tier-Geschichte aus Forschung aktuell am Deutschlandfunk: In der Sendung vom 25.5. gab es ein Interview mit Zoe Getman-Pickering, die derzeit eine Massenvermehrung von Zikaden an der US-Ostküste beobachtet. Im Gegensatz zu so mancher Heuschreckenplage kam die nicht unerwartet, denn ziemlich verlässlich alle 17 Jahre schlüpfen erstaunliche Mengen dieser Insekten und verwandeln das Land in ein

    All-You-Can-Eat-Buffet. Es gibt schon Berichte von Eichhörnchen und Vögeln, die so fett sind, dass sie nicht mehr richtig laufen können. Die sitzen dann einfach nur herum und fressen eine Zikade nach der anderen.

    Es war dieses Bild von pandaähnlich herumhockenden Eichhörnchen, die Zikaden in sich reinstopfen eine einE Couch Potato Kartoffelchips, das meine Fantasie angeregt hat.

    Gut: Gereizt hat mich auch die Frage, wo auf der Fiesheitssakala ich eigentlich einen intervenierenden Teil der Untersuchung ansiedeln würde, der im Inverview angesprochen wird: Um

    herauszufinden [ob die Vögel noch Raupen fressen, wenn sie Zikaden in beliebigen Mengen haben können], haben wir auch künstliche Raupen aus einem weichen Kunststoff. Die setzen wir auf die Bäume. Und wenn sich dann Vögel für die künstlichen Raupen interessieren, dann picken sie danach

    und sind bestimmt sehr enttäuscht, wenn sie statt saftiger Raupen nur ekliges Plastik schmecken. Na ja: verglichen mit den abstürzenden Fledermäuse von neulich ist das sicher nochmal eine Stufe harmloser. Balsam für die Ethikkommission, denke ich. Das Ergebnis übrigens: Ja, die Zikadenschwemme könnte durchaus eine Raupenplage nach sich ziehen.

    Die Geschichte hat ein Zuckerl für Mathe-Nerds, denn es ist ja erstmal etwas seltsam, dass sich die Zikaden ausgerechnet alle 17 Jahre verabreden zu ihren Reproduktionsorgien. Warum 17? Bis zu diesem Interview war ich überzeugt, es sei in ÖkologInnenkreisen Konsens, das sei, um synchronen Massenvermehrungen von Fressfeinden auszuweichen, doch Getman-Pickering hat mich da eines Besseren belehrt:

    Aber es gibt auch Theorien, nach denen es nichts mit den Fressfeinden zu tun hat. Sondern eher mit anderen Zikaden. Der Vorteil wäre dann, dass die Primzahlen verhindern, dass unterschiedliche Zikaden zur gleichen Zeit auftreten, was dann schlecht für die Zikaden sein könnte. Und dann gibt es auch noch einige Leute, die es einfach nur für einen Zufall halten.

    Das mit dem Zufall fände ich überzeugend, wenn bei entsprechenden Zyklen in nennenswerter Zahl auch nichtprime Perioden vorkämen. Und das mag durchaus sein. Zum Maikäfer zum Beispiel schreibt die Wikipedia: „Maikäfer haben eine Zykluszeit von drei bis fünf, meist vier Jahren.“

    Aua. Vier Jahre würden mir eine beliebig schlechte Zykluszeit erscheinen, denn da würde ich rein instinktiv Resonanzen mit allem und jedem erwarten. Beim Versuch, diesen Instinkt zu quantifizien, bin ich auf etwas gestoßen, das, würde ich noch Programmierkurse geben, meine Studis als Übungsaufgabe abbekommen würden.

    Die Fragestellung ist ganz grob: Wenn alle n Jahre besonders viele Fressfeinde auftreten und alle m Jahre besonders viele Beutetiere, wie oft werden sich die Massenauftreten überschneiden und so den (vermutlichen) Zweck der Zyklen, dem Ausweichen massenhafter Fressfeinde, zunichte machen? Ein gutes Maß dafür ist: Haben die beiden Zyklen gemeinsame Teiler? Wenn ja, gibt es in relativ kurzen Intervallen Jahre, in denen sich sowohl Fressfeinde als auch Beutetiere massenhaft vermehren. Haben, sagen wir, die Eichhörnchen alle 10 Jahre und die Zikaden alle 15 Jahre Massenvermehrungen, würden die Eichhärnchen alle drei Massenvermehrungen einen gut gedeckten Tisch und die Zikaden jedes zweite Mal mit großen Eichhörnchenmengen zu kämpfen haben.

    Formaler ist das Problem also: berechne für jede Zahl von 2 bis N die Zahl der Zahlen aus dieser Menge, mit denen sie gemeinsame Teiler hat. Das Ergebnis:

    Balkendiagramm: Gemeinsame Teiler für 2 bis 20

    Mithin: wenn ihr Zikaden seid, verabredet euch besser nicht alle sechs, zwölf oder achtzehn Jahre. Die vier Jahre der Maikäfer hingegen sind nicht so viel schlechter als drei oder fünf Jahre wie mir mein Instinkt suggeriert hat.

    Ob die Verteilung von Zyklen von Massenvermehrungen wohl irgendeine Ähnlichkeit mit dieser Grafik hat? Das hat bestimmt schon mal wer geprüft – wenn es so wäre, wäre zumindest die These vom reinen Zufall in Schwierigkeiten.

    Den Kern des Programms, das das ausrechnet, finde ich ganz hübsch:

    def get_divisors(n):
      return {d for d in range(2, n//2+1) if not n%d} | {n}
    
    
    def get_n_resonances(max_period):
      candidates = list(range(2, max_period+1))
      divisors = dict((n, get_divisors(n)) for n in candidates)
    
      return candidates, [
          sum(1 for others in divisors.values()
            if divisors[period] & others)
        for period in candidates]
    

    get_divisors ist dabei eine set comprehension, eine relativ neue Einrichtung von Python entlang der altbekannten list comprehension: „Berechne die Menge aller Zahlen zwischen 2 und N/2, die N ohne Rest teilen – und vereinige das dann mit der Menge, in der nur N ist, denn N teilt N trivial. Die eins als Teiler lasse ich hier raus, denn die steht ohnehin in jeder solchen Menge, weshalb sie die Balken in der Grafik oben nur um jeweils eins nach oben drücken würde – und sie würde, weit schlimmer, die elegante Bedingung divisors[period] & others weiter unten kaputt machen. Wie es ist, gefällt mir sehr gut, wie direkt sich die mathematische Formulierung hier in Code abbildet.

    Die zweite Funktion, get_n_resonances (vielleicht nicht der beste Name; sich hier einen besseren auszudenken wäre auch eine wertvolle Übungsaufgabe) berechnet zunächt eine Abbildung (divisors) der Zahlen von 2 bis N (candidates) zu den Mengen der Teiler, und dann für jeden Kandidaten die Zahl dieser Mengen, die gemeinsame Elemente mit der eigenen Teilermenge haben. Das macht eine vielleicht etwas dicht geratene generator expression. Generator expressions funktionieren auch wie list comprehensions, nur, dass nicht wirklich eine Liste erzeugt wird, sondern ein Iterator. Hier spuckt der Iterator Einsen aus, wenn die berechneten Teilermengen (divisors.values()) gemeinsame Elemente haben mit den Teilern der gerade betrachteten Menge (divisors[period]). Die Summe dieser Einsen ist gerade die gesuchte Zahl der Zahlen mit gemeinsamen Teilern.

    Obfuscated? Ich finde nicht.

    Das Ergebnis ist übrigens ökologisch bemerkenswert, weil kleine Primzahlen (3, 5 und 7) „schlechter“ sind als größere (11, 13 und 17). Das liegt daran, dass bei einem, sagen wir, dreijährigen Zyklus dann eben doch Resonanzen auftauchen, nämlich mit Fressfeindzyklen, die Vielfache von drei sind. Dass 11 hier so gut aussieht, folgt natürlich nur aus meiner Wahl von 20 Jahren als längsten vertretbaren Zyklus. Ganz künstlich ist diese Wahl allerdings nicht, denn ich würde erwarten, dass allzu lange Zyklen evolutionär auch wieder ungünstig sind, einerseits, weil dann Anpassungen auf sich ändernde Umweltbedingungen zu langsam stattfinden, andererseits, weil so lange Entwicklungszeiten rein biologisch schwierig zu realisieren sein könnten.

    Für richtig langlebige Organismen – Bäume zum Beispiel – könnte diese Überlegung durchaus anders ausgehen. Und das mag eine Spur sein im Hinblick auf die längeren Zyklen im Maikäfer-Artikel der Wikipedia:

    Diesem Zyklus ist ein über 30- bis 45-jähriger Rhythmus überlagert. Die Gründe hierfür sind nicht im Detail bekannt.

    Nur: 30 und 45 sehen aus der Resonanz-Betrachtung jetzt so richtig schlecht aus…

  • Fledermäuse und die Schallgeschwindigkeit

    Via Forschung aktuell vom 5. Mai (ab 18:35) bin ich über ein weiteres Beispiel für vielleicht nicht mehr ganz vertretbare, aber leider doch sehr spannende Experimente an Tieren gestolpert: Eran Amichai und Yossi Yovel von der Uni Tel Aviv und dem Dartmouth College haben festgestellt, dass (jedenfalls) Weißrandfledermäuse eine angeborene Vorstellung von der Schallgeschwindigkeit haben („Echolocating bats rely on innate speed-of-sound reference“, https://doi.org/10.1073/pnas.2024352118; ich glaube, den Volltext gibts außerhalb von Uninetzen nur über scihub).

    Flughunde vor Abendhimmel

    Die beeindruckendsten Fledertiere, die ich je gesehen habe: Große Flughunde, die abends in großen Mengen am Abendhimmel von Pune ihre Runden drehen. Im Hinblick auf die Verwendung dieses Fotos bei diesem Artikel etwas blöd: Diese Tiere machen gar keine Echoortung.

    Das ist zunächst mal überraschend, weil die Schallgeschwindigkeit in Gasen und Flüssigkeiten von deren Dichte abhängig ist und sie damit für Fledermäuse je nach Habitat, Wetter und Höhe schwankt. Für ideale Gase lässt sie sich sogar recht leicht ableiten, und das Ergebnis ist: c = (κ p/ρ)½, wo c die Schallgeschwindigkeit, p der Druck und ρ die Dichte ist. Den Adiabatenexponent κ erklärt bei Bedarf die Wikipedia, er ändert sich jedenfalls nur, wenn die Chemie des Gases sich ändert. Luft ist, wenn ihr nicht gerade in Hochdruckkammern steht (und da würdet ihr nicht lange stehen), ideal genug, und so ist die Schallgeschwindigkeit bei konstantem Luftdruck in unserer Realität in guter Näherung umgekehrt proportional zur Wurzel der Dichte der Luft.

    Nun hat Helium bei Normalbedingungen eine Dichte von rund 0.18 kg auf den Kubikmeter, während Luft bei ungefähr 1.25 kg/m³ liegt (Faustregel: 1 m³ Wasser ist rund eine Tonne, 1 m³ Luft ist rund ein Kilo; das hat die Natur ganz merkfreundlich eingerichtet). Der Adiabatenexponent für Helium (das keine Moleküle bildet) ist zwar etwas anders als der von Stickstoff und Sauerstoff, aber so genau geht es hier nicht, und deshalb habe ich 1/math.sqrt(0.18/1.25) in mein Python getippt; das Ergebnis ist 2.6: grob so viel schneller ist Schall in Helium als in Luft (wo es rund 300 m/s oder 1000 km/h sind; wegen des anderen κ sind es in Helium bei Normalbedingungen in Wahrheit 970 m/s).

    Flattern in Heliox

    Das hat für Fledermäuse eine ziemlich ärgerliche Konsequenz: Da sich die Tiere ja vor allem durch Sonar orientieren und in Helium die Echos 3.2 mal schneller zurückkommen würden als in Luft, würden an Luft gewöhnte Fledermäuse glauben, all die Wände, Wanzen und Libellen wären 3.2-mal näher als sie wirklich sind. Immerhin ist das die sichere Richtung, denn in einer Schwefelhexaflourid-Atmosphäre (um mal ein Gas mit einer sehr hohen Dichte zu nehmen, ρ = 6.6 kg/m³) ist die Schallgeschwindigkeit nur 44% von der in Luft (wieder ignorierend, dass das Zeug einen noch anderen Adiabatenexponenten hat als He, O2 oder N2), und die Tiere würden sich noch zwanzig Zentimeter von der Wand weg wähnen, wenn sie in Wirklichkeit schon mit den Flügeln an sie anschlagen könnten – die Weißrandfledermäuse, mit denen die Leute hier experimentiert haben, haben eine Flügelspannweite von rund 20 Zentimetern (bei 10 Gramm Gewicht!). Wer mal Fledermäuse hat fliegen sehen, ahnt, dass das wohl nicht gut ausgehen würde.

    Aber das ist natürlich Unsinn: In Schwefelhexaflourid ist die Trägheit des Mediums erheblich größer, und das wird die Strömungseigenschaften und damit den dynamischen Auftrieb der Fledermausflügel drastisch ändern[1]. Was auch umgekehrt ein Problem ist, denn in einer Helium-Atmosphäre mit der um fast einen Faktor 10 geringeren spezifischen Trägheit funktionieren die Fledermausflügel auch nicht ordentlich. Ganz zu schweigen davon natürlich, dass die Tiere darin mangels Sauerstoff ersticken würden.

    Deshalb haben Amichal und Co mit Luft-Helium-Mischungen („Heliox“) experimentiert. Dabei haben sie die Schallgeschwindigkeit in einigen Experimenten um 27% erhöht, in der Regel aber nur um 15%[2]. Dass die beiden zwei Helioxmischungen am Start hatten, wird wohl einerseits daran liegen, dass die 15% allenfalls knapp über der natürlichen Schwankungsbreite der Schallgeschwindigket durch Temperatur, Luftdruck und Luftfeuchtigkeit (die gehen ja auch alle auf die Dichte) liegen. Mit 27% aber hatten die Fledermäuse doch zu große Probleme mit dem Fliegen, und das wäre keine Umwelt, in der kleine Fledermäuse aufwachsen sollten.

    Im Artikel schreiben die Leute dazu etwas hartherzig:

    “Category I” [von Fehlflügen] included flights in which the bat clearly did not adjust motor responses to the lessened lift and landed on the floor less than 50 cm from takeoff.

    – was eine recht zurückhaltende Umschreibung von „Absturz“ ist. Einige Tiere hatten davon schnell die Nase voll:

    Treatments [nennt mich pingelig, aber die Bezeichnung der Experimente als „Behandlung“ ist für mich schon auch irgendwo am Euphemismus-Spektrum] were completed in one session with several exceptions: two individuals refused to fly at 27% SOS after 2 d, and those treatments were therefore done in two sessions each, separated by 1 d in normal air.

    Unter diesen Umständen liegt auf der Hand, dass „Köder gefangen und gefressen“ kein gutes Kriterium ist dafür, ob sich die Fledermäuse auf Änderungen der Schallgeschwindigkeit einstellen können – viel wahrscheinlicher waren sie einfach mit ihren Flugkünsten am Ende.

    Tschilpen und Fiepen

    Es gibt aber einen Trick, um die Effekte von Wahrnehmung und Fluggeschick zu trennen. Jagende Fledermäuse haben nämlich zwei Modi der Echoortung: Auf der Suche und aus der Ferne orten sie mit relativ lang auseinanderliegenden, längeren Pulsen, also etwa Tschilp – Tschilp – Tschilp. In der unmittelbaren Umgebung der Beute (in diesem Fall so ab 40 cm wahrgenommener Entfernung) verringern sie den Abstand zwischen den Pulsen, also etwa auf ein Fipfipfipfip. Auf diese Weise lässt sich recht einfach nachvollziehen, welchen Abstand die Tiere selbst messen, wobei „recht einfach“ hier ein Aufnahmegerät für Ultraschall voraussetzt. Wenn sie in zu großer Entfernung mit dem Fipfipfip anfangen, nehmen sie die falsche Schallgeschwindigkeit an.

    Bei der Auswertung von Beuteflügen mit und ohne Helium stellt sich, für mich sehr glaubhaft, heraus, dass Fledermäuse auch nach längerem Aufenhalt in Heliox immer noch unter Annahme der Schallgeschwindigkeit in (reiner) Luft messen: Diese muss ihnen also entweder angeboren sein, oder sie haben sie in ihrer Kindheit fürs Leben gelernt.

    Das Hauptthema der Arbeit ist die Entscheidung zwischen diesen beiden Thesen – nature or nurture, wenn mensch so will. Deshalb haben Amichal und Co 24 Fledermausfrauen aus der Wildnis gefangen, von denen 16 schwanger waren und die schließlich 18 Kinder zur Welt gebracht haben. Mütter und Kinder mussten für ein paar Wochen im Labor leben, wo sie per Kunstlicht auf einen für die Wissenschaftler_innen bequemen Tagesrhythmus gebracht wurden: 16 Stunden Tag, 8 Stunden Nacht, wobei die Nacht, also die Aktivitätszeit der Tiere, zwischen 10 und 17 Uhr lag. Offenbar haben BiologInnen nicht nennenswert andere Bürozeiten als AstronomInnen.

    Mit allerlei Mikrofonen wurde überprüft, dass die Tiere während ihres Tages auch brav schliefen; auf die Weise musste die Heliox-Mischung nur während der Arbeitszeit aufrechterhalten werden, während die Käfige in der Nacht lüften konnten, ohne dass die Heliox-Fledermäuse sich wieder an richtige Luft hätten gewöhnen können.

    Jeweils acht Fledermausbabys wuchsen in normaler Luft bzw. Heliox-15 auf, den doch recht argen Heliox-27-Bedingungen wurden sie nur für spätere Einzelexperimente ausgesetzt. Dabei hat sich gezeigt, dass die Kinder unabhängig von ihrer Kindheitsatmosphäre in gleicher Weise orten: Der Umschlag von Tschilp-Tschip nach Fipfip passierte jeweils bei gleichen Schall-Laufzeiten unabhängig von der wirklichen Distanz.

    Warum tun sie das?

    Diese Befunde sind (aus meiner Sicht leider) nur recht schwer wegzudiskutieren, das wirkt alles recht wasserdicht gemacht. Was die Frage aufwirft, warum die Tiere so hinevolutioniert sind. Amichal und Yovel spekulieren, ein Einlernen der Schallgeschwindigkeit habe sich deshalb nicht herausgebildet, weil Weißrandfledermäuse in der Wildnis sehr schnell erwachsen werden und selbst jagen müssen, weshalb es nicht genug Zeit zum Üben und Lernen gebe.

    Das wäre wohl testbar: Ich rate jetzt mal, dass größere (oder andere) Fledermäuse längere Kindheiten haben. Vielleicht lernen ja die das? Oder vielleicht hängt die festverdrahtete Physik auch daran, dass Weißrandfledermäuse eigentlich durchweg mit ziemlich konstanter Schallgeschwindigkeit leben? Dann müsste das etwa bei mexikanischen Bulldoggfledermäusen (die aus dem Bacardi-Logo) anders sein, für die der Artikel Flughöhen von 3 km zitiert.

    Auch wenn die Sache mit dem Einsperren und Abstürzenlassen von Fledermäusen schon ein wenig gruselig ist: die Wortschöpfungen „Luftwelpen“ und „Helioxwelpen“ haben mich beim Lesen schon angerührt – wobei „Welpe“ für das Original „pup“ eingestandermaßen meine Übersetzung ist. Gibt es eigentlich einen deutsches Spezialausdruck für „Mauskind“?

    Abschließend doch noch ein Schwachpunkt: In der Studie habe ich nichts zum Einfluss des Mediums auf die Tonhöhe der Rufe gelesen[3]. Den muss es aber geben – die Demo von PhysiklehrerInnen, die Helium einatmen und dann mit Micky Maus-Stimme reden, hat wohl jedeR durchmachen müssen. Die Schallgeschwindigkeit ist ja einfach das Produkt von Frequenz und Wellenlänge, c = λ ν, und da λ hier durch die Länge der Stimmbänder (bei entsprechender Anspannung des Kehlkopfs) festliegen sollte, müsste die Frequenz der Töne in 27%-Heliox eben um einen Faktor 1.27, also ungefähr 5/4, niediger liegen. In der Musik ist das die große Terz, etwa das Lalülala einer deutschen Polizeisirene. Und jetzt frage mich mich natürlich, ob das die Fledermäuse nicht merken …

  • Erbliche Hypomagnesiämie

    Wenn PhysikerInnen Bücher über Molekularbiologie lesen (so wie ich derzeit dann und wann), sollten sie sich wahrscheinlich öfter mal schämen, weil sie Dinge faszinieren, die Menschen krankmachen. Aber andererseits weht ein Geist der Einsicht, wenn makroskopische, fast alltägliche Phänomene atomare Grundlagen haben.

    Gerade habe ich etwas über erbliche Hypomagnesiämie gelesen, also einen genetisch bedingten Magnesiummangel, speziell das Meier-Blumberg-Imahorn-Syndrom (und wieder mal haut mich um, dass in der Wikipedia über fast alles etwas steht, auch wenn dieser spezielle Artikel mich gewiss nicht fasziniert hätte).

    Wesentliches Symptom dieser Krankheit sind Krämpfe, wie vielleicht erwartbar bei Magnesiummangel; doch können die Betroffenen Magnesium zu sich nehmen, so viel sie wollen, die Krämpfe bleiben. Das liegt daran, dass die Niere ohne weitere Maßnahmen endlos Magnesium verliert und es deshalb im Normalbetrieb fleißig rückresorbiert, es also aus dem in der Produktion befindlichen Urin wieder in den Körper zurückdiffundieren lässt. Ein klarer Hinweis auf eine Störung in dem System: Bei den Betroffenen geht der sehr niedrige Magnesiumspiegel im Blut mit einem sehr hohen Magnesiumspiegel im Urin einher.

    Die Rückresorption nun funktioniert bei der erblichen Hypomagnisiämie nicht, weil die Zellen im Nieren-Epithel – also so einer Art innerer Haut, die Blut und Urin trennt – zu fest zusammenkleben. Zellen solcher Epithelien nämlich kleben sich ziemlich weit an der Außenseite („apikal“ – allein die Terminologie begeistert mich ja immer) fest zusammen. „Tight Junction“ heißt das im Englischen und wohl im Wesentlichen auch im Deutschen.

    Diese Tight Junctions sehen in verschiedenen Hauttypen jeweils leicht anders aus und können sozusagen gezielt Lücken lassen, je nach dem, wo das Epithel ist und was die Epithelzellen noch so alles tun können und wollen. Im Magen z.B. sollte die apikal (Ha!) schwappende starke Säure wohl besser gar nicht durchkommen, im Darm gehen Natriumionen auch mal an den sortierenden Zellen vorbei direkt ins Blut.

    Drei Sorten tight junction-Moleküle

    Karikaturen der drei Sorten von Bindungsmolekülen von Tight Junctions. Die dicken grauen Striche sind die Zellmembran, die Klebemoleküle sind als tief in den jeweiligen Zellen verankert, damit das auch ordentlich hält. Aus: Lodish, H. et al: Molecular Cell Biology, 5. Auflage.

    In normal funktionierenden Nieren geht die Rückresorption des Magnesiums durch die Tight Junctions, die dafür natürlich die passenden Lücken lassen müssen. Mein Physikherz schließlich schlug höher weil „wir“ (also… „die Menschheit“) ganz gut verstehen, was da molekular passiert. Im Groben machen drei Gruppen von Proteinen das Montagematerial an den Tight Junctions aus: Occludine und Claudine (die im Wesentlichen Schlaufen aus der Zellmembran heraus bilden) sowie antikörperähnliche JAMs („junction adhesion molecules“; ich glaube, die haben es noch nicht in die deutsche Wikipedia geschafft), die im Gegensatz dazu eher lange hakenartige Strukturen bilden.

    Die spezifischen Formen dieser Moleküle bestimmen, was durch die Tight Junctions durchkann, wenn sie sich erstmal mit ihren Gegenstücken der Nachbarzellen gefunden haben. Im Fall der erblichen Hypomagnesiämie nun ist sogar klar, welches Molekül genau die Löcher für die Magnesiumionen lässt. Es trägt den vielleicht etwas enttäuschenden Namen Claudin-19, und wir wissen auch, wo das kodierende Gen liegt: Chromosom 1, p34.2. Eine ungünstige Mutation dort, und ihr habt in einem Fort Krämpfe.

    Von Muskelkrämpfen zu Atomphysik in ein paar relativ kleinen Schritten: Ich sollte Molekularbiologe werden.

    Allerdings: Die Rolle der Claudine wurde mit Knock-out-Mäusen geklärt. Bäh. Das ist ja so schon schlimm genug, aber die Vorstellung, was für Wesen herauskommen, wenn jemand den Zusammenhalt von Epithelien ausschaltet: Oh Grusel. Für mich: Dann doch lieber zurück zu den Sternen.

  • Schulkinder sind gruselig

    Die Überschrift hätte ich mich nicht getraut, wenn sie nicht schon im Deutschlandfunk gelaufen wäre, in einer Sendung über einen Lauschangriff auf Lachse.

    Aber wo Christine Westerhaus es in dem Beitrag schon gesagt hat, konnte ich einer neuen Tiergeschichte nicht widerstehen: Von Lachsen und Eltern. Aktualität gewinnt das, weil ich klar nicht der Einzige bin, dem es etwas merkwürdig vorkommt, wie fast alle Eltern auf der einen Seite ostentativ darauf bestehen, ihre Kinder seien ihr Ein und Alles, auf der anderen Seite aber die Große Kinderverdrossenheit von Corona ganz öffentlich zelebrieren. Mal ehrlich: Wäre ich jetzt Kind, wäre ich angesichts des herrschenden Diskurses von geschlossenen Schulen als etwas zwischen Menschenrechtsverletzung und Katastrophe schon etwas eingeschnappt.

    Allerdings: vielleicht ist das ja gar keine Kinderverdrossenheit, sondern Verdrossenheit mit der Lohnarbeit, auf die mensch aber noch weniger schimpfen darf als auf die Kinder?

    Wie auch immer, ernsthaft beunruhigt waren Lachse am NINA in Trondheim, als eine Klasse lärmender Kinder um ihr Aquarium herumtobte. Und dieses Mal sind sie belauscht worden. So klingen vergnügte Lachse:

    Und so welche mit tobenden Kindern:

    Wie es in der Sendung heißt: „They think school kids are scary.“ Sie. Die Lachse.

    PSA: Wenn euer Browser keine Lachstöne abspielt, beschwert euch bei dessen Macher_innen: Ogg Vorbis sollte im 3. Jahrtausend wirklich alles dekodieren können, was Töne ausgibt.

  • Wenig Neues unter der Sonne

    Eine Hebamme bringt ein Neugeborenes mit Hörnern

    Fantasien zu Impfwirkungen aus dem frühen 19. Jahrhundert (Quelle).

    Im immer wieder großartigen Public Domain Review – den ich schon deshalb mag, weil fast alles ohne Javascript geht – war neulich ein Essay über das Georgian Britain’s Anti-Vaxxer Movement von Erica Eisen; es geht um frühe ImpfskeptikerInnen, und ich fand schon bemerkenswert, wie sehr sich die Motive damalis und der heute ähneln.

    Teils ist das ganz verständlich, weil etwa die Funktionsweisen von Religion historisch ziemlich konstant sind. Insofern wundert die Konstanz des Arguments über Impfen als Interferenz mit Gottes Plan nicht:

    The Small Pox is a visitation from God, but the Cow Pox is produced by presumptuous man: the former was what heaven ordained, the latter is, perhaps, a daring violation of our holy religion.

    —William Rowley, Cow-Pox Inoculation: No Security Against Small-Pox Infection (London: J. Barfield, 1805), 11.

    Umgekehrt ist erschütternd, dass die (zumindest im Fall von SARS-2) offensichtliche Abwägung zwischen möglichem Schaden und manifestem Nutzen häufig immer noch so auszugehen scheint wie unter Verhältnissen, die Eisen so beschreibt und in denen das tatsächlich ganz anders hätte sein können:

    These concerns were not allayed by the poor sanitation and medical standards that sometimes characterized the public vaccination hospitals created to serve Britain’s urban poor: at such places, the vaccines made available to patients often came not directly from cows but from the pustules of vaccinated children in the area, who may or may not have received a thorough medical check before being lanced for their “donation”. As a result, parents were not wholly unjustified in their fears that an injection meant to ward off one deadly disease might simply lead to their child being infected with another one.

    Keine Überraschung ist dabei natürlich die Beständigkeit von Armut als größtem Risikofaktor; zur der modernen Form berichtete neulich der Deutschlandfunk:

    Wo Menschen in beengten Wohnverhältnissen lebten, sei die Gefahr sich anzustecken größer als im großzügig angelegten Einfamilienhaus, sagte er in einer Landtagsdebatte in Düsseldorf. Der CDU-Chef und Unions-Kanzlerkandidat verwies dabei auf das Beispiel Köln, wo im Stadtteil Chorweiler die Inzidenz bei 500 und in Hahnwald dagegen bei 0 liege.

    Aber die wirklich beeindruckenden Parallelen liegen in völlig abseitigen Fantasien über mögliche Impfwirkungen und die Motivationen dahinter: Die gehörnten Neugeborenen aus dem Eingangsbild treffen sich da gut mit den Chips von Bill Gates, und die Angriffe aufs klare Denken gehen auch ganz regelmäßig über imaginierte Bedrohngen von Kindern, etwa im Eingangsbild oder wenn pockennarbige Monstren sie in kleine Minotauren verwandeln

    Insofern: Ein wirklich lohnender Artikel mit, wie üblich beim PDR, vielen schönen Bildern.

  • 35 Jahre Tschernobyl

    Sonne hinter Kühlturm

    Noch ein Grund, warum kleine AKWs stinken: Nicht mal klasse Kühltürme (wie den hier in Biblis) gibts mehr.

    Unter den deutschsprachigen Fortune Cookies von Debian sind jede Menge Witze des Typs „Wenn Microsoft Autos bauen würde… müssten wir alle auf Microsoft-Benzin™ umsteigen“ oder ”…würden die Warnlämpchen für Öl, Batterie, Benzin, und Motorschaden durch ein einziges »Genereller Auto-Fehler«-Lämpchen ersetzt.“

    Da wirkt es schon etwas befremdlich, wenn ausgerechnet Bill Gates jetzt Atomkraftwerke bauen will, und zwar jede Menge davon. Sein Laden Terrapower [Vorsicht: CPU-intensive Webseite] versucht, mit dem üblichen Marketing-Dummschwätz („Best-in-class talent“ – wer denkt sich sowas aus? Und meint, auch nur irgendwer würde da nicht nur die Augen verdrehen?) Schmelzsalzreaktoren wieder aus der Kiste klar schlechter Ideen rauszuziehen.

    Wer sich das bei Terrapower verlinkte Interview mit Gates [Vorsicht: Link zu youtube] ansieht, versteht vielleicht, weshalb er da alle Vernunft fahren lässt: Er hat genug Herz, dass ihm die Nöte der ärmeren Hälfte der Welt nicht ganz gleich sind, aber er glaubt zu sehr an Markt und Kapitalismus, um einzusehen, dass es diesen Leuten nicht wegen mangelnder Produktion dreckig geht, sondern wegen Markt, Eigentum und Ungleichheit, gerade auch im Zugriff auf Bildung und Produktionsmittel (sagen wir: der Boden, der entweder unsere Schweine oder ihre Bäuche füttert). Und so kommt er auf den Trichter, dass billigere Energie doch bestimmt den Kapitalismus auf eine weniger menschenfresserische Route bringen müsste.

    Obwohl ich Gates also durchaus halbwegs guten Willen unterstelle, kommt er doch wieder nur mit dem Unsinn, mit dem die Bombenbauer schon in den 50ern versuchten, ihren Atomstaat zu verkaufen (damals heiß das „electricity too cheap to meter“[1]):

    This is just like a candle. Our flame is taking the normal, depleted Uranium, the 99.3% that's cheap as heck and there's a pile of it sitting in [Paducah?], Kentucky that is enough to power the United States for hundreds and hundreds of years. You're taking that and you're converting it to [leicht verschämt] Plutonium, and you're burning that, and we have super-high power densities, we have, you know, total fail... fail-safe. Any reactor that a human has to do something... that's a little scary. [Audio]

    „Total fail-safe“ vom Microsoft-Vordenker und Vater des legendären Webservers IIS hat natürlich nochmal einen besonderen Geschmack, etwa angesichts der Exchange-Katastrophe, von der ich neulich am Rande gestreift wurde. Und dann sollen die Menschen draußen bleiben und... nun, wen genau die nötige Wartung machen lassen? Microsofts Roboter? Und das alles in den Ländern, in denen die vier Milliarden Ärmsten wohnen?

    Das ist so offensichtlich absurd, dass ich mich frage, warum Gates es überhaupt sagt.

    Nur ist das nicht das Thema.

    Wer über Atomkraft nachdenkt, sollte zumächst beim prinzipiellen Alptraum jeder Sorte Technik anfangen: Eine Kettenreaktion ist zunächst immer höchst instabil, denn ein Neutron muss dabei immer ganz genau ein weiteres Neutron erzeugen. Ist es auch nur ein Hauch weniger, geht der Reaktor exponentiell aus. Ist es ein Hauch mehr, geht der Reaktor exponentiell durch. Das ist, ganz prinzipiell, nichts, womit mensch basteln möchte, und das Gegenprinzip zu Gates' „fail safe“.

    Dass herkömmliche (langsame Uran-) Reaktoren überhaupt beherrschbar sind, liegt an einer Laune der Natur, nämlich einer sehr schmalen Neutronen-Absorptionslinie des Uran-238 gerade im Bereich von „thermischen” Neutronen (also welchen mit ein paar hundertstel eV). Nimmt nämlich die Reaktionsrate eines solchen Reaktors zu, wird er heißer, die Linie verbreitert sich thermisch, es kommt zu mehr Absorption von Spaltneutronen, die Reaktionsrate nimmt ab. Nimmt dagegen die Reaktionsrate ab, wird die Linie thermisch schmaler, die Absorption nimmt ab, die Reaktionsrate steigt wieder ein wenig.

    Das ist der wesentliche Grund, warum Brennstäbe ausgewechselt werden lange bevor alles U-235 gespalten ist und weshalb die Wiederaufbereitung schon vor der Zulassung von Mischoxid-Brennelementen (die Plutoium enthalten) nicht völlig unplausibel schien: Irgendwann muss mensch wieder U-238 in die Brennstäbe bringen, um die Regelung zu halten. Das heißt auch: Ein solcher Reaktor wird immer instabiler, je länger er ungewartet läuft. Zu den großen Wundern dieser Welt gehört, dass nicht ständig vernachlässigte Reaktoren durchgehen.

    Nun lassen sich ähnliche lokale Stabilitätspunkte auch künstlich herstellen („negativer Temperaturkoeffizient“), und die Wikipedia erklärt ganz gut, wie sich die Schmelzsalz-Fans das so vorstellen. Aber selbst wenn mensch ihnen diese Ideen abnimmt, sind das in all diesen Fällen nur kleine Dellen an einem langen, exponentiellen Hang einer sich entweder selbst-rückgekoppelt abschwächenden (Puh!) oder verstärkenden Reaktionsrate. Sowas will mensch als technisches Design ganz grundsätzlich nicht, wenns irgendwie anders geht.

    Und natürlich geht es anders, solange lediglich hinreichend Strom in vernünftigem Umfang (also: wenn wir uns komplett sinnlose Stromverschwendung wie die der terrapower-Webseite oder oder offensiv schädliche Stromverschwendung wie Elektroautos sparen) das Ziel ist. Wer sich die Mühe macht, die historischen Kernkraft-Programme in aller Welt anzusehen, wird feststellen, dass immer staatliches Geld und am Schluss das Interesse dahinterstand, die Technologie für die Bombe wenigstens in der Hinterhand zu haben. Plus vielleicht noch die Fantasie, einer politischen Einflussnahme im Stil der OPEC-Aktion nach dem Jom Kippur-Krieg länger widerstehen zu können – nicht ganz zufällig fing der ganz große Geldstrom in die „zivile“ Nutzung der Kernspaltung erst nach 1973 so richtig an. Weder Kosten (die immer exorbitant waren) noch Energieproduktion als solche waren je ein ernstzunehmendes Argument bei Atomprogrammen.

    Dementsprechend könnte mensch Gates' Gerede mit einem Achselzucken vergessen, wenn er mit seinem (natürlich absurden) „helft den Armen“-Narrativ nicht gerade den Staaten im globalen Süden eine Erzählung liefern würde, warum sie auch Bombentechnologie haben sollten. Denn natürlich ist Quatsch, dass bei Schmelzsalzreaktoren keine Proliferationsgefahr bestehe; wer Neutronen im Überfluss hat, kann mit etwas Chemie und vielleicht einer Handvoll Zentrifugen auch Bomben bauen. Punkt.

    Gates selbst räumt das – diskurv geradezu suizidal – ein: „super-high power densities“. Hohe Energie- und damit auch Neutronendichten sind das stärkste Argument gegen diese Sorte von Technik. Wer einen Eindruck von der Rolle von Energiedichte bekommen will (und sich um Umweltsauerei nicht kümmert), kann mal eine vollgeladene NiMH-Zelle (noch besser wäre NiCd, aber das will mensch dann wirklich nicht in die Umwelt pesten) und eine vollgeladene Lithium-Ionen-Zelle in ein Feuer werfen. Eins macht bunte Farben, das andere ein verheerendes Feuerwerk [nur zur Sicherheit: Nein, Feuer ist natürlich sowohl für NiMH als auch für Li-Ion eine ganz schlechte Idee. Lasst da die Finger von]. Beides ist weniger als ein laues Lüftchen gegen die Energiedichte eines Schmelzsalzreaktors.

    Was schließlich auf den zentralen Grund führt, warum mensch Nukleartechnologie in so wenigen Händen wie möglich haben will: Sie ist ein riesiger Hebel. Es gibt fast nichts anderes, mit dem ein einzelner, entschlossener Mensch eine Million andere Menschen umbringen kann. Ein Kilo Plutonium-239, geeignet verteilt, reicht jedenfalls mal, um die alle ordentlich zu verstahlen (nämlich den Jahres-Grenzwert für die Inhalation von α-Strahlern um einen Faktor 25 zu überschreiten). Ein paar Kilo Uran-232 (wie es sich aus Thorium-Brütern – und die braucht es von den Rohstoffreserven her, wenn der Kram eine Rolle bei der Gesamtenergieversorgung spielen soll – gewinnen lässt) reichen für eine richtige Bombe, die mechanisch so einfach ist, dass sie einE entschiedeneR BastlerIn hinkriegen kann. Dieser Hebel ist übrigens nicht nur für sich problematisch; er ist auch der Grund, warum ein Staat in Gegenwart verbreiteter Nukleartechnologie praktisch autoritär werden muss (vgl. Robert Jungks Atomstaat [2]), einfach weil er den Hebel so intensiv bewachen muss.

    Allein wegen dieses riesigen Hebels und der Tatsache, dass Leute auch ohne den gegenwärtigen Modetrend Faschismus immer mal wieder durchknallen will mensch hohe Neutronendichten nicht im Zugriff vieler Menschen haben. Und das heißt: AKWs im breiten, kommerziellen Einsatz [3] sind ein Rezept für Massenmord und autoritäre Staaten.

    Es gibt eigentlich nur eine Technologie, die einen noch größeren Hebel hat: Das ist DNA-Basteln. Mir schaudert vor der Zeit, in der die Leute, die heute Erpressungstrojaner schreiben, die Übertragbarkeit von Windpocken mit der Tödlichkeit der Masernfamilie zusammenprogrammieren und das Ergebnis mit DNA-Druckern und Bioreaktoren in diese Welt bringen können.

    [1]Höchst lesenswertes Buch in diesem Zusammenhang: Hilgartner, S, Bell, R.C., O'Connor, R.: Nukespeak – the selling of nuclear technology in America, Penguin Books 1982. Gibts leider nicht in der Imperial Library, aber dann und wann noch antiquarisch.
    [2]Gibts leider auch nicht in der Imperial Library.
    [3]Wer findet, dass ich hier defensiv klinge: Ja, na ja, ganz ohne erbrütete Radionuklide müssten wir die ganzen Nuklearmedizinabteilungen dichtmachen, und das wäre zumindest in Einzelfällen schon schade. Vielleicht reichen für sowas Spallationsquellen, aber wenn nicht: zwei, drei kleine Reaktoren weltweit wären jedenfalls genug; viel mehr ist es auch heute nicht, was den Krankenhausbedarf an wilden Isotopen deckt.

« Seite 2 / 3 »

Letzte Ergänzungen