Die ziemlich hörenswerte Miniserie über Pilze und Menschen in der
Deutschlandfunk-Sendung Wissenschaft im Brennpunkt (Teil
1, Teil 2) endet mit folgenden Worten von (ich glaube) Oliver Kurzai
von der Uni Würzburg:
Deswegen müssen wir glaub ich nicht damit rechnen, dass wir in
absehbarer Zeit tasächlich, ich sag mal, eine Killerpilz-Pandemie
kriegen, die auch den normalen, gesunden Menschen bedroht.
Wenn unsere Realität irgendeine Ähnlichkeit hat mit einem zünftigen
Katastrophenfilm, wisst ihr, was als Nächstes passieren wird.
Nicht weit vom Edersee – praktisch schon im Kellerwald-Nationalpark –
laufen Hirsche auch mal bei Tageslicht über herbstliche Felder und
bezaubern radelnde TouristInnen. Aber: was machen sie im Zoo?
„Bikeshedding“ bezeichnet das in vielen Entscheidungsgremien zu
beobachtende Phänomen, dass große und tiefgreifende Entscheidungen ohne
große Kontroverse durchgewunken, Nebensächlichkeiten[1] jedoch in
großer Breite diskutiert werden.
Als ich heute morgen die DLF-Sendung Wissenschaft im Brennpunkt vom
15.5. hörte, hatte ich eine Art intellektuelles Bikeshedding. In der
Sendung geht es um höchst raffinierte Verfahren der Metagenomik, bei der
durch Sequenzierung von DNS in mehr oder minder blind aus der Natur
entnommenen Proben tiefe Einsichten in Ökologie und Biologie gewonnen
werden. Dass sowas geht, dass dabei etwas rauskommt, und teils schon,
was dabei rauskommt: Das ist alles sehr beeindruckend.
Doch mein Wow-Moment kam erst bei folgender Passage (bei ca. Minute 23;
der Text auf der DLF-Seite ist leider nicht das Transskript der
Sendung):
Elizabeth Clair [...] berichtete in einer Vorveröffentlichung von
einer DNA-Analyse der Luft in einem englischen Zoo. [...] DNA von 25
Arten konnte das Team aufspüren, darunter 17 Zootierarten [...],
einige davon bis zu 300 m von der Untersuchungsstelle entfernt.
Außerdem ein paar Wildtiere wie Igel und Hirsch.
Ein wilder Hirsch? Im Zoo? Wie bitteschön soll das denn zugehen?
Setzen die elegant über den Zaun des Zoos? Um den gefangenen Tieren
vielleicht eine lange Nase zu drehen? Ich gebe zu, dass das verglichen
mit den Wundern von Massensequenzierungen doch eher trivial wirkt. Aber
ich wüsste wirklich gerne, was der Hirsch dort wollte.
Aufbauend auf dieser Erfahrung würde ich „behirschen“ als neues Verb
vorschlagen, mit der Bedeutung „sich an einer (scheinbaren)
Nebensächlichkeit in einer Forschungsarbeit aufhängen und damit deren
AutorInnen auf die Nerven gehen“? Nur nebenbei: Ich vermute, wir
behirschen in der modernen Wissenschaft fast alle deutlich zu wenig.
Nachtrag (2022-07-01)
Auf eine Nachfrage von @StephanMatthiesen hin hat mich die Sache doch
nicht losgelassen, und ich musste mal nach dem Paper sehen, von dem im
DLF-Zitat die Rede ist. Es scheint, als sei es bereits Anfang 2021
erschienen, und zwar als „Measuring biodiversity from DNA in the air“
von Elizabeth Clare et al, Current Biology (2021),
doi:10.1016/j.cub.2021.11.064. Darin heißt es:
Of special interest was the detection of the European hedgehog
(Erinaceus europaeus) in three samples [...] As of 2020, the hedgehog
was listed as vulnerable to extinction in the United Kingdom
(https://www.mammal.org.uk/science-research/red-list/), making it
vital to develop additional methods to monitor and protect existing
populations. [...] One commonly cited application of eDNA approaches
is the detection of invasive species. We detected muntjac deer
(Muntiacus reevesi) in five samples. These muntjacs are native to
China but became locally invasive after multiple releases in England
in the 19th century. They are now well established in eastern
England, the location of the zoological park, and are frequently seen
on site. They are also provided in food for several species; thus, the
detection of muntjacs may reflect either food or wildlife.
(Hervorhebung von mir, um die Verbindung zu den Igeln und Hirschen
aus der DLF-Sendung zu belegen). Mithin: Wir reden hier von keinem
stattlichen Zwölfender, der majestitisch an den Gittern
entlangschreitet. Wir reden von Muntjaks, die, so die Wikipedia,
„zwischen 14 und 33 Kilogramm“ wiegen und offenbar nur mit Mühe die
Größe von Damhirschen erreichen. Und obendrauf kann es gut sein, dass
die DNS dadurch in die Luft kam, dass andere Tiere die Muntjaks vertilgt
haben und dabei eher ruppig vorgegangen sind.
Selbst wenn die DNS nicht von Futter, sondern von einem Wildtier
abgesondert worden wäre, wäre ihr Vorkommen kaum erstaunlich, wenn
mensch die Lage des Tierparks bedenkt. Manchmal (aber selten)
verlieren die Dinge doch ein wenig von ihrem Zauber, wenn mensch näher
nachsieht.
Der Begriff „Bikeshedding“ bezieht sich tatsächlich auf
überdachte Fahrradstellplätze; dass gerade so eine zentrale und
wichtige Einrichtung als Prototyp des Nebensächlichen herhalten muss,
sagt natürlich schon einiges aus über unsere Gesellschaft und den
weiten Weg, den wir bis zur Befreiung vom Auto noch vor uns haben.
Am ersten Mai hatte ich mich an dieser Stelle gefragt, wann wohl die
„Dauerbeflimmerung“ – also: leuchtende Werbedisplays am Straßenrand – an
der Heidelberger Jahnstraße dazu führen wird, dass Leute einander
kaputtfahren. Fünf Tage später lief in Forschung aktuell ein
Beitrag, der einen ganz speziellen Blick auf Gefahren durch Beflimmerung
vom Straßenrand warf.
Grundlage des Beitrags ist der Artikel „Can behavioral interventions be
too salient? Evidence from traffic safety messages“ der Wirtschafts-
hrm -wissenschaftler Jonathan Hall und Joshua Madsen aus Toronto und
Madison, WI, erschienen in Science vom 22.4.2022
(doi:10.1126/science.abm3427)[1].
Bevor ich den Blick nachvollziehen konnte, musste ich mich zunächst
ärgern, denn alles, was ich beim Folgen des DOI gesehen habe, war das
hier:
Der Fairness halber will ich einräumen, dass die drei Punkte animiert
waren, und dann und wann hat die Seite, als ich ihr erstmal Javascript
erlaubt hatte, einen Reload geworfen und dann eine neue „Ray ID“
angeboten. Dennoch ist das gleich in mehreren Richtungen Mist,
verschärft hier dadurch, dass Landing Pages von DOIs statisch sein
können und sollen. Es lässt sich kein Szenario denken, in dem mensch
für statische Seiten auf einem ordentlichen Webserver einen
„DDoS-Schutz“ (was immer das sein mag) braucht, und schon gar keinen,
der ohne Javascript, Referrer und weiß ich noch was nicht funktioniert.
Ich muss gestehen: ich war es müde, den Mist zu debuggen. Da der
Artikel leider noch nicht bei libgen (die – Science, horche auf! –
diese Sorte Unfug nicht nötig haben) war, habe ich in den sauren Apfel
gebissen und statt meines Standardbrowsers einen überpermissiv
konfigurierten Firefox genommen, der der Cloudflare-Scharlatanerie
schließlich akzeptabel schien. Auch eine Art, das Web kaputtzumachen.
Zur Sache
In Texas hat das Verkehrsministerium über viele Jahre hinweg „Campaign
Weeks“ gemacht, während derer auf den elektronischen Großanzeigen an
vielbefahrenen Straßen – wer Falling Down gesehen hat, weiß, wovon
die Rede ist – unbequeme Wahrheiten („Für Menschen zwischen 5 und 45 ist
der Straßenverkehr die führende Todesursache“) angezeigt wurden.
Der Effekt: Offenbar fahren die Leute nach so einer Mahnung nicht
vorsichtiger, sondern abgelenkter. Jedenfalls gehen die Unfallraten
hinter solchen Nachrichten merklich nach oben. In Abbildung eins des
Papers sieht das so aus:
Das „DMS” in der Beschriftung heißt „dynamic message signs“ – zumindest
im Untersuchungszeitraum zwischen 2012 und 2017 war das aber sicher
richtig fades Zeug im Vergleich zu moderner Werbebeflimmerung. Bei den
roten Punkten kamen nach der ersten Tafel für 10 km keine weiteren mehr,
so dass das das sauberere Signal ist.
Auch wenn der Effekt im Vergleich zu den Fehlerbalken nicht sehr groß
ist und es allerlei versteckte Confounder geben mag – die Autoren gehen
aber erfreulich vielen nach und können viele glaubhaft kontrollieren –,
überzeugt mich das Paper davon, dass mindestens auf dem Kilometer nach
der Tafel die von alarmierenden Zahlen beunruhigten Menschen ein paar
Prozent mehr Unfälle bauen.
Ein Grund für meine Einschätzung der Zuverlässigkeit des Effekts ist,
dass offenbar die Zunahme der Unfälle mit der Drastik der Nachrichten
korrelierte: Spät im Jahr, wenn texanische Autos schon tausende Menschen
zermalmt haben und also entsprechend große Zahlen auf den Tafeln zu
sehen sind, sind die Effekte deutlich stärker als früh im Jahr:
Zwar ist die Null auch hier überall innerhalb von „zwei sigma“, also
der doppelten Fehlerbalken, so dass ich das nicht völlig überbewerten
würde. Ich könnte insbesondere nicht erklären, woher ein negativer
Achsenabschnitt der Ausgleichsgerade kommen könnte, warum Leute also
besser fahren sollten, wenn die Zahlen klein (oder ihre Neujahrsvorsätze
noch frisch?) sind. Dennoch entsteht, nimmt mensch alle Evidenz
zusammen, durchaus ein recht robustes Signal, das wiederum nur schwer
durch Confounder zu erklären ist.
Und auch wenn was wie 5% nicht nach viel klingen: Der Straßenverkehr ist
mörderisch (in den USA gibt es, Kopfzahl, in jedem Jahr so um die
50000 direkte Verkehrstote), und es gibt einen Haufen dieser
Displays. Hall und Madsen schätzen, dass ihr Effekt in den 28 Staaten,
die das ähnlich wie Texas machen, 17000 Unfälle mit 100 Toten
verursachen dürfte.
Verblüffung am Rande: Für ein Kontrollexperiment haben Hall und Madsen
nach Tafeln gesucht, die mindestens 10 km vor sich keine andere Tafel
haben (damit sich die Effekte der Vortafel hoffentlich bereits gelegt
haben). Das hat die Samplegröße um 75% reduziert. 75%! Dass diese
DMSe so sehr clustern – denn es sich sicherlich undenkbar, dass über das
ganze riesige Straßennetz von Texas hinweg alle paar Kilometer Tafeln
stehen –, hätte ich nicht erwartet. Warum planen Leute sowas?
Und Werbetafeln?
Nun gebe ich zu, dass Hall und Madsen über ganz andere Dinge reden als
die Werbe-Displays von Ströer und JCDecaux, sie ja sogar auf die
Wichtigkeit der Natur der Nachricht abheben und so das Medium eher aus
dem Blick nehmen.
Sie zitieren aber auch Literatur, die sich allgemeiner um die Frage der
Ablenkung durch Beflimmerung kümmert. Davon gibts einiges, und offenbar
ist umstritten, wie tödlich Werbetafeln wirklich sind. Vermutlich wäre
es ein wertvolles Projekt, die Drittmittelgeber der entlastenden Studien
zu ermitteln.
Was Hall und Madsen zitieren, ist leider nichts in dieser Richtung.
Dennoch habe ich mir ihre Quelle „Driving simulator study on the
influence of digital illuminated billboards near pedestrian“ von Kirstof
Mollu (aus dem Dunstkreis der Wiwis an der Universiteit Hasselt,
Belgien) et al, Transportation Research Part F 59 (2018), S. 45
(doi:10.1016/j.trf.2018.08.013) kurz angesehen. Das braucht immerhin
keine Beschwörungen von Cloudflare, ist aber wieder kein Open Access und
zwingt NutzerInnen erstmal den "Elsevier Enhanced Reader" auf, der ohne
Javascript gar nichts tut – eine sehr aufwändige Art, ein PDF
runterzuladen.
Nun: Mollu et al haben sieben Handvoll Führerscheinhabende rekrutiert
und in einen einfachen Fahrsimulator (zwar force-feedback, aber keine
Beschleunigungssimulation) gesetzt, in das Szenerio verschieden hektisch
flimmernde Displays integriert und dann gesehen, wo die Leute hingucken
und wie oft sie übersehen, dass FußgängerInnen über die Straße wollen.
Wenig überraschende Einsicht: Die Leute gucken mehr, wenn die Bilder nur
3 Sekunden (statt 6 Sekunden) stehen bleiben. Was Filmchen (bei denen
Bilder ja nur was wie 1/25stel Sekunde stehenbleiben) anrichten,
untersuchen sie nicht. Überhaupt macht der Artikel quantitativ
nicht viel her. Oh, abgesehen von Zahlen, die sie selbst nur zitieren:
In den Fahrradländern Niederlande und Dänemark sterben nur
drei bis vier FußgängerInnen pro Million Einwohner und Jahr.
In den jüngst wild motorisierten Lettland und Litauen ist es ein
Faktor 10 mehr, also etwas wie 35 pro Million und Jahr.
Zur Einordnung will ich nicht verschweigen, dass ausweislich der
aktuellen RKI-Zahlen SARS-2 in der BRD 1500 Menschen auf eine Million
EinwohnerInnen umgebracht hat und das auch schlimmer hätte kommen können
(aber: Caveat bezüglich dieser Sorte Zahlen). Andererseits: Wollte
mensch den gesamten Blutzoll des Autos bestimmen, Verkehrstote, durch
Verkehrsverletzungen verfrühte Tode, Opfer von Lärm und
Luftverschmutzung, vielleicht gar von Bewegungsmangel, wäre es wohl
nicht schwer, für die BRD auf 700 Autoopfer pro Million und Jahr zu kommen
und damit ziemlich genau in den Bereich des durch Maßnahmen und Impfung
gezähmten SARS-2. Aber diese Rechnung braucht mal einen anderen Post.
Leider hat Science den Artikel, dessen AutorInnen fast
sicher aus öffentlichem Geld bezahlt wurden und die jedenfalls
öffentliche Infrastruktur (U Toronto, Vrije Uni Amsterdam, U
Minnesota) nutzten, weggesperrt, und er ist im Augenblick auch noch
nicht auf libgen. Hmpf.
All diese Leute warteten 2014 im Karlsruher ZKM auf einen Vortrag von
Noam Chomsky. In diesem Post geht es um etwas, wo er ziemlich klar
falsch lag.
Nachdem ich gestern so empört war über Computerlinguistinnen, denen
der ethische Kompass klar abhanden gekommen ist, möchte ich gerne ein
paar Worte über eine wunderbare linguistische Arbeit nachschieben, die
mir neulich auf den Rechner kam. Um es gleich zu gestehen: Auch in
der steckt schmutziges Geld, in diesem Fall vom US Department of Defense
– aber wenn damit schöne Wissenschaft gemacht wird, will ich nicht
mit Steinen werfen.
Ausgangspunkt war die Sendung Äh, ähm, genau – Wozu gibt es
Füllwörter?, die am 15.3. in SWR2 Wissen lief (großes Lob übrigens an
die Redaktion, die noch das Manuskript zur Sendung auf die Webseite
legt, etwas, das beim DLF inzwischen leider Seltenheitswert hat). Meine
Aufmerksamkeit angezogen hat die Geschichte vom „Powerpoint-Genau“,
jenem „Genau“, das tatsächlich viele Menschen entweder kurz vor oder
kurz nach dem Umblättern bei Programmen wie… na ja, impressive sagen.
Jetzt, wo ich mal darauf hingewiesen wurde, fällt mir auch auf, was für
eine verbreitete und, ganz streng genommen, etwas alberne Sitte das doch
ist.
Eine kleine Revolution in der Linguistik (gegen König Noam) aus dem
Jahr 2002.
Von dort bin ich auf die Arbeiten von Joan Fox Tree von der
staatlichen Universität in Santa Cruz, CA gekommen, die im SWR2-Beitrag
als Auslöserin einer kleinen Revolution in der Linguistik bezeichnet
wird, weil sie Ähs und Ähms nicht nur als nützlich – weil
verständnisfördernd – sondern sozusagen als Wörter erster Klasse
identifizierte. Beim Artikel zu Teil zwei firmiert Fox Trees
Stanford-Kollege Herbert Clark als Erstautor, und er erschien 2002, just,
als ich für ein paar Jahre selbst in Computerlingustik dilett^Wlehrte:
„Using uh and um in spontaneous speaking“ (ist leider bei Elsevier
erschienen, so dass ich die dorthin führende DOI
10.1016/S0010-0277(02)00017-3 nur widerstrebend gebe).
Das Paper argumentiert wie gesagt ziemlich stringent, dass Äh und Ähm
ganz normale Wörter sind. Das geht gegen einen Ukas des Gottvaters der
moderneren Lingustik, Noam Chomsky, der sie (in etwa) als
vorprachliche Oberflächenform von Verhakungen bei der Sprachproduktion
angesehen hat. So sehr ich Chomsky als großen Vereinheitlicher der
Theorie formaler Sprachen und klarsichtigen Beobachter „unserer“
Weltpolitik schätze: Ich schließe mich, glaube ich, dem modernen
computerlinugistischen Mainstream an, wenn ich vermute, dass er sich bei
der Untersuchung natürlicher Sprache meist vertan hat.
Ein sehr starkes Argument für die Worthypothese von Clark und Fox Tree
ist zum Beispiel, dass verschiedene Sprachen verschiedene, na ja, Laute
verwenden anstelle unseres Äh. Tabelle eins aus dem Paper gibt folgende
Aufstellung:
Deutsch
äh, ähm
Niederländisch
uh, um
Schwedisch
eh, äh, ääh, m, mm, hmm, ööh, a, ööh
Norwegisch
e, e=, e==, eh, eh=, m, m=, […], øhø, aj
Spanisch
eh, em, este, pues
Französisch
eu, euh, em, eh, oe, n, hein
Hebräisch
eh, e-h, em, e-m, ah, a-m
Japanisch
eeto, etto, ano, anoo, uun, uunto, konoo, sonoo, jaa
(für Referenzen siehe die Arbeit selbst). Es heißt darin weiter:
Speakers of English as a second language often import the fillers from
their first language – we have heard examples from native French,
Hebrew, Turkish, and Spanish speakers – and that is one reason they
continue to be heard as non-native speakers.
Während ich die langen eueueueu-s von FranzösInnen, die Englisch sprechen,
bestätigen kann, ist mir leider noch niemand Spanischsprechendes
begegnet, der/die mit „este“ verzögert hätte. Aber ich werde jetzt
besser aufpassen. Jedenfalls: dass Ähms zwischen verschiedenen Sprachen
verschieden, innerhalb der Sprachen aber recht konstant sind, schließt,
soweit es mich betrifft, aus, dass Äh und Ähm vorsprachliche
Fehlermarker sind.
Die anderen Argumente für die Worthypothese von Clark und Fox Tree sind
vielleicht nicht durchweg vergleichbar stark. Aber die AutorInnen wollten
erkennbar einmal alle konventionellen Sprachebenen durchgehen und
argumentieren deshalb auch phonologisch (sie sind normale englische
Silben), mofphologisch (sie funktionieren auch als Klitika, können sich
also an andere Wörter anlehnen: „und-äh”), mit Prosodie (sie fallen aus
der Satzmelodie heraus, wie das etwa auch Einschübe wie diese Klammer
machen), über die Syntax (hier folgen sie einfach anderen
Interjektionen: Heissa!), über die Semantik (sie haben eine definierte
Bedeutung, nämlich: jetzt kommt gleich eine kleinere oder größere
Verzögerung im Sprechen) und über die Pragmatik, also die Frage: was
wollen die Leute mit einem Äh bewirken?
Einen Eindruck von der Relevanz dieser letzten Frage mag gewinnen, wer
im SWR2-Beitrag Mark Zuckerberg hört, wie er auf die Frage eines
Kongressabgeordneten antwortet, ob er mitteilen wolle, in welchem Hotel
er heute geschlafen habe:
Der Artikel untersucht diese pragmatischen Aspekte, speziell, was seit
Grice Implikatur heißt, und bietet dazu alles Mögliche zwischen „ich
habe noch was zu sagen, rede noch nicht rein“ bis „hilf mir und rede du
weiter“. Im Fall von Zuckerberg – Facebook war 2002 übrigens noch
dystopische Science Fiction – wäre das wohl „Ich tu wenigstens so, als
müsste ich über diese Zumutung noch nachdenken“.
Methodisch ist das alles wirklich schön gemacht. Ich wünschte, mir wäre
das Paper schon in meiner Coli-Zeit aufgefallen. Zumindest meine Studis
hätten viel Spaß haben können[1].
Drei mal Öhm sind allein schon hier im Blog zu finden.
Ein weiterer Punkt aus der Arbeit, den ich für recht überzeugend halte:
Äh und Ähm kommen durchaus gerne in geschriebener Sprache, gerade etwa
in Chats, vor, was bei einer Art zerebralen Notsignal wirklich nicht zu
erwarten wäre. Ein schnelles grep Öhm *.rst im content-Folder
dieses Blogs liefert bereits drei Belege (a, b, c) – ich suche mal
nicht weiter nach anderen graphische Repräsentationen von Ähm, denn der
Punkt ist gemacht: Ich selbst öhme auch, wenn ich sicher keine
Wortfindungsprobleme oder Sackgassen in meinem Textplan habe, und ich
weiß dabei ziemlich genau, was meine Öhms bedeuten sollen.
Angesichts so leicht greifbarer Belege ist schon eher seltsam, dass ein
so heller Kopf wie Chomsky seinen Irrtum offenbar lange vertreten
hat. Andererseits: Wenn ich an die Gelegenheiten denke, zu denen ich
ihn live have reden hören… Nun, ich glaube, er äht selbst schon arg
wenig, und die Sorte informeller (und vielleicht ja comicinspirierter?)
Schreibe, an die wir uns weit über die Blogosphäre hinaus gewöhnt haben,
war in den 60er und 70er Jahren vielleicht wirklich noch eher
Underground. Clark und Fox Tree führen in diesem Zusammenhang aus,
warum Menschen in formaleren, vielleicht hierarchiedominierteren
Situationen weniger ähen werden:
On the minus side, whenever speakers use fillers, they are announcing
that they are having preparedness problems, something they may not
want to admit in public. Speakers on the radio, on television, and in
formal speeches are expected to be knowledgeable and competent, so it
might undermine their authority to admit to preparedness problems.
– eine Einsicht, die sie einer Arbeit über „Radio Talk“ von einem
Herrn Goffman aus dem Jahr 1981 zuschreiben. Und in der Tat:
If speakers have control of uh and um, they should use them less often in
formal than in informal registers, and there is much evidence that they
do.
Ich bin ganz sicher, dass ich das so mache. Den Eindruck, ich würde um
so weniger ähen, je öffentlicher ich spreche, hatte ich bisher eher mit
mehr oder weniger Konzentration in verschiedenen Dia- oder
Monologsituationen erklärt, ganz im Sinne von Chomskys Äh-Theorie.
Jetzt hingegen neige ich auch stark zur These, dass die Ähs in etwa so
verschwinden wie, sagen wir, kräftige Flüche, die ich auf, sagen wir,
Konferenzen normalerweise auch vermeide.
Äh… Scheiße, was für ein fetzengeiles Paper.
Wenn das DoD für sowas zahlen kann: Muss es dann für die Bundewehr
wirklich dieser Großschnüffel-Mist von gestern sein?
Wie prioritär die Auflösung der Bundeswehr ist, zeigt derzeit nicht nur
die allabendliche Berichterstattung zu den Folgen von Krieg[1].
Nein, eine von der Gesellschaft getragene Armee macht diese – die
Gesellschaft – auch furchtbar anfällig für anderweitige autoritäre
Versuchungen. So ist schon Existenz einer Armee das Nachgeben
gegenüber der maximalen autoritären Versuchung, denn ihr zugrunde liegt
ja die Überzeugung, eine große Klasse von Problemen ließe sich lösen,
indem mensch hinreichend viele der richtigen Menschen tötet – und dieses
Töten sei auch gerechtfertigt, wenn nicht gar geboten.
Außerhalb des engeren Tötungsgeschäfts fallen militärisch insprierte
Antworten normalerweise etwas weniger final aus, doch bleibt auch dort
ethisch kaum ein Stein auf dem anderen, wenn die Armee interveniert.
Ein gutes und aktuelles Beispiel ist das Projekt, von dem die
Computerlinguistin Michaela Geierhos von der Universität der
Bundeswehr in Computer und Kommunikation vom 9.4.2022 berichtet.
Im Groben will die ihre Gruppe statistische und vielleicht linguistische
Werkzeuge („künstliche Intelligenz“) zur – immerhin noch polizeilichen
und nicht militärischen – Massenüberwachung von Telekommunikation
nutzen. In den Geierhos' Worten:
…den Ermittler zu unterstützen, überhaupt mal zu erkennen, was es in
Millionen von Zeilen, wo kommen da überhaupt Namen vor von Personen,
was ist ne Adressangabe, gehts jetzt hier um Drogen oder gehts
vielleicht um ganz was anderes.
Mit anderen Worten: Die Polizei soll richtig viele Menschen
abschnorcheln – denn sonst kommen ja keine „Millionen von Zeilen“
zusammen – und dann per Computer rausbekommen, welche der Überwachten
die bösen Buben sind. Das ist der gute, alte Generalverdacht, und
Menschen mit einem Mindestmaß an menschenrechtlichem Instinkt werden so
etwas ganz unabhängig von den verfolgten Zwecken ablehnen. Grundfeste
des Rechtsstaats ist nun mal der Gedanke, dass allenfalls dann in deine
Grundrechte eingegriffen wird, wenn es einen begründbaren Verdacht gibt,
du habest gegen Gesetze verstoßen – und auch dann können nur sehr
konkrete Hinweise auf schwere Verstöße so schwere Eingriffe wie die
„TKÜ“ rechtfertigen (vgl. §100a StPO).
2008 zierte dieses Transparent das Berliner bcc, während der CCC dort
tagte.
In den Beispielen von Geierhos hingegen geht es um ein von vorneherein
zweckloses Unterfangen wie die repressive Bekämpfung des illegalen
Handels mit und Gebrauchs von Rauschmitteln. Das völlige Scheitern
dieses Ansatzes ist ein besonders schönes Beispiel dafür, wie trügerisch
die autoritäre Versuchung ist. Wie so oft mögen die (staats-)
gewalttätigen Lösungsansätze naheliegend sein. Das heißt aber noch lange
nicht, dass sie tatsächlich funktionieren, schon gar nicht auf Dauer.
Und da habe ich noch nicht mit den schweren Nebenwirkungen angefangen.
Leider ist auch der Moderator Manfred Kloiber – versteht mich nicht
falsch: das ist, soweit ich das nach Plaudereien mit ihm im DLF-Studio
beim Chaos Communication Congress beurteilen kann, ein sehr netter
Mensch – schon der autoritären Versuchung erlegen, wenn er fragt:
Auf der anderen Seite würde man sich ja wünschen, dass man genau davon
[z.B. von Drogengeschichten] ein unabhängiges System findet, was
eben halt über die Bereiche hinweg Kriminalität oder anormale Vorgänge
feststellen kann.
Ich weiß nicht, ob ihm klar war, was er sich da wünscht, und die eher
stolpernden Worte mögen andeuten, dass die Frage so nicht geplant war.
Jedenfalls: Eine universelle Verhaltensüberwachung, die nonkonformes
Verhalten (nichts anderes sind ja „anormale Vorgänge“ im sozialen
Kontext) polizeilicher Intervention zugänglich machen soll? Wer könnte
sich sowas unter welchen Umständen zur Lösung welcher Probleme wünschen?
Zum „wer“ kann mensch immerhin schon mal antworten: Wissenschaftlerinnen
der Universität der Bundeswehr, denn Geierhos antwortet ungerührt:
Ja, das ist eine sehr große Vision, aber von dieser Vision sind wir
leider noch weit entfernt.
(Hervorhebung von mir).
Zu weiteren „Kriminalitätsbereichen“, in denen Geierhos ihr digitales
Stahlnetz gerne auswerfen würde, sagt sie:
Also, Wirtschaftskriminalität, wie gesagt, schwieriger, dass wir das
synthetisch herstellen können […] Aber so Chatprotokolle, Telegram und
wie sie alle heißen, da kann man definitiv ansetzen, wir gucken uns
aber auch an, Hasskriminalität beispielsweise, Mobbing, dass es in die
Richtung geht.
Klar, das sind Probleme, deren autoritäre Behandlung (in Wahrheit wohl:
Verschlimmerung) das Aushebeln selbst noch basalster
Menschenrechtsstandards rechtfertigt.
Oh je. Wie genau haben Costa Rica und Island es geschafft, ihr Militär
loszuwerden? Können wir das bitte auch ganz schnell haben?
Bei den Bildern vom Krieg bleibt, nebenbei, zu bedenken,
dass an ihnen im Gegensatz zum offenbar noch verbreiteten Eindruck
nichts neu ist: Armeen, auch „unsere“ Armeen und die „unserer“
Verbündeten, haben seit jeher und auch in den letzten Jahren ganz
ähnliche und noch schlimmere Gräuel angerichtet. Dass nennenswert
viele sogar halbwegs gutwillige Menschen die aktuellen Gräuel zum
Anlass nehmen, „unsere“ Fähigkeiten zum Anrichten von Gräueln
verbessern zu wollen: Das wird künftige HistorikerInnen wohl ebenso
verwundern wie uns heute die Freude, mit der nennenswerte Teile der
kaiserlichen Untertanen in den ersten Weltkrieg gezogen sind. Mich
verwundert schon heute beides in gleichem Maße. Aber das ist nun
wirklich nicht Thema dieses Artikels.
Nachdem mich gestern die Publikationen der Gruppe von Kathelijne
Koops so gelockt haben, habe ich gleich eine durchgeblättert, und
zwar „How to measure chimpanzee party size? A methodological comparison“
von Kelly van Leeuwen und KollegInnen
(doi:10.1007/s10329-019-00783-4, Preprint).
Bevor ich das lobe, muss ich etwas mosern. Erstens, weil das
Ganze von unfreier Software nur so strotzt – die statistische Auswertung
ist mit SPSS gemacht (geht ja auch anders), und das Paper wurde wohl in
Word geschrieben, auch wenn die Metadaten des Preprints etwas verwirred
aussehen (leicht redigiert):
Warum da nacheinander ein „PDFMaker für Word“ und dann (?) nochmal ein
Ghostscript drübergelaufen sind? Hm. Das PDF vom Verlag ist übrigens
nochmal anders gemacht und meldet „Acrobat Distiller 10.1.8 (Windows)“
als die Software, die das PDF geschrieben hat. Uh. Ein wenig neugierig
wäre ich nun schon, woraus das destilliert wurde.
Zweitens ist nicht schön, dass die Open-Access-Webseite der Uni Zürich
„You need to enable JavaScript to run this app.“ sagt. Das ist in
diesem Fall um so weniger angebracht, als sie auch ohne Javascript eine
ganz brauchbare Seite ausliefert. Allerdings fehlen in dem
Word-generierten PDF die Abbildungen und Tabellen, und sie sind auch
nicht erkennbar verlinkt. Immerhin sind beim Verlag (Springer) „Online
Resources“ offen (während sie von Leuten, die nicht für hinreichend
reiche Unis arbeiten, absurde 37.40 Euro fürs formatierte PDF haben
wollen). Zumindest im Falle der ziemlich sinnlos gestapelten Ergebnisse
der verschiedenen Methoden in Abbildung 1 ist das Fehlen der Abbildungen
aber hier vielleicht sogar verschmerzbar.
Ich würde noch nicht mal auf die Tests, die die AutorInnen so
durchgeklickt haben, furchtbar viel geben, auch wenn sie immerhin ein
wenig statistsiche Abbitte geleistet haben (das ist die realweltliche
Bedeutung des dann und wann angerufenen hl. Bonferroni).
Mein persönliches Highlight aus dem Artikel: Eine qualitative
Betrachtung einiger systematischer Effekte. Rechte beim Japan Monkey
Centre und Springer Japan KK (aus doi:10.1007/s10329-019-00783-4).
Wirklich schade ist es aber um die Tabelle 1 (wenn die Abbildung hier
nicht reicht: Libgen kann helfen). Sie liefert eine schöne Quintessenz
der qualitativen Betrachtungen zu möglichen systematischen Fehlern, und
die geben gute – und vor allem im Vergleich zu entsprechenden
Betrachtungen in der Physik auch recht greifbare – Beispiele für das,
von dem ich in meinem Lob von small data geredet habe. Van Leeuwen
et al schätzen nämlich die Größe von umherziehenden Schimpansengruppen.
Weil die Tiere nun in den Baumkronen umherturnen und noch dazu
vielleicht nicht so gern gezählt werden, ist das nicht ganz einfach, und
die Leute probieren vier verschiedene Verfahren:
Hingehen und Affen zählen
Eine Fotofalle aufstellen und sehen, wie viele Schimpansen auf den
Bildern sind
Anrücken, wenn die Tiere weg sind und zählen, wie viele Tagesnester –
leichte Konstrukte aus Blättern und Zweigen, in denen Schimpansen
kleine Nickerchen halten – in den Bäumen sind
Anrücken, wenn die Tiere weg sind und zählen, wie viele Schlafnester –
elaborierte Konstruktionen, in denen ein Schimpanse die Nacht
(aber immer nur eine) verbringt – in den Bäumen sind.
In einer idealen Welt würde für eine gegebene Gruppe immer die gleiche
(kleine natürliche) Zahl rauskommen, also vielleicht 5. Und ich finde
die erste wertvolle Einsicht schon mal: Selbst einer 5 kann mensch in
vielen Bereichen der Wissenschaft nicht vertrauen. Na gut: Als Astronom
sollte ich da nicht mit Steinen werfen, denn wir kommen ja auch mit
acht, neun oder zehn (Planeten im Sonnensystem) ins Schleudern.
Wenig überraschenderweise lieferten verschiedene Methoden tatsächlich
verschiedene Ergebnisse, und zwar systematisch. Zur Erklärung schlagen
die AutorInnen unter anderem vor:
Direkte Beobachtungen werden vermutlich große Gruppengrößen
bevorzugen, da sich kleinere Gruppen noch scheuer gegenüber Menschen
verhalten werden als große – und umgekehrt die Menschen größere
Gruppen wegen mehr Geschrei auch leichter finden.
Umgekehrt werden direkte Beobachtungen eher einzelne Tiere übersehen,
wenn diese besonders scheu sind, was zu einer systematischen
Unterschätzung speziell bei besonders wenig an Menschen gewöhnten
Gruppen führen wird.
Die Fotofallen könnten ähnliche Probleme haben, wenn die
Schimpansen ihre Existenz spitzkriegen. Offenbar gibt es da
Vermeidungsverhalten. Und natürlich haben Fotofallen nur ein
endliches Gesichtsfeld, so dass sie bei realen Schimpansengrupen
recht wahrscheinlich einzelne Tiere nicht erfassen werden.
Bei den Tagesnestern werden eher Tiere übersehen, weil einige sich gar
keine Tagesnester bauen, etwa, weil sie gar kein Nickerchen
halten. Und außerdem sind diese Nester häufig so locker gezimmert,
dass Menschen sie übersehen. Das kann aber durchaus auch zu einer
Überschätzung der mittleren Gruppengröße führen, weil kleinere
Tageslager gar nicht auffallen; ähnlich würde es sich auswirken, wenn
sich ein Tier zwei oder gar mehr Tagesnester baut.
Bei Nachtnestern könnte die Gruppengröße überschätzt werden, weil sich
vielleicht mehrere Gruppen zur Übernachtung zusammentun (was dann den
Übergang von systematischen Fehlern in interessante Ergebnisse
markiert). Demgegenüber dürften die Probleme mit übersehenen kleinen
Nachtlagern wie auch mit übersehenen Nestern bei Nachtnestern weniger
ins Gewicht fallen als bei Tagnestern, einfach weil sie viel
aufwändiger gebaut sind.
Nun reichen die Daten von van Leeuwen et al nicht, diese Systematiken
ordentlich zu quantifizieren, zumal sie sehr wahrscheinlich auch von
allerlei Umweltbedingungen abhängig sind – im Paper geht es in der
Hinsicht vor allem um die Verfügbarkeit von Obst (mit der die
Gruppengröße wachsen könnte, weil mehr Tiere gleichzeitig essen können,
ohne sich in die Quere zu kommen) und um die Anwesenheit
fortpflanzungsbereiter Schimpansinnen.
Dass systematische Fehler sehr wohl qualitative Ergebnisse ändern
können, zeigt die Studie schön. So werden Gruppen laut
Fotofallenmethode größer, wenn sie fortpflanzungsbereite Frauen
umfassen; dieses Ergebnis verschwindet aber, wenn die Gruppengrößen durch
direkte Beobachtungen geschätzt werden. Durch Nestzählung ist zu dieser
Frage keine Aussage möglich, weil jedenfalls ohne viel Kletterei nicht
herauszubekommen ist, wie es mit Geschlecht und Zykluslage der
NestbauerInnen ausgesehen haben mag.
Und auch wenn die Arbeit nicht auseinanderhalten kann, wie weit die
größeren Gruppen, die sich bei Betrachtung der Nachtnester ergeben,
Folge systematischer Fehler bei der Erfassung sind oder durch das
Verhalten der Tiere verursacht werden: Klar ist jedenfalls, dass mensch
bis auf Weiteres lieber keine Schlüsse von Nachtzählungen aufs
Tagesverhalten zieht.
Ob diese Krähe überlegt, wie sie das Schwein lenken kann?
Und wenn sie rauskriegt, wie das geht, könnte sie es ihren Kindern
sagen? (Das ist übrigens im Käfertaler Wildpark)
Auf meinem Mal-genauer-ansehen-Stapel lag schon seit der
Forschung aktuell-Sendung vom 25. Januar die Geschichte von den
Schimpansen und den Steinen. In aller Kürze: Irgendwo in Guinea leben
zwei Schimpansengruppen (-stämme?), deren eine seit vielen Jahren mit
großer Selbstverständlichkeit Nüsse mit Steinen knackt, deren andere
aber das noch nicht mal tut, wenn mensch ihnen Steine und Nüsse frei
Haus liefert. Der Clou: die beiden Gruppen wohnen nur ein paar
Kilometer voneinander entfernt.
Ich fand diese Geschichte sehr bemerkenswert, und zwar einerseits, weil
ich Schimpansen grundsätzlich für kreativ genug gehalten hätte, um bei
so viel Nachhilfe schnell selbst aufs Nüsseknacken zu kommen. Krähen
zum Beispiel – jedenfalls die im Handschuhsheimer Feld – werfen Nüsse aus
großer Höhe auf Teerstraßen, nicht aber auf normale Erde. Na gut, das
mag auch soziales Lernen gewesen sein, aber ich will eigentlich schon
glauben, dass so eine Krähe da auch selbst draufkommt. Und a propos
„sozial“: Wer Möwen kennt, wird wohl wie ich sicher sein, dass deren
Muschelknacktechniken, wenn überhaupt, nur durch antisoziales Lernen
vermittelt werden könnten.
Wenn jedoch die Schimpansen zu vernagelt sein sollten, um rasch selbst
auf die Nutzung eines Steins zum Nüsseknacken zu kommen, finde ich es
andererseits fast unglaublich, dass Gruppen, die nur ein paar
Kilometer voneinander entfernt leben, so wenig Austausch haben, dass sich
so eine Kultur innerhalb von Jahrzehnten nicht sozusagen intertribal
verbreitet. Es gehen doch immer wieder einzelne Tiere auf Wanderschaft,
oder nicht?
Ein Gedanke, der mich beim Hören ein wenig beschäftigt hat, war: Was,
wenn das nicht ganz ordinäre Dummheit ist, sondern dessen verschärfte
Form, nämlich Patriotismus? In seinem Buch „Collapse – how societies
choose to fail or succeed“ (gibts in der Imperial Library) spekuliert
Jared Diamond, die mittelalterliche Wikingerkultur auf Grönland sei
untergegangen, weil ihre Mitglieder darauf bestanden haben, wie „in der
Heimat“, also von Getreide und Viehzucht, zu leben und nicht, wie die
Inuit, die sie garantiert beobachtet haben werden, von Fisch. Das
Bauernmodell habe die gegen Ende des mittelalterlichen Klimaoptimums
sinkende Temperatur einfach nicht mitgemacht.
That [the Greenland Norse] did not hunt the ringed seals, fish, and
whales which they must have seen the Inuit hunting was their own
decision. The Norse starved in the presence of abundant unutilized
food resources. Why did they make that decision, which from our
perspective of hindsight seems suicidal?
Actually, from the perspective of their own observations, values, and
previous experience, Norse decision-making was no more suicidal than
is ours today.
Schon, weil dieser Artikel mit Wissenschaft getaggt ist, muss ich
anmerken, dass Diamonds Argumente vielleicht nicht immer die
stichhaltigsten sind und auch die Sache mit der Kälte zwar naheliegend,
aber nicht alternativlos ist (vgl. Wissenschaft im Brennpunkt vom
14.11.2019) und wenigstens nach Zhao et al (2022),
doi:10.1126/sciadv.abm4346, wegen Nicht-kälter-werden inzwischen
regelrecht unplausibel wird. Und doch: Dass Kulturen Dinge aus völlig
albernen Gründen tun (ich sage mal: Autos fahren und, schlimmer noch,
parken) und noch mehr nicht tun (ich sage mal: Alltagsradeln), ist
wahrlich nichts Neues. Was also, wenn sich die nichtknackenden Affen
die Nüsse quasi vom Mund absparen, um nur sich nur ja nicht gemein zu
machen mit den knackenden Affen von nebenan? Ich würde das Experiment
ja gerne mal mit anderen, weiter entfernten Gruppen probieren.
Mit solchen Gedanken habe ich die Webseite der im DLF-Beitrag zitierten
Kathelijne Koops von der Uni Zürich besucht. Ein Paper zur
Nussgeschichte habe ich nicht gefunden – basierte der Beitrag im Januar
auf einem Preprint? einer Pressemitteilung der Uni Zürich? –, aber
dafür jede Menge anderer Papers, die es direkt in meinen
Mal-genauer-ansehen-Stapel schaffen: „Quantifying gaze conspicuousness:
Are humans distinct from chimpanzees and bonobos?“, „Chimpanzee termite
fishing etiquette“ oder, im Hinblick auf meinen Dauerbrenner „Was taugen
diese Zahlen eigentlich?“ besonders reizvoll: „How to measure chimpanzee
party size?“. Ich bin ganz hingerissen.
Bandwürmer im großartigen Naturhistorischen Museum in Wien: Den
besonders lange in der Mitte soll sich der Arzt wohl so zur k.u.k.Zeit
selbst gezogen haben. Auch „bei uns“ hatten also selbst wohlhabende
Menschen noch vor recht kurzer Zeit beeindruckende Würmer.
In den DLF-Wissenschaftsmeldungen vom 15. Februar ging es ab Sekunde
50 um römische Archäologie mit Bandwürmern. Ich gestehe ja einen
gewissen Römerfimmel ein, und ich fand zudem die Passage
In römerzeitlichen Fundstätten auf Sizilien wurden mehrfach konische
Tongefäße ausgegraben. Bisherigen Interpretationen zufolge wurden
darin Lebensmittel gelagert.
vielversprechend im Hinblick auf mein Projekt interessanter
Selbstkorrekturen von Wissenschaft, denn die neuen Erkenntnisse zeigen
recht deutlich, dass zumindest eines dieser Gefäße in Wahrheit als
Nachttopf genutzt wurde. Und deshalb habe ich mir die Arbeit besorgt,
auf der die Kurzmeldung basiert.
Es handelt sich dabei um „Using parasite analysis to identify ancient
chamber pots: An example of the fifth century CE from Gerace, Sicily,
Italy“ der Archäologin Sophie Rabinow (Cambridge, UK) und ihrer
KollegInnen (DOI 10.1016/j.jasrep.2022.103349), erschienen leider im
Elsevier-Journal of Archeological Science. Ich linke nicht gerne auf
die, zumal der Artikel auch nicht open access ist, aber leider gibts das
Paper derzeit nicht bei der Libgen.
Publikationsethische Erwägungen beiseite: Diese Leute haben einen der
erwähnten „konischen Tongefäße” aus einer spätrömischen Ruine im
sizilianischen Enna hergenommen und den „sehr harten, weißlichen
Rückstand von schuppigem Kalk“ („very hard whitish lime-scale deposit“)
am Boden des Gefäßes untersucht. Vor allem anderen: Ich hätte
wirklich nicht damit gerechnet, dass, was in einem lange genutzten
Nachttopf zurückbleibt, schließlich diese Konsistenz bekommt.
Nie wieder Sandalenfilme ohne Wurmgedanken
Aber so ist es wohl, denn nachdem die Leute das Zeug in Salzsäure
aufgelöst und gereinigt hatten, waren durch schlichte Lichtmikroskopie
(mein Kompliment an die AutorInnen, dass sie der Versuchung widerstanden
haben, coole und drittmittelträchtige DNA-Analysen zu machen)
haufenweise Eier von Peitschenwürmern zu sehen – und das halte auch ich
für ein starkes Zeichen, dass reichlich menschlicher Kot in diesem Pott
gewesen sein dürfte. Auch wenn, wie die AutorInnen einräumen, keine
Kontrollprobe der umgebenden Erde zur Verfügung stand, ist es nicht
plausibel, wie Eier in dieser Menge durch nachträgliche Kontamination in
den „harten, weißen Rückstand“ kommen sollten.
Römer hatten – das war schon vor dieser Arbeit klar – nicht zu knapp
Würmer. Alles andere wäre trotz der relativ ordentlichen Kanalisation
in größeren römischen Siedlungen höchst erstaunlich, da auch in
unserer modernen Welt die (arme) Hälfte der Menschheit Würmer hat (vgl.
z.B. Stepek et al 2006, DOI 10.1111/j.1365-2613.2006.00495.x).
Dennoch guckt sich so ein zünftiger Sandalenfilm (sagen wir, der immer
noch hinreißende Ben Hur) ganz anders an, wenn mensch sich klar
macht, dass die feschen Soldaten und fetten Senatoren alle des öfteren
mal Würmer hatten. Und auch Caesars Gallischer Krieg oder Mark Aurels
Selbstbetrachtungen erhalten, finde ich, eine zusätzliche Tiefe, wenn
mensch sich vorstellt, dass in den Gedärmen jener, die da
Kriegspropaganda oder stoische Philosophie betrieben, parasitische
Würmer mitaßen.
Forschungsprojekt: Wurmbefall in Köln vor und nach 260
Nun schätzen Rabinow et al allerdings, dass ihre Rückstände wohl in der
Mitte des fünften Jahrhunderts entstanden. Damals hatte die römische
Zivilisation und damit auch ihre Kanalisation wahrscheinlich auch in
Sizilien schon etwas gelitten. Die Kölner Eifelwasserleitung etwa –
die eingestandenermaßen technisch besonders anspruchsvoll war und in
einem besonders unruhigen Teil des Imperiums lag – haben „Germanen“
schon im Jahr 260 zerstört, und sie wurde danach nicht mehr in Betrieb
genommen, obwohl Köln bis weit ins 5. Jahrhundert hinein eine römische
Verwaltung hatte.
Ich persönlich wäre überzeugt, dass, wer mit der Rabinow-Methode an
entsprechend datierbare Überreste heranginge, mit dem Jahr 260 eine
sprunghafte Erhöhung der Verwurmung in Köln feststellen würde.
Insofern: Vielleicht hatten Caesar und Mark Aurel, zu deren Zeiten der
römlische Wasserbau noch blühte, ja doch nicht viel mehr Würmer als wir
im kanalisierten Westen?
Ach so: Das mit dem Irrtum – „nee, die Teile hatten sie für Essen“ – war
so wild in Wirklichkeit nicht. Wie üblich in der Wissenschaft waren
die Antworten auch vorher nicht so klar. Rabinow et al schreiben:
A recent study of material at the town of Viminacium in Serbia, where
over 350 identically deep-shaped vessels are known, was able to
confirm at least 3 potential uses: storage for cereals or water,
burial urns, and chamber pots […]. Chamber pots clearly were also
sometimes put to secondary use, for example as a container for
builder’s lime […], while vessels initially destined for other
purposes may have been turned into chamber pots.
Nun, dann und wann kommen sogar Wissenschaft und „gesunder“
Menschenverstand zu recht vergleichbaren Ergebnissen.
„Reimers' Diagramm“: Für 400 Jahre der einzige Hinweis darauf, wie Jost
Bürgi wohl seine Sinustabelle berechnet hat. Nicht mal Kepler hat das
Rätsel lösen können.
Ein Geheimnis, das im antiken Griechenland ein wenig angekratzt wurde,
über das dann Gelehrte in Indien und Arabien nachgedacht haben, für das
in der zweiten Hälfte des 16. Jahrhunderts ein wandernder Schweizer
Uhrmacher eine genial einfache Lösung fand, von der aber die Nachwelt
nur ein paar kryptische Referenzen hat, bis ein unerschrockener
Wissenschaftler in den Tiefen längst vergessener Bibliotheken ein
Manuskript entdeckt, das des Rätsels Lösung enthält: Es gibt
Geschichten, die klingen nach einem Roman von Umberto Eco (oder, je nach
Temperament und/oder Geschmack, Dan Brown) und sind doch wahr.
Auf die Geschichte von Jost Bürgis Sinusberechnung bin ich über die
DLF-Sternzeit vom 27.2.2022 gekommen, und sie geht ungefähr so:
Nachdem Hipparchos von Nicäa so um die 150 vdcE[1] nicht nur
den ersten brauchbaren Sternkatalog vorgelegt, sondern auch die ersten
ordentlichen Rezepte angegeben hatte, wie mensch für jede Menge Winkel
den zugehörigen Sinus[2] ausrechnet, gab es zur Berechnung
trigonometrischer Funktionen sehr lange nicht viel Neues.
Klar, der große Ptolomaios, genau, der mit dem Weltbild, hat Hipparchos'
Methode zur Berechnung des Sinus über regelmäßige Vielecke kanonisiert.
In Indien gab es einige Fortschritte – etwa den Übergang von der Sehne
zum Sinus –, in Arabien wurden verschiedene Ergebnisse zusammengetragen
und systematisiert, aber immer war es eine mühsame, geometrisch
insprierte, endlose Rechnerei.
Und dann kommen wir in die frühe Neuzeit in Europa, genauer die zweite
Hälfte des 16. Jahrhunderts. Kopernikus hat noch einmal ganz klassisch
den Sinus mit Vielecken berechnet, während er die Konflikte zwischen
Ptolomaios und der Realität untersuchte. In Italien macht sich
allmählich Galileo bereit, die Physik als experimentelle
Naturwissenschaft zu etablieren. Und in Kassel, beim
wissenschaftsbegeisterten hessischen Landgraf Wilhelm IV, sammeln
sich ein paar Mathe- und Astro-Nerds, die beim ebenso berühmten wie
fiesenTycho gelernt haben, unter ihnen Nicolaus Reimers, der das
kryptische Bild über diesem Post veröffentlicht hat, vermutlich, weil er
versprochen hatte, nicht mehr zu verraten.
Bürgis geniale Methode
Es weist auf ein Verfahren zur Berechnung von Werten der Sinusfunktion
hin, das nichts mehr mit den umschriebenen Polygonen des Hipparchos zu
tun hat. Sein Erfinder, der Toggenburger Uhrmacher-Astronom-Erfinder
Jost Bürgi, hatte zu dieser Zeit ein großes Tabellenwerk vorgelegt,
mit dem mensch auch ohne Taschenrechner rausbekommen konnte, wie viel wohl
sin(27∘ 32’ 16’’) sei[3]. Offensichtlich
funktionierte die Methode. Doch hat Bürgi – Autodidakt und vielleicht
etwas verschroben – die Methode nie richtig veröffentlicht, und so
brüteten MathematikerInnen, unter ihnen wie gesagt Johannes Kepler, der
immerhin die Sache mit den Ellipsenbahnen im Planetensystem rausbekommen
hat, lang über der eigenartigen Grafik. Und kamen und kamen nicht
weiter.
Das war der Stand der Dinge bis ungefähr 2014, als der (emeritierte)
Münchner Wissenschaftshistoriker Menso Folkerts im Regal IV Qu. 38ª
der Universitätsbibliothek in Wrocław auf eine lange übersehene
gebundene Handschrift stieß. Ein wenig konnte er ihre Geschichte
nachvollziehen: Jost Bürgi persönlich hatte das Werk Kaiser Rudolf II
– dem Mäzen von Tycho und Kepler – am 22. Juli 1592 (gregorianisch) in
Prag übergeben, was ihm eine Zuwendung von 3000 Talern eingebracht hat.
Ich habe leider nicht die Spur eines Gefühls, wie sich der Betrag mit
modernen Drittmittelanträgen vergleicht. Die Form des Antrags
jedenfalls ist aus heutiger Sicht als unkonventionell einzustufen.
Das Werk fand seinen Weg in das Augustinerkloster im unterschlesischen
Sagan (heute Żagań). Wie es dort hinkam, ist nicht überliefert, aber
mensch mag durchaus eine Verbindung sehen zu Keplers Aufenthalt in Sagan
in den Jahren von 1628 bis 1630. Vielleicht hat er das Buch ja nach
seinen Diensten in Prag mitgenommen, auf seinen verschiedenen
Wanderungen mitgenommen und schließlich selbst im Kloster gelassen?
Aber warum hätte er dann über Bürgis Methode gerätselt?
Wie auch immer: Im Gefolge des Reichsdeputationshauptschlusses wurde das
Kloster 1810 aufgelöst – ich stelle mir das ein wenig vor wie in Poes
„Die Grube und das Pendel“ –, und der Bestand der Bibliothek fiel an die
Universität Breslau, die wiederum nach dem zweiten Weltkrieg zur
polnischen Uni Wrocław wurde.
In diesem geschichtsträchtigen Manuskript erklärt Bürgi seinen
Algorithmus. Dargestellt ist das in der Abhandlung von Folkerts et al
(arXiv:1510.03180), in der sich auf den Seiten 11 und 12 auch die
Auflösung für Reimers' Rätsel findet. Etwas schöner beschreibt das
Verfahren Denis Roegel in seinem Aufsatz Jost Bürgi's skillful
computation of sines. Dort wird auch Bürgis mutmaßliche
Grundeinsicht besser erläutert, nach der der Sinus einfach das Ding ist, das,
modern gesprochen, nach zweifacher Ableitung sich selbst (mal minus
eins) ergibt. Das ist der mathematische Hintergrund dafür, dass
folgendes Stück Python tatsächlich relativ schnell zu einer Tabelle
der Sinuswerte von n im ersten Quadranten gleichverteilten
Winkeln konvergiert:
tot_sines = list(range(n+1))
for iter_index in range(n_iter):
intermediates = [tot_sines[-1]//2]
for tot in reversed(tot_sines[1:-1]):
intermediates.append(intermediates[-1]+tot)
tot_sines = [0]
for diff in reversed(intermediates):
tot_sines.append(tot_sines[-1]+diff)
return dict((k*math.pi/2/n, v/tot_sines[-1])
for k, v in enumerate(tot_sines))
– es ist, glaube ich, unmöglich, zu verstehen, was hier passiert (und
warum), ohne den Roegel oder zumindest den Folkerts gelesen zu haben.
Aber ich könnte andächtig werden angesichts so simpler Manipulationen,
die so schnell zu richtig vielen Stellen einer transzendenten Funktion
wie des Sinus führen.
Ein numerischer Traum
Wie schnell das mit den vielen Stellen bei Bürgis Algorithmus geht,
zeigt folgende Grafik:
Hier läuft horizontal der Winkel – und der Algorithmus funktioniert
wirklich nur, wenn das einen rechten Winkel einschließt –, vertikal die
Iterationen von Bürgis Algorithmus. Die Farben entsprechen dem
dekadischen Logarithmus der Abweichung der Bürgi-Ergebnisse von dem, was
die Python-Standardbibliothek gibt, im Groben also die Zahl der Stellen,
die der Algorithmus richtig hinbekommt. Mehr als 18 geht da schon mal
nicht, weil die Zahlen von Python in 64-bittigen IEEE-Fließkommazahlen
(„double precision“) kommen, und mehr als 18 Dezimalstellen sind da
nicht drin (in der Grafik steckt die Zusatzannahme, dass wir von Zahlen
in der Größenordnung von eins sprechen).
Mithin gewinnt der Algorithmus pro Iteration ungefähr eine
Dezimalstelle, und das gleichmäßig über den ganzen Quadranten.
DemoprogrammiererInnen: billiger kommt ihr, glaube ich, nicht an eine
beliebig präzise Sinustabelle ran.
Spannend fand ich noch die kleinen dunkelblauen Klötzchen ganz unten in
der Grafik: Hier werden sich Bürgi und Python offenbar auf Dauer nicht
einig. So, wie ich das geschrieben habe, würde ich fast eher Bürgi
vertrauen, denn bei den Ganzzahlen, die da verwendet werden, kann
eigentlich nichts schief gehen. Andererseits sind Fließkommazahlen eine
heikle Angelegenheit, insbesondere, wenn es ums letzte Bit geht. Um
mich zu überzeugen, dass es nur um genau jenes unheimliche letzte Bit
geht, habe ich mir geschwind eine Funktion geschrieben, die die
Fließkommazahlen vinär ausgibt, und der Code gefällt mir so gut, dass
ich sie hier kurz zeigen will:
import struct
_BYTE_LUT = dict((v, "{:08b}".format(v)) for v in range(256))
def float_to_bits(val):
return "".join(_BYTE_LUT[v] for v in struct.pack(">d", val))
Mit anderen Worten lasse ich mir geschwind ausrechnen, wie jedes Byte in
binär aussehen soll (_BYTE_LUT), wobei die Python-Bibliothek mit dem
08b-Format die eigentliche Arbeit macht, und dann lasse ich mir die
Bytes der Fließkommazahl vom struct-Modul ausrechnen. Der einzige Trick
ist, dass ich das Big-end-first bestellen muss, also mit dem
signfikantesten Byte am „linken“ Ende. Tue ich das nicht, ist z.B. auf
Intel-Geräten alles durcheinander, weil die Bits in der konventionellen
Schreibweise daherkommen, die Bytes aber (wie bei Intel üblich)
umgedreht, was ein furchtbares Durcheinander gibt.
Jedenfalls: Tatsächlich unterscheiden sich die Werte schon nach 20
Iterationen nur noch im letzten bit, was für 45 Grad alias π/4 z.B. so
aussieht:
Ich lege mich jetzt mal nicht fest, was das „bessere“ Ergebnis ist; ich
hatte kurz überlegt, ob ich z.B. mit gmpy2 einfach noch ein paar
Stellen mehr ausrechnen sollte und sehen, welches Ergebnis näher dran
ist, aber dann hat mich meine abergläubische Scheu vor dem letzten Bit
von Fließkommazahlen davon abgehalten.
Wer selbst spielen will: Meine Implementation des Bürgi-Algorithmus, der
Code zur Erzeugung der Grafik und die Bitvergleicherei sind alle
enthalten in buergi.py.
Das vdcE bringe ich hiermit als Übertragung von BCE, before
the Christian era, in Gebrauch. Und zwar, weil v.Chr völlig albern
ist (es ist ja nicht mal klar, ob es irgendeine konkrete Figur
„Christus“ eigentlich gab; wenn, ist sie jedenfalls ganz sicher nicht
zur aktuellen Epoche – also dem 1. Januar 1 – geboren) und „vor
unserer Zeitrechnung“ ist auch Quatsch, denn natürlich geht
Zeitrechnung (wenn auch mangels Jahr 0 etwas mühsam) auch vor der
Epoche. „Vor der christlichen Epoche“ hingegen bringt ganz schön auf
den Punkt, was das ist, denn die „Epoche“ ist in der Zeitrechnung
einfach deren Nullpunkt (oder halt, vergurkt wie das alles ist, hier
der Einspunkt).
Na ja, in Wirklichkeit hat er mit der Länge der Sehne
gerechnet, die ein Winkel in einem Kreis aufspannt, aber das ist im
Wesentlichen das Gleiche wie der Sinus, der ja gerade der Hälfte
dieser Sehne entspricht.
Diese Biene würde vielleicht schon zwischen den Staubbeuteln
rumrüsseln, wenn die Blume sich nur etwas mehr Mühe beim Würzen
gegeben hätte.
In Marc-Uwe Klings Qualityland (helle Ausgabe in der Imperial Library)
gibt es das großartige Konzept der FeSaZus, eines Nahrungsmittels, das zu
je einem Drittel aus Fett, Salz und Zucker besteht und zumindest für das
Proletariat von Qualityland in einigen – nicht zu vielen! –
Darreichungsformen (FeSaZus im Cornflakesmantel, Muffins mit
FeSaZu-Füllung, Schmalz-FeSaZus mit Speckgeschmack) eine wichtige
Ernährungsgrundlage darstellt.
Via den Wissenschaftsmeldungen vom 3.2.2022 in DLF Forschung aktuell
bin ich nun auf den Artikel „Sodium-enriched floral nectar increases
pollinator visitation rate and diversity“ von Carrie Finkelstein und
KollegInnen (Biology Letters 18 (3), 2022, DOI
10.1098/rsbl.2022.0016) gestoßen, der recht überzeugend belegt, dass
Insekten im Schnitt einen Geschmack haben, der sich vom Qualityländer
Durchschnittsgeschmack gar nicht so arg unterscheidet.
Finkelstein et al haben an der Uni von Vermont mindestens je zwölf
Exemplare von fünf örtlich üblichen Blumenarten blühen lassen. Je
Experiment (und davon gab es einige) haben sie sich pro Art sechs
Individuen ausgesucht und mit Kunstnektar versehen. Bei dreien war das
einfach eine 35%-ige Zuckerlösung, bei den anderen drei kam dazu noch 1%
Kochsalz. In Wasser aufgelöst ist 1% Salz schon ziemlich schmeckbar.
Ich habe darauf verzichtet, im Selbstversuch zu überprüfen, ob 1% Salz
in so konzentriertem Sirup menschlichen Zungen überhaupt auffällt.
Und dann haben sie gewartet, bis bestäubende Insekten kamen und diese
gezählt. Das zentrale (und jedenfalls von außen betrachtet trotz etwas
Voodoo bei der Auswertung auch robuste) Ergebnis: An den Pflanzen, die
Salz anboten, waren doppelt so viele Insekten – am stärksten vertreten
übrigens allerlei Sorten von Bienen – wie an denen, die das nicht taten,
und zwar ziemlich egal, um welche Blume es nun gerade ging. Mit anderen
Worten: Insekten sind nicht wild auf faden Nektar.
Allerdings: So ein Faktor zwei in der Präferenz ist gar nicht so viel.
Zwischen den BesucherInnenzahlen bei Schafgarbe (laut Paper 54.1 ± 6.3)
und dem blutroten Storchschnabel (16.6 ± 3.5) liegt eher ein Faktor
drei. Dennoch ist recht deutlich, dass die Insekten eher wenig
Verständnis haben für Lauterbachs salzarme Ernährung. Dabei will ich
nicht argumentieren, dass ein Durchschnittsmensch auf Dauer 150 mg
Salz pro Kilogramm Körpergewicht und Tag essen könnte, ohne schließlich
mit Hypertonie und Nierenversagen kämpfen zu müssen. Aber 10 oder 15
Gramm Salz am Tag kriegt mensch, wie Samin Nosrat in ihrem wunderbaren
Kochbuch Salt, Fat, Acid, Heat (auch in der Imperial Library)
ausführt, durch selbstsalzen oder auch den Salzgebrauch in
selbstkochender Gastronomie, kaum hin[1]; salzarms Kochen und
fades Essen mag mithin positive gesundheitliche Folgen haben, aber
vermutlich kaum mehr als etwa der Einsatz von Himalayasalz, Voodoopuppen
oder anderen potenten Placebos.
Erfreulich fand ich im Paper noch die Aussage „All analyses were
performed in R (v. 4.0.2)“ – dass auch in weniger technologieaffinen
Wissenschaftsbereichen proprietäre Software (in diesem Fall ganz
vornedran SAS und SPSS) auf dem Weg nach draußen ist, halte ich für eine
ausgezeichnete Nachricht.
Weniger schön fand ich das Bekenntnis, dass es in Anwesenheit von
BiologInnen ganz offenbar gefährlich ist, einer unüblichen Spezies
anzugehören:
If we were unable to identify a floral visitor in the field, we
collected it and stored it in 75% ethanol.
Arme kleine Fliegen und arme VertreterInnen ungewöhnlicher Bienenarten.
Wären sie stinknormale Honigbienen gewesen, hätten sie ihren Ausflug zu
den verlockenden Blüten mit dem fein gesalzenen Nektar überlebt.
Nosrat argumentiert in ihrem Buch für mich zumindest plausibel
(und durch meine eigene Kochpraxis bestätigt), dass Lauterbauchs Kritik
am „Salzgeschmack“ zumeist am Thema vorbeigeht – in aller Regel
vermittelt Kochsalz etwa durch Kontrolle von Osmolaritäten ziemlich
nichttriviale Prozesse beim Garen und Verarbeiten von Lebensmitteln,
und diese sind für den Geschmack der fertigen Speisen viel wichtiger
als das Salz selbst. Aber das ist dann wirklich eine andere Geschichte.
Zu den unerfreulicheren Begleiterscheinungen der Coronapandemie gehörte
die vielstimmige und lautstarke Forderung nach „mehr Daten“, selbst aus
Kreisen, die es eigentlich besser wissen[1]. Wie und warum diese
Forderung gleich mehrfach falsch ist, illustriert schön ein Graph, der
seit ein paar Wochen im RKI-Wochenbericht auftaucht:
Dargestellt sind die Zahlen von „im Zusammenhang mit“ SARS-2 in
deutsche Krankenhäuser aufgenommenen PatientInnen. Die orange Kurve
entspricht dabei den „Big Data“-Zahlen aus der versuchten Totalerfassung
– d.h., Krankenhäuser melden einfach, wie viele Menschen bei der
Aufnahme SARS-2-positiv waren (oder vielleicht auch etwas anderes, wenn
sie das anders verstanden haben oder es nicht hinkriegen). Die blaue
Kurve hingegen kommt aus der ICOSARI-Surveillance, also aus
spezifischen Meldungen über Behandlungen akuter Atemwegsinfektionen aus
71 Kliniken, die für Meldung und Diagnose qualifiziert wurden.
Wären beide Systeme perfekt, müssten die Kurven im Rahmen der jeweiligen
Fehlerbalken (die das RKI leider nicht mitliefert; natürlich zählt
keines von beiden ganz genau) übereinanderlaufen. Es ist
offensichtlich, dass dies gerade dann nicht der Fall ist, wenn es darauf
ankommt, nämlich während der Ausbrüche.
Eher noch schlimmer ist, dass die Abweichungen systematisch sind – die
Entsprechung zu halbwegs vertrauten Messungen wäre, wenn mensch mit
einem Meterstab messen würde, dessen Länge eben nicht ein Meter ist,
sondern vielleicht 1.50 m. Nochmal schlimmer: seine Länge ändert sich
im Laufe der Zeit, und auch abhängig davon, ob mensch Häuser oder
Giraffen vermisst. Wäre der Meterstab wenigstens konstant falsch lang,
könnte mensch die Messergebnisse im Nachhinein jedenfalls in gewissem
Umfang reparieren („die Systematik entfernen“). Bei der
Hospitalisierung jedoch wird keine plausible Methode die Kurven zur
Deckung bringen.
Das RKI schreibt dazu:
Im Vergleich zum Meldesystem wurden hierbei in den Hochinzidenzphasen
- wie der zweiten, dritten und vierten COVID-19-Welle - höhere Werte
ermittelt. In der aktuellen fünften Welle übersteigt die
Hospitalisierungsinzidenz der Meldedaten die COVID-
SARI-Hospitalisierungsinzidenz, weil zunehmend auch Fälle an das RKI
übermittelt werden, bei denen die SARS-CoV-2-Infektionen nicht
ursächlich für die Krankenhauseinweisung ist.
Die Frage ist nun: Welche Kurve „stimmt“, gibt also das bessere Bild der
tatsächlichen Gefährdungssituation für das Gesundheitssystem und die
Bevölkerung?
Meine feste Überzeugung ist, dass die blaue Kurve weit besser
geeignet ist für diese Zwecke, und zwar weil es beim Messen und Schätzen
keinen Ersatz für Erfahrung, Sachkenntnis und Motivation gibt. In der
Vollerfassung stecken jede Menge Unwägbarkeiten. Um ein paar zu nennen:
Wie gut sind die Eingangstests?
Wie konsequent werden sie durchgeführt?
Wie viele Testergebnisse gehen in der Hektik des Notfallbetriebs
verloren?
Wie viele Fehlbedienungen der Erfassungssysteme gibt es?
Haben die Zuständigen vor Ort die Doku gelesen und überhaupt
verstanden, was sie erfassen sollen und was nicht?
Wie viele Doppelmeldungen gibt es, etwa bei Verlegungen – und wie oft
unterbleibt die Meldung ganz, weil das verlegende Krankenhaus meint,
das Zielkrankenhaus würde melden und umgekehrt?
Und ich fange hier noch gar nicht mit Fragen von Sabotage und Ausweichen
an. In diesem speziellen Fall – in dem die Erfassten bei der Aufnahme
normalerweise nicht viel tun können – wird beides vermutlich eher
unwichtig sein. Bei Datensammelprojekten, die mehr Kooperation der
Verdateten erfordern, können die Auswahleffekte hingegen durchaus auch
andere Fehler dominieren.
Erfasst mensch demgegenüber Daten an wenigen Stellen, die sich ihrer
Verantwortung zudem bewusst sind und in denen es jahrelange Erfahrung
mit dem Meldesystem gibt, sind diese Probleme schon von vorneherein
kleiner. Vor allem aber lassen sie sich statistisch untersuchen. Damit
hat ein statistisch wohldefiniertes Sample – anders als Vollerfassungen
in der realen Welt – tendenziell über die Jahre abnehmende Systematiken.
Jedenfalls, solange der Kram nicht alle paar Jahre „regelauncht“ wird,
was in der heutigen Wissenschaftslandschaft eingestandenermaßen
zunehmend Seltenheitswert hat.
Wenn also wieder wer jammert, er/sie brauche mehr Daten und es dabei
um Menschen geht, fragt immer erstmal: Wozu? Und würde es nicht viel
mehr helfen, besser definierte Daten zu haben statt mehr Daten?
Nichts anderes ist die klassische Datenschutzprüfung:
Was ist dein Zweck?
Taugen die Daten, die du haben willst, überhaupt dafür? („Eignung“)
Ginge es nicht auch mit weniger tiefen Eingriffen? („Notwendigkeit“)
Und ist dein Zweck wirklich so großartig, dass er die Eingriffe, die
dann noch übrig bleiben, rechtfertigt? („Angemessenheit“)
Ich muss nach dieser Überlegung einfach mal als steile Thesen
formulieren: Datenschutz macht bessere Wissenschaft.
Nachtrag (2022-05-16)
Ein weiteres schönes Beispiel für die Vergeblichkeit von
Vollerfassungen ergab sich wiederum bei Coronazahlen Mitte Mai 2022.
In dieser Zeit (z.B. RKI-Bericht von heute) sticht der bis dahin
weitgehend unauffällige Rhein-Hunsrück-Kreis mit Inzidenzen um die
2000 heraus, rund das Doppelte gegenüber dem Nächstplatzierten. Ist
dort ein besonders fieser Virusstamm? Gab es große Gottesdienste?
Ein Chortreffen gar? Weit gefehlt. Das Gesundheitsamt hat nur
retrospektiv Fälle aus den vergangenen Monaten aufgearbeitet und ans
RKI gemeldet. Dadurch tauchen all die längst Genesenen jetzt in
der Inzidenz auf – als sie wirklich krank waren, war die Inzidenz zu
niedrig „gemessen“, und jetzt halt zu hoch.
So wurden übrigens schon die ganze Zeit die Inzidenzen berechnet:
Meldungen, nicht Infektionen. Das geht in dieser Kadenz auch nicht
viel anders, denn bei den allermeisten Fällen sind die Infektionsdaten
anfänglich unbekannt (und bei richtig vielen bleibt das auch so).
Wieder wären weniger, aber dafür sorgfältig und kenntnisreich gewonnene
Zahlen (ich sag mal: PCR über Abwässern), hilfreicher gewesen als
vollerfassende Big Data.
Ich bin gerade über einen Artikel in Spektrum der Wissenschaft 11/17
(leider Paywall) an das Paper „Hunter-Gatherer Energetics and Human
Obesity” von Herman Pontzer und KollegInnen geraten (DOI
10.1371/journal.pone.0040503, open access). Darin geht es grob
darum, dass JägerInnen, SammlerInnen und BäuerInnen ungefähr genauso
viel Kohlenstoff verstoffwechseln wie StadtbewohnerInnen, und das,
obwohl sich letztere natürlich deutlich weniger bewegen als die anderen.
Diese Erkenntnis hätte mich jetzt noch nicht sehr begeistert, doch die
folgende Grafik verdient jede Aufmerksamkeit:
Energieaufwand pro Tag für westliche Menschen (grau), bolivianische
BäuerInnen (blau) und afrikanische Jäger/Sammlerinnen (rot),
aufgetragen über eine Art normiertes Körpergewicht. CC-BY Pontzer et
al.
Dieser Plot nimmt – nicht ganz absichtlich – meine Frage zur
thermischen Leistung von Menschen auf. Damals war ich ja aufgrund der
Messungen meines CO₂-Messgeräts im Büro darauf gekommen, dass ich für
ungefähr 16 Watt CO₂ ausatme – das stellt sich, wie erwartet, als
kräftige Unterschätzung heraus. Ich sollte das wirklich mal neu
ausrechen, zumal ich die wirkliche Stoffwechselrate inzwischen auch
besser einschätzen kann, weil mir der CO₂-Verlust durch Fenster, Türen
und Blumen dank vieler Daten für den leeren Raum inzwischen gut
zugänglich sein sollte.
Aber das ist für einen anderen Tag. Heute lese ich aus der Grafik von
Pontzer et al ab, dass ein Mensch wie ich (70 Kilo alles zusammen, davon
vielleicht 20% Fett, also in der Grafik bei log(56) ≈ 1.75
zu suchen) so zwischen 3.3 und 3.6 auf der y-Achse liegt. Nach
Delogarithmierung (also: Zehn hoch) würde ich demnach zwischen 2000 und
4000 Kilokalorien am Tag umsetzen. Mensch ahnt erstens, dass
Fehlerbalken unter Logarithmierung zusammenschrumpfen – dass „3.3 bis
3.6“ in Wahrheit „innerhalb eines Faktors 2“ heißt, mag für
logarithmenferne Bevölkerungsschichten überraschend sein – und zweitens,
dass große Teile der Wissenschaft immer noch Einheiten aus der ersten
Hälfte des letzten Jahrhunderts verwenden. Seit dessen zweiter Hälfte
nämlich kommen Arbeit und Energie bei anständigen Leuten in Joule (einer
Kalorie entsprechen 4.2 davon).
Das führt auf meine Kopfzahlen für heute: Ein Mensch wie ich
leistet etwas zwischen 8000 und 16000 Kilojoule
am Tag. Hier will sich mensch übrigens die Spannbreite ganz definitiv
mitmerken, und zwar als Gegengift zum „Tagesbedarf“, der auf jeder
Lebensmittelverpackung aufgedruckt ist[1].
Unter vielen guten Gründen für die Verwendung des Joule (statt der
Kalorie) steht weit oben die Tatsache, dass mensch gleich auf Leistungen
in Watt kommt (das ist nämlich ein Joule pro Sekunde). Wer im Kopf hat,
dass ein Tag 86400 Sekunden lang ist, erhält meine Leistung
in üblichen Einheiten zwischen den 100 und 200 Watt, zwischen denen ich
im November-Post bedingt durch DuckDuckGo und meine grobe Erinnerung
schwankte.
Bemerkenswert an der Pontzer-Grafik finde ich noch die beiden
Ausgleichsgeraden für westliche Männer (durchgezogen) und Frauen
(gestrichelt). Ich habe ja schon immer große Zweifel an
Gender-Unterschieden in vielen „Normalbereichen“ gehabt, die es für
Tagesbedarfe und allerlei Laborwerte gibt; so war z.B. in meiner
Zivildienstzeit der Normalbereich des Kreatininspiegels für Frauen
eine ganze Ecke höher als für Männer, und ich bin immer noch fest
überzeugt, dass das einen rein sozialen (Frauen trinken im Schnitt
weniger, weil sie es meist deutlich schwerer haben, unbelästigt zu
pinkeln) und keinen vertretbar als biologisch zu bezeichnenden Grund
hat.
Warum nun der Energieumsatz von Frauen steiler mit ihrer Masse wachsen
sollte als bei Männern, warum sie ab einer Masse von vielleicht 75 Kilo
(da würde ich die Mit-Fett-Masse des Schnittpunkts der Geraden sehen)
dann sogar mehr leisten sollten als gleichschwere Männer, das leuchtet
mir nicht ein – wie mir auch nicht einleuchtet, warum leichtere Frauen
praktisch einen Faktor zwei weniger leisten sollten als gleichschwere
Männer. Aber wer die Punktwolken mal qualitativ auf sich wirken lässt,
wird ohnehin Zweifel an den Ausgleichsgeraden entwickeln.
Tja: Mal sehen, wie sich das entwickelt, wenn die Systematiken von
Pontzers Methode zur Bestimmung des Energieumsatzes (Leute trinken einen
Haufen D₂-18O-Wasser, und mensch verfolgt, wie über die
nächsten Tage Deuterium und der 18er-Sauerstoff im Urin runtergehen)
etwas besser verstanden sind.
Pontzer scheint jedenfalls bereit zu sein, irrtümliche Dogmen über Bord
zu werfen. So ist er Mitautor einer Arbeit von Anna Warrener et al (DOI
10.1371/journal.pone.0118903), die seinerzeit (2015) auch breit durch
die Presse ging. Das Paper zerstörte (nach meinem Eindruck als Laie in
dem Feld) die lange quasi konkurrenzlose These, der doch sehr
grenzwertig enge Geburtskanal menschlicher Frauen sei ein
physiologischer Kompromiss, denn ein breiteres Becken würde sie beim
aufrechten Gang behindern. So ein „lass uns das mal nachrechnen, auch
wenn es ganz plausibel klingt“ ist für mich ein recht gutes Zeichen für
ordentliche Wissenschaft besonders dann, wenn die plausible Vermutung
nachher nicht rauskommt.
Wobei der „Tagesbedarf“ bei den „Kalorien“ nochmal besonderer
Mumpitz ist: der „Brennwert“, der dort angegeben ist, ist genau das,
ein Brennwert. Das Futter wird getrocknet und verbrannt, um auf „die
Kalorien“ zu kommen. Am Beispiel von Holz oder Rohöl ist, glaube ich,
gut einsichtig, dass das nur in Ausnahmefällen viel zu tun hat mit
dem, was der menschliche Körper daraus an Bewegung oder Fett machen
könnte. Sprich: Kalorienzählen ist schon von der Datenbasis her
Quatsch.
Da helfen nicht mal mehr Ameisenarmeen: Ein Faultier in einem
Cecropia-Baum. Von hier unter GFDL.
In den Wissenschaftsmeldungen der Forschung aktuell-Sendung am
Deutschlandfunk vom 4.1.22 gab es ab Minute 2:50 eine Geschichte einer
doch sehr überraschenden Symbiose: Ameisen, so heißt es da, verbinden
verletzte Bäume. Nun würde mich so ein Verhalten nicht völlig vom
Hocker hauen – ich bin ja ein Feind der Soziobiologie und
halte das „egoistische Gen“ für einen methodischen Fehler –, aber
Krankenpflege ist schon innerhalb einer Spezies bemerkenswert (gibts
bei Ameisen). Geht sie gar über Speziesgrenzen hinaus, weckt das schon
meine Neugier. Darum habe ich mir das zugrundeliegende Paper
rausgesucht: „Azteca ants repair damage to their Cecropia host plants“
aus dem Journal of Hymenoptera Research, Band 88,
doi:10.3897/jhr.88.75855.
Das erste, was auffällt, ist die Autorenliste: geschrieben haben das
Ding Alex Wcislo, Xavier Graham, Stan Stevens, Johannes Ehoulé Toppe,
Lucas Wcislo, und William T. Wcislo. Das sind einen Haufen Wcislos,
und die Erklärung findet mensch in den Affiliations. William T. ist vom
Tropeninstitut der Smithsonian Institution, alle anderen Autoren kommen
von der International School of Panama – wo ein Forscher-Expat seine
Kinder wohl hinschicken wird – beziehungsweise von der Metropolitan
School in Panama.
In diesem Licht bekommt die Eröffnung des Artikels einen ganz eigenen
Charme, der in dem DLF-Kurzbeitrag ganz und gar fehlt (da war nur die
übliche Rede von „den Forschenden“):
One of us (AW) used a sling shot to shoot a clay ball (9 mm diameter)
at high velocity through an upper internode of a large Cecropia tree,
making clean entry and exit wounds. Within 24 hours both holes were
nearly sealed. This anecdotal observation...
Also: Da hat der kleine Nick^W^W der Sohn des Smithsonian-Biologen mit
einer Zwille oder Steinschleuder rumgeballert und hat es geschafft, ein
Loch durch ein Internodium, also so eine Art Zweig, zu schlagen; nun,
tropische Bäume sind oft relativ weich. Der Lausejunge war aber
Professorenkind genug, um genauer hinzuschauen und festzustellen, dass
Ameisen am Loch rumlaufen und es offenbar zunähen.
Daraufhin haben er, seine Freunde und sein Vater ein richtiges Programm
aufgelegt, um aus der Anekdote etwas wie Wissenschaft zu machen. Sie
haben dazu systematisch Löcher in rund zwanzig Ameisenbäume im Stadtwald
(„opportunistically selected“ schreiben sie) gebohrt, in denen
Aztekenameisen Azteca alfari wohnten. Über deren Symbiose war bisher
vor allem bekannt, dass die Bäume Ameisen schicken, wenn andere Tiere
an ihren Blättern knabbern. Die Ameisen dürfen dafür in den erwähnten
Internodien wohnen (die sind hohl und haben dünne Wände, damit die
Ameisen leicht reinkommen) und bekommen darin sogar lecker Futter (na
ja, im Zweifel Futter für ihre Blattläuse).
Und dann haben die Schülis dokumentiert, was passiert. Das war nicht
immer einfach, wie sie ehrlich berichten:
But ants [also die Ameisen, die an einem Loch arbeiteten] were not
marked so the total size of the repair force is unknown. […]
We greatly thank the Cárdenas police patrols for allowing us to work
safely outdoors during the early days of a pandemic, and tolerating
our activity during severe restrictions on movement.
Sie mussten sich auch auf junge Bäume beschränken, denn die Ameisen
wohnen gerne so weit oben wie möglich und merken dann nicht mehr, was
unten vor sich geht, während die Schülis nicht höher als zwei Meter
kamen: „we selected internodes as high up as we could reach“.
Die resultierende Beobachtung mochte dann schon wieder Material für die
Ethikkommission sein, denn sooo viel anders als bei den ganz
klassischen Begegnungen von Lausbuben und Ameisenhaufen ging es auch
nicht ab, jedenfalls aus Sicht der Ameisen: Diese retteten erstmal
ihre Brut, bevor sie tatsächlich recht oft und überzeugend die
Bohrungen verschlossen. Dieses Gesamtbild aber lässt schon ahnen, dass
sie eher ihren Bau reparierten als ihrem Baum medizinische Hilfe
angedeihen ließen. Dafür spricht auch, dass der Baum im Anschluss ein
eigenes Heilprogramm anwarf und die Wunde komplett mit eigenem Gewebe
auffüllte.
Andererseits: Vielleicht sehen wir hier gerade der Evolution zu, denn es
könnte ja sein, dass Bäume, die Ameisen zu besserer medizinischer
Versorgung anhalten – und das übliche survival of the fittest[1]
würde jetzt dafür sorgen – auch deutlich besser leben als welche, die
einfach nur ganz normale Baumheilung machen?
Was es auch sei: ich war sehr angetan davon, mal ein paar Seiten aus
dem Journal of Hymenoptera Research zu lesen. Dafür, dass es solche
Publikationen gibt, liebe ich die Wissenschaft.
Würdest du diesen Apfel in einem Supermarkt kaufen? Geht nicht mehr.
Ich habe ihn vorhin gegessen. Also: Das, was Wurm und
Balkonlagerung davon übrig gelassen haben. Auf der anderen Seite
dürfte das Ding einen Behandlungsindex um die Null gehabt haben –
siehe unten.
Neulich hat die Parteistiftung der Grünen, die Böll-Stiftung, einen
Pestizidatlas herausgegeben, eine Sammlung von Infografiken und
Karten über den Einsatz von Giften aller Art in der Landwirtschaft. Wie
üblich bei diesen Atlanten, haben sie das dankenswerterweise unter CC-BY
publiziert, und besser noch: Die Sachen sind auch ohne Javascript leicht
zugänglich[1].
Ich hatte mir davon einige Kopfzahlen erhofft, denn ich habe wirklich
kein gutes Gefühl dafür, was so an Giften auf den Feldern (und
Weinbergen!) in meiner Umgebung landet und was das bedeutet. In der
Hinsicht hatte ich kein Glück. Im Atlas gibts zwar haufenweise Zahlen,
aber wirklich überzeugen konnten mich nur wenige, oft genug, weil sie
letztlich Metriken ohne Bedeutung sind. Ein gutes Beispiel für diese
Kategorie ist die Masse der Agrochemikalen (verwendet z.B. auf S. 11, S.
15, S. 44), die wohl als Proxy für „Umfang des Gifteinsatzes“ stehen
soll.
Das halte ich für profund fehlerhaft. Neonikotinoide, Glyphosat und DDT
(um mal ein paar Pole aufzumachen) sind in spezifischer Giftigkeit,
Wirkprofilen, Umweltauswirkungen, Kinetik und eigentlich jeder anderen
Hinsicht fast völlig verschieden voneinander. „Eine Tonne Pestizid“
sagt daher so gut wie nichts aus. Obendrauf kommt noch ein kleiner
Faktor Unsicherheit, ob sich die Masse auf Wirkstoffe, fertige
Rezepturen oder irgendwas dazwischen bezieht, aber das wird wohl in
diesem Geschäft kaum mehr als einen kleinen Faktor ausmachen –
verglichen mit dem Grundproblem (in dem wir vermutlich über Faktoren von
einigen tausend sprechen) wohl vernachlässigbar.
Ähnlich schwerwiegende Einwände hätte ich zur breiten Mehrheit der
Zahlen in dem Atlas: Vage beeindruckend, aber immer ein gutes Stück
unterhalb der Schwelle von Wohlfundiertheit und allgemeinen
Anwendbarkeit, die ein paar Ziffern zu einer Orientierung gebenden
Kopfzahl machen könnten.
Es gibt jedoch auch ohne schlagende Zahlen von werkübergreifender
Bedeutung einige Einsichten, die wertvoll sind, so etwa auf S. 33 die
Bankrotterklärung der Idee, durch grüne Gentechnik den Pestizideinsatz
zu reduzieren. In Brasilien, wo transgene Pflanzen die
Landwirschaft vollständig dominieren, sind 2019 47% mehr Pestizide
ausgebracht worden als 2009. Gut: Soja (darauf schaut der Rest der
Grafik, und das wird wohl auch den Pestizidverbrauch dominieren) ist in
diesem Zusammenhang ein schlechtes Beispiel, denn das populäre transgene
Soja („Roundup ready“) ist ja gerade designt, um große Mengen Herbizide
zu überleben. Dazu sind wieder blind Massen angegeben, und die angesichts
galloppierender Rodungen in Brasilien vermutlich rasch wachsende
Anbaufläche wäre eigentlich auch noch einzurechnen, wenn die Zahlen
einen analytischen Blick erlauben wollten.
Aussagekräftiger wären für die behandelte Frage Zahlen für Mais gewesen
(nämlich den mit der Bt-Abwehr gegen den Maiszünsler) und folglich auch
Insektizide beim Mais. Aber seis drum: Die Grafik zeigt auch ohne
methodische Strenge, dass es so nicht weiter gehen kann.
A propos Mais: Dass der mit recht wenig Chemie auskommt, hat mich schon
verblüfft:
Grafik von Seite 14 des Pestizidatlasses. Die Caption im Atlas deutet
an, dass der „Behandlungsindex“ etwas wie die mittlere Anzahl von
Anwendungen von Pflanzenschutzmitteln ist; ob das wirklich so ist: Wer
weiß? CC-BY Pestizidatlas
Dass Wein heftig pflanzengeschützt wird, ist hier in der Gegend
unübersehbar. Bei Hopfen und Äpfeln überrascht es mich aber, denn
hiesige Apfelbäume in Streulagen, um die sich im Wesentlichen niemand
kümmert, liefern durchaus sehr essbare Äpfel; hinreichend viele und
große, um mir den ganzen Winter über die Basis für mein Frühstücksmüsli
zu liefern (das Foto oben zeigt den von heute).
Klar haben fast alle Hautdefekte, und in vielen wohnte auch mal ein Wurm
– aber das tut ihrer Essbarkeit wirklich keinen Abbruch. Aus dieser
Erfahrung heraus hätte ich erwartet, dass schon mit recht moderaten
Interventionen supermarktkompatible Äpfel erreichbar wären. Das
stimmt offenbar so nicht. Die letzten 50% zum makellosen Produkt – und
wahrscheinlich auch die Spalierzucht in Monokultur – scheinen Äpfel von
einer ganz einfachen zu einer ganz heikelen Kultur zu verwandeln.
Meine Lieblingsgrafik ist schließich auf Seite 39:
Eine Kopfzahl gibt auch das nicht her. Als Beleg für das alte
Motto „Wes Brot ich ess, des Lied ich sing“ kann das aber durchaus
durchgehen. Und als Illustration dafür, wie problematisch es ist,
Wissenschaft – wie wir das in unserer Drittmittelkultur nun mal tun –
über Geld zu regulieren.
Na ja, blöderweise ist ohne Javascript so ein doofes
animiertes GIF neben jedem Ding, das runtergeladen werden kann. Tipp
an die WebseitenmacherInnen: Wenn ihr diese Sorte Gimmick schon
braucht, stattet ihn doch wenigstens mit einem display: none im
CSS aus. Per Javascript könnt ihr das display-Attribut dann nach
Bedarf konfigurieren. Nettoeffekt: UAs ohne JS (aber mit elementarem
CSS) sehen keine blinkenden Trümmer.
Abbildung 3 aus dem Paper von Levine et al, auf das ich unten ein
wenig eingehe: das Risiko, an SARS-2 zu sterben, geht ziemlich genau
exponentiell mit dem Alter (die Ordinate ist logarithmisch
aufgeteilt). Diese Beobachtung führt ziemlich direkt zu einem
Kult-Paper aus den wilden Jahres des Internet. CC-BY
doi:10.1007/s10654-020-00698-1.
Als das WWW noch jung war und das Internet jedenfalls nicht alt, im
Dezember 1999 nämlich, haben Chris Gottbrath, Jeremy Bailin, Casey
Meakin, Todd Thompson und J.J. Charfman vom Steward Observatory das
bemerkenswerte Paper „The Effects of Moore's Law and Slacking on Large
Computations“ auf astro-ph, der Astrophyik-Abteilung des
Preprint-Servers arXiv, veröffentlicht. Obwohl das damals nach meiner
Erinnerung hohe Wellen geschlagen hat (selbst slashdot, damals eine der
wichtigsten Seiten im Netz, berichtete), haben sie es bis heute zu
keiner Fachzeitschrift eingereicht. Keine Ahnung, warum nicht, denn ihr
Punkt ist trotz ihres eher leichtfüßigen Stils[1] völlig korrekt
und jedenfalls nicht ganz offensichtlich.
Gottbrath und Freunde sagen nämlich, dass, wer eine riesige
Rechenaufgabe und ein festes Budget hat, durch Warten schneller fertig
werden kann. Das liegt daran, dass mensch nach 18 Monaten (das ist die
konventionelle Zeitskala für Moore's Law) fürs gleiche Geld einen
Rechner mit doppelt so vielen Transistoren kaufen kann und der wird mit
etwas Glück doppelt so schnell sein wie der, den mensch heute kaufen
würde. Sie berechnen auch, wie groß eine Rechnung sein muss, damit sich
das Warten lohnt: mit dem 18-Monate-Gesetz ist die Grenze bei Aufgaben,
die 26 Monate rechnen würden.
Weil das Paper damals in meiner Blase intensiv herumgereicht worden ist,
finde ich überraschend, dass es laut ADS nur sechs Mal zitiert (wenn
auch von einer illustren Auswahl von Papern) worden ist und bei den
üblichen Suchmaschinen bei Anfragen wie „Moore's Law optimal waiting“
nicht in Sicht kommt.
Transistoren vs. SARS-2
Gesucht hatte ich es wiederum, weil ich ja schon länger mit
Niedriginzidenzsstrategien hadere. Ganz unabhängig davon, ob wir
als Gesellschaft hohe Inzidenzen ohne Schrammen überstehen, dürfte
inzwischen niemand mehr ernsthaft bestreiten, dass „am Ende“ alle SARS-2
gehabt haben werden – die Frage ist nur, wann („werden wir im Herbst
2022 wieder einen Lockdown brauchen?“) und auch, wie viele Menschen bis
dahin wegen SARS-2 schwer krank geworden oder gar gestorben sein werden.
An diesem Punkt ist mir das 1999er-Paper eingefallen, denn wir haben
bei SARS-2 etwas ganz ähnliches wie Moore's Gesetz: Die Sterblichkeit
nach einer Erstinfektion steigt exponentiell mit dem Alter. Das haben
im September 2020 (also einige Monate, bevor Impfungen gegen SARS-2
epidemiologisch relevant wurden) Andrew Levin und Kollegen in ihrem
Artikel „Assessing the age specificity of infection fatality rates for
COVID-19: systematic review, meta-analysis, and public policy
implications“ (doi:10.1007/s10654-020-00698-1) recht sorgfältig und
beeindruckend gezeigt. Die Abbildung am oben im Post ist aus dieser
Arbeit.
Da hier das Risiko und nicht die Leistung zunimmt, ist jetzt allerdings
die Frage nicht, ob mensch lieber etwas warten soll. Nein, je älter
Leute werden, desto größer ist ihr Risiko, eine SARS-2-Infektion nicht
zu überleben, und dieses Risiko wächst ziemlich steil. Der Gedanke,
die Gesamtopferzahl könnte sinken, wenn sich Menschen anstecken, solange
sie noch jünger sind und sie also die Infektion mit höherer
Wahrscheinlichkeit überleben, liegt also nicht fern. Die zur Prüfung des
Gedankens notwendige Mathematik läuft im Wesentlichen analog zu den
Überlegungen von Gottbrath und Freunden.
Ethisch ist es natürlich nicht analog, aber ich wollte dennoch
wissen, wie viel das eigentlich ausmachen könnte. Deshalb habe ich mir
folgendes Modell ausgedacht:
Die Infection Fatality Rate, also die Wahrscheinlichkeit, an einer
(erkannten oder unerkannten) SARS-2-Infektion zu sterben, ist
inspiriert von der Abbildung oben
IFR = exp((t − A1) ⁄ λ) ⁄ 100.
Dabei ist t das Alter der erkrankten Person, A1 das
Alter, in dem 1% der Infizierten versterben (das pro-cent ist auch
der Grund für die Division durch Hundert), und λ so etwas wie die
Steigung; nennt mensch das Alter, in dem die Todesrate auf 10%
gestiegen ist, A10, so lässt sich leicht
λ = (A10 − A1) ⁄ ln(10)
ausrechnen.
Eine ultrakompetente Regierung (oder Schwarmintelligenz auf
Brillianzniveau cosmic) kriegt es hin, die Inzidenz konstant
über viele Jahre auf i zu halten. In meiner Simulation
bleibe bei der Interpretation als Wocheninzidenz und simuliere die
Infektion von Woche zu Woche. Gegenüber den Inzidenzen in der
realen Welt gibt es bei mir außerdem keine Dunkelziffer.
Wer nicht an SARS-2 stribt, stirbt nach Gompertz (cf. Mortalität in
der Wikpedia), es stirbt also jedes Jahr ein Anteil („General
Fatality Rate”)
GFR = S30⋅exp(G⋅(t − 30 a)).
der t-jährigen. Dabei ist S30 die Sterberate für
30-jährige, die ich aus dem Wikipedia-Artikel als ungefähr 40/100000
pro Jahr ablese, und G der Gompertz-Sterbekoeffizient – ich
bin nicht sicher, ob ich so eine Größe eigentlich nach mir benannt
haben wollte -, den die Wikipedia als 0.08 ⁄ a gibt.
Etwas jenseits von Gompertz lasse ich jede Woche 1/52 der fürs
jeweilige Wochen-Alter berechneten Menschen sterben; das macht vor
allem die Kurven von SARS-2-Opfern über der Zeit glatter.
Wer eine SARS-2-Infektion überlebt hat, stirbt nicht mehr an SARS-2.
Das ist sicher eine unrealistische Annahme, aber sie macht das
Modell auch deutlich klarer.
Bliebe noch die Schätzung der Parameter aus der Formel für die IFR. Aus
der Abbildung am Artikelanfang lese ich per Auge
A1 = 65 a und A10 = 83 a ab (wer von
den a irritiert ist: das ist die Einheit, nämlich das
Jahr).
Hier liegt die zweite wesentliche Schwäche meines Modells: Nachdem
inzwischen in den dabei mitspielenden Altersgruppen wirklich eine
überwältigende Mehrheit geimpft ist, werden diese Zahlen heute
garantiert anders aussehen als in der ersten Jahreshälfte 2020, als die
Studien gemacht wurden, die Levine et al ausgewertet haben.
Andererseits legen die immer noch recht erheblichen Sterbefallzahlen
nahe, dass sich die Kurve wohl nur ein wenig nach rechts verschoben
haben wird; ich komme gleich nochmal darauf zurück.
Der Berg des Todes
Habe ich dieses Modell, kann ich einer Gruppe von Menschen folgen, bis
sich (fast) niemand mehr infizieren kann, weil alle entweder tot oder
in meinem Sinne immun sind. Ohne es probiert zu haben, glaube ich, dass
das Modell einfach genug ist, um es in eine geschlossen lösbare
Differentialgleichung umschreiben zu können. Aber wer will denken, wenn
es doch Computer gibt?
Und so habe ich die Modellannahmen von oben einfach in ein paar Zeilen
Python gepackt und folge dem Schicksal einer Kohorte von 100000
70-jährigen, bis alle tot oder genesen sind. Und das mache ich für
einen Satz von Inzidenzen zwischen 20 und 2000. für Das Ergebnis:
Ich gebe zu, dass ich mit dieser Kurvenform nicht gerechnet hatte. Dass
ganz niedrige Inzidenzen die Todeszahlen drücken, ist zwar zunächst
klar, denn bei, sagen wir, 20/100000/Woche würde es
100000 ⁄ 20 = 5000 Wochen oder fast 100 Jahre dauern, bis alle mal
das Virus hätten haben können, und in der Zeit sind 70-jährige natürlich
anderweitig gestorben.
Das hohe und recht steile Maximum um die 100 herum hatte ich so aber
nicht erwartet. Zu ihm tragen vor allem Leute bei, die erst nach
einigen Jahren – und dann deutlich gebrechlicher – mit SARS-2 in Kontakt
kommen. Bei einer 100er-Inzidenz sieht die Wochensterblichkeit über der
Zeit (in Wochen) so aus (cf. make_hist_fig im Skript):
Diese Kurve wäre ziemlich zackig, wenn ich strikt nach
Gompertz-Formel nur ein Mal im Jahr natürliche Tode hätte, statt die
diese geeignet auf die Wochen zu verteilen.
Die Menschen, die am Anfang der Pandemie 70 sind, sterben in diesem
Modell also typischerweise nach 1000 Wochen oder fast 20 Jahren, wenn
sie ihn ihren 90ern wären. Das mag etwas fantastisch klingen. Jedoch:
Das RKI hat früher immer dienstags die Demographie der Verstorbenen
veröffentlicht (z.B. Bericht vom 30.3.2021, siehe S. 12), und
tatsächlich sind 20% der Coronatoten in der Altersgruppe 90-99.
Aber klar: Das ist hypothetisch. Niemand kann die Inzidenzen konstant
auf 100 halten, und niemand wird das vernünftigerweise wollen. Vor
allem aber mag die Impfung die IFR-Kurve durchaus so weit nach rechts
verschieben, dass der Sterblichkeitspeak, der hier noch bei 90-jährigen
sitzt, jenseits der 100 rutscht, und dann betrifft das, bei heutigen
Lebenswerwartungen, praktisch niemanden mehr.
Zynische Metriken
Als Gedankenexperiment jedoch finde ich das Ganze schon bemerkenswert:
Wenn wir eine 1000er-Inzidenz aushalten können, würden wir nach diesem,
eingestandenermaßen idealisierten, Modell 7% der 70-jährigen den Tod
durch SARS-2 ersparen.
Ein so starker Effekt muss eigentlich schon aufgefallen sein. Wenn das
kein Fehler auf meiner Seite ist: steht das schon irgendwo in der
epidemiologischen Literatur?
Allerdings ist die, ach ja, Metrik „Wie viele Leute sterben an SARS-2?“
auch ziemlich nichtssagend. Weit üblicher zur Einschätzung der Frage,
wie viel Geld (oder Nerven) mensch für Interventionen gegen Krankheiten
ausgeben mag, sind die YLL, Years of Life Lost (cf. nochmal DALY in der
Wikipedia). Diese Metrik ist zwar – ganz wie meine Rechnung hier – ein
wenig zynisch, aber doch nachvollziebar genug, dass ich mir aus meinem
Modell auch nochmal die Gesamtlebensjahre habe ausspucken lassen, die
meine 100000er-Kohorte in den Läufen mit den verschiedenen Inzidenzen …
Ich persönlich bin ja überzeugt, dass Public Health-Studien in einer
mindestens ebenso dramatischen Replikationskrise stecken wie Studien
in der Psychologie. Die Überzeugung resultiert in erster Linie aus
einer Überdosis von Papern zu Broccoli oder Spirulina als „Superfoods“,
aber eigentlich glaube ich im Groben gar keiner Studie, die
Lebensgestaltung mit Lebenserwartung zusammenbringt, ohne eine
wenigstens annähernd plausible mechanistische Begründung zu liefern (im
Idealfall natürlich so stringent wie bei der erblichen
Hypomagniesiämie).
Manchmal jedoch sind epidemiologische Befunde einfach zu schön für
Skepsis. Der Wille zum Glauben regte sich bei mir beispielsweise bei
„Accelerometer-derived sleep onset timing and cardiovascular disease
incidence: a UK Biobank cohort study“ von Shahram Nikbakhtian et al
(doi:10.1093/ehjdh/ztab088). Politikkompatibel formuliert
behauptet die Arbeit, mensch solle zwischen 10 und 11 ins Bett gehen, um
möglichst alt zu werden; so in etwa war es auch in Forschung aktuell
vom 9.11.2021 zu hören (ab 2:58).
Aus dem Paper von Nikbakhtian et al: Ein „graphical abstract“. Wer
bitte ist auf die Idee gekommen, alberne Piktogramme würden beim
Verständnis eines wissenschaftlichen Aufsatzes helfen? CC-BY-NC
Nikbakhtian et al.
Angesichts meiner spontanen Sympathie für das Ergebnis wollte ich ein
besser fundiertes Gefühl dafür bekommen, wie sehr ich dieser Arbeit
misstrauen sollte – und was sie wirklich sagt. Nun: abgesehen vom
„graphical abstract“, das auf meinem crap-o-meter schon nennenswerte
Ausschläge verursacht, sieht das eigentlich nicht unvernünftig aus. Die
AutorInnen haben um die 100000 Leute eine Woche lang mit
Beschleunigungsmessern schlafen lassen, und ich glaube ihnen, dass sie
damit ganz gut quantifizieren können, wann da wer eingeschlafen und
wieder aufgewacht ist.
Dann haben sie fünf Jahre gewartet, bis sie in der UK Biobank – einer
richtig großen Datenbank mit allerlei Gesundheitsdaten, in die
erstaunlich viele BritInnen erstaunlich detaillierte Daten bis hin zu
ihren Gensequenzen spenden[1] – nachgesehen haben, was aus ihren
ProbandInnen geworden ist.
Eigentlich nicht schlecht
Ein Projekt, das sich fünf Jahre Zeit lässt, ist schon mal nicht ganz
verkehrt. Weiter haben sie ihre Datenanalyse mit R und Python gemacht
(und nicht mit proprietärer klicken-bis-es-signifikant-istware wie
SPSS oder SAS, oder gar, <gottheit> bewahre, Excel), was auch kein
schlechtes Zeichen ist. Klar, es gibt ein paar kleine technische
Schwierigkeiten. So haben sie zum Beispiel notorische SchnarcherInnen
(„Schlafapnoe“) ausgeschlossen, so dass von ihren gut 100000
ProbandInnen am Schluss zwar gut 50000 Frauen, aber nur knapp 37000
Männer übrig geblieben sind.
Dann gibt es Dinge, die in der Tabelle 1 (S. 4 im PDF) seltsam wirken,
aber wohl plausibel sind. So schätzen sich ein Drittel der
TeilnehmerInnen selbst als „more morning type“ ein – wo sind all die
Morgentypen in meiner Bekanntschaft? Und warum schätzen sich 27% der
Leute, die erst nach Mitternacht einschlafen, als „more morning type“
ein (14% sogar als „morning type“)? Kein Wunder, dass die armen Leute
dann allenfalls sechs Stunden Schlaf kriegen, die
Nach-Mitternacht-SchläferInnen sogar nur fünfeinhalb. Oh grusel.
Und die Tabelle gibt her, dass die Diabetesrate bei den
Nach-Mitternacht-SchläferInnen erheblich höher ist als bei den
Früher-SchläferInnen (fast 9% gegen um die 5.5%) – ist das eine Folge
von Chips auf dem Sofa beim Fernsehkonsum? Ganz überraschend fand ich
schließlich den niedrigen Anteil von RaucherInnen, der in allen Gruppen
deutlich unter 10% lag. Das, denke ich, würde in der BRD auch bei der
betrachteten Altersgruppe (meist älter als 50) noch ganz anders
aussehen. Aber ich vermute eher, dass RaucherInnen in der (nach
meiner Erinnerung auf freiwilliger Rekrutierung basierenden) Biobank
stark unterrepräsentiert sind. Das wirft dann natürlich Fragen
bezüglich anderer Auswahleffekte in der Testgruppe auf.
Wie dem auch sei: Das Ergebnis am Schluss war, grafisch zunächst sehr
beeindruckend (Abbildung 2 in der Arbeit), dass Leute, die zwischen 10
und 11 einschlafen, deutlich weniger Herz-Kreislauf-Probleme haben als
die anderen, ein Ergebnis, das mir gut gefällt, denn ich werde recht
zuverlässig gegen 22 Uhr müde und bin dann froh, wenn ich ins Bett kann.
Aber leider: Wenn mensch z.B. die erhöhte Diabetesrate rausrechnet,
bleibt von dem Schlaf-Effekt nicht mehr viel übrig, jedenfalls nicht bei
Männern, bei denen nur die Frühschläfer gegenüber Andersschläfern
signifikant erhöhte Risiken hatten. Diese ließen sich recht zwanglos
erklären, wenn das z.B. Schichtarbeiter gewesen wären, denn die
Korrelation zwischen Schichtarbeit und Herzgeschichten ist wohlbekannt.
Das ist aus meiner Sicht ohnehin die größte Schwierigkeit des Papers: Da
Armut und Reichtum in westlichen Gesellschaften der beste Prädiktor für
die Lebenserwartung ist[2], hätte ich gerne eine Kontrolle gegen die
Klassenzugehörigkeit gesehen. Aber ich vermute, dass die Biobank
solchen Einschätzungen aus dem Weg geht.
Was verständlich ist, denn diese könnten ja den Schwefelgeruch des
Klassenkampfs verströmen. Der wäre bei der vorliegenen Studie sicher
auch deshalb besonders unwillkommen, weil die AutorInnen alle für den
Gesundheitshöker Huma arbeiten, der, wenn ich den Wikipedia-Artikel
richtig lese, auch im Geschäft mit Fitnesstrackerei unterwegs ist.
In deren Welt jedoch ist jedeR seiner/ihrer Gesundheit Schmied, so dass
für Klassenfragen besonders wenig Platz ist.
Global Burden of Disease
Eine weitere Entdeckung habe ich beim Reinblättern ins Paper gemacht,
weil ich schon den ersten Satz nicht glauben wollte:
Cardiovascular disease (CVD) continues to be the most significant
cause of mortality worldwide, with an estimated 18.6 million deaths
each year.
Das schien mir gewagt, denn unter der (falschen) Annahme eines
Gleichgewichts müssten bei rund 8 Milliarden Menschen mit einer
Lebenserwartung von 100 Jahren 80 Millionen im Jahr sterben; auf einen
Faktor zwei wird das trotz starken Wachstums vor allem in der zweiten
Hälfte des 20. Jahrhunderts (senkt die Todesrate, weil ja mehr Menschen
relativ jung sind) sowie gegenläufig geringerer Lebenserwartung schon
stimmen. Wenn die 80 Millionen hinkämen, würden
Herz-Kreislaufgeschichten 20% der Todesursachen ausmachen. Das soll
schon die Nummer 1 sein? Tja – ich bin dem Literaturverweis gefolgt.
Dabei kommt mensch bei den Global Burden of Disease-Daten (GBD) eines
Institute for Health Metrics and Evaluation an der University of
Washington heraus, einer Übersicht über das, woran die Leute auf der
Welt so sterben und wie viele Lebensjahre was kostet. Nur nur, weil da
„Metrik“ drinsteht, wäre an der ganzen Anlage der Daten schon viel zu
kritisieren – die Wikipedia bespricht z.B. in ihrem Artikel zu DALY
einige Punkte. Und natürlich ist das „Tool“, über das mensch die Daten
nutzen soll, wieder so eine Javascript Only-Grütze.
Aber spannend ist das doch, angefangen bei der Ansage von GBD, es
stürben derzeit weltweit rund 56.5 Millionen Menschen pro Jahr. Dabei
geben die GBD-Leute ein – Vorsicht, unverantwortlicher Natwi-Jargon – 2
σ-Intervall, also 95%-Konfidenzbereich, von 53.7 bis 59.2 Millionen; so
große Fehlerbereiche verstärken tatsächlich mein Zutrauen zu diesen
Daten, denn wenn ich mir so das globale Meldewesen vorstelle, scheint es
sehr nachvollziehbar, dass drei Millionen Tote mehr oder weniger nicht
ohne weiteres auffallen. Sie verlören, und dabei wirds allmählich
wirtschafts„wissenschaftlich“, dabei 1.7 Milliarden Lebenjahre an
Krankheiten und ähnliches.
Ich muss mich demnächst mal mehr damit beschäftigen. Schade, dass der
November schon vorbei ist. Das wäre eine sehr jahreszeitgemäße
Tätigkeit gewesen.
Auch einer meiner Lieblingskollegen tut das. Als wir uns
mal drüber unterhalten haben, meinte er etwas wie: Ich dachte mir
schon, dass du das komisch findest. Meine Antwort war: Nun, nicht per
se, aber doch in einem Staat, der selbst von Kindern DNA-Profile
einsammelt, um damit flächendeckend Ladendiebstahl aufzuklären.
Gut, das ist jetzt etwas provokant, zumal „bester“ ja immer
eine Menge braucht, innerhalb derer verglichen wird, und über dieser
eine Totalordnung, was für ziemlich viele praktisch relevante Mengen
schon mal nicht (eindeutig) gilt. Hier: klar ist der Unterschied der
Lebenserwartung für Leute mit und ohne amyotrophe Lateralsklerose noch
größer als der zwischen armen und reichen Menschen, so dass „hat ALS”
mit einigem Recht als „besserer“ Prädiktor bezeichnet werden könnte.
Aber „ist arm“ erlaubt für weit mehr Menschen eine recht
starke Aussage. Deshalb kann ich, ohne nur zu provozieren, mit
mindestens gleichem Recht von „besser“ reden. Ist halt eine andere
Ordnungsrelation. Oder eine andere Menge, in der exotische
Prädiktoren gar nicht vorkommen.
Nur, damit ich nicht falsch verstanden werde: Ich bin ein großer Fan
von Argelander, so groß, dass ich zu seinem Grab in Bonn gepilgert
bin.
Als ich heute morgen bei heise online einen Artikel las, in dem die
Entdeckung eines braunen Zwergs (oder meinethalben auch einen besonders
großen Riesenplaneten) durch einen Amateurastronomen verkündet wurde,
musste ich traurig lächeln, denn das Objekt, um das es ging, hieß dort
– und, wie sich rausstellt, sogar in der Originalarbeit
(doi:10.3847/1538-4357/ac2499; open access arXiv:2112.04678) –
„BD+60 1417b“.
Was ist daran traurig? Nun, das „BD“ darin bezieht sich auf die Bonner
Durchmusterung, ein eingestandenermaßen epochales Werk. Nur eben
eines mit dem Äquinoktium B1855.0, was aus dem Astronomesischen
übersetzt „echt retro“ heißt. Genau: Die 1855 steht so in etwa für das
bürgerliche Jahr 1855; wer genau nachrechnet, kommt auf den 31.12.1854,
kurz vor zehn am Abend, aber legt mich jetzt bitte nicht auf die
Zeitzone fest. Was Erdkoordinaten angeht, haben manche Leute damals
noch mit der Längenzählung in Paris angefangen. „Äquinoktium B1855.0“
ist tatsächlich ein wenig mit sowas vergleichbar, denn es bezeicnet
letztlich eine Art, den Himmel in Länge und Bereite aufzuteilen.
Damit will ich nichts gegen die Arbeit von Friedrich Argelander – der
hat das damals in der Hand gehabt – gesagt haben. Im Gegenteil: sie war
unglaublich wertvoll, und es ist heute kaum glaublich, dass Menschen
(statt Computer) überhaupt 325000 Sterne beobachten und die
Beobachtungen reduzieren können. Aber der Kram ist halt Mitte des
vorletzten Jahrhunderts beobachtet worden, und die abschließende
Publikation war 1903.
Dass Bezeichner aus Arbeiten vor der Publikation der speziellen
Relativitätstheorie noch in einer Arbeit vorkommen, die mit Daten von
einem Weltraumteleskop im mittleren Infraroten operiert, ist
schon, na ja, zünftig, zumal eine schnelle Simbad-Anfrage reichlich
weniger angestaubte Bezeichnungen geliefert hätte; vermutlich hätte ich
das Ding aus persönlicher Verbundenheit PPM 18359 genannt, oder dann
halt SAO 15880. Die wirklich aktuellen Gaia-Bezeichnungen hingegen
(„DR2 1579929906250111232“; ich habe gerade nachgesehen: die Nummer
bleibt im DR3) – ach ja, die sind vielleicht wirklich nicht so gut für
Menschen geeignet. Dabei sind sind die monströsen Ziffernfolgen nur 64
bit… eigentlich sollte es da eine menschenwürdigere Kodierung geben.
Hm.
Aber am Ende: es ist wieder die Macht der Tradition, die ich gerade für
die Astronomie schon jüngst beklagt hatte, als es in Fußnote 1 um
die in dem Bereich einfach nicht verschwinden wollenden sexagesimalen
Koordinaten ging. Unter diesen Umständen würde ich mir vielleicht auch
keine allzu große Mühe geben mit lesbaren Kodierungen von 64-bit-Zahlen.
Nun: Ich würde XLS deutlich weniger trauen als der Autor dieser
Grafik, Randall Munroe. Argumente dafür folgen unten. CC-BY-NC
XKCD.
Erstens gab es ein Interview mit Regina Riphan von der Uni Erlangen
(nun: sie ist an deren WISO-Fakultät, sitzt also in Wirklichkeit in
Nürnberg), in dem sie zur Nutzung wissenschaftlicher Erkenntnisse durch
die Politik ab Minute 2:20 berichtet,
dass die wissenschaftlichen Analysen am häufigsten verwendet werden,
wenn sie thematisch und redaktionell aufbereitet sind
und dann weiter ab 3:35:
damit die Nutzung von wissenschaftlichen Erkenntnissen steigen kann,
müssen die Texte gut verständlich sein und kurz zusammengefasst sein.
Übersetzt: Wissenschaft bitte nur in Powerpoint. Eine Implikation
dieser Erwartung zeigt der XKCD oben.
Allein: Wenn etwas eindeutig ist, leicht konsumierbar runtergekocht und
kurz zusammengefasst werden kann, ist es im besten Fall Lehrbuchwissen,
aber jedenfalls nicht mehr Wissenschaft.
Wissenschaft im Sinne von „was wir gerade erforschen” hat immer
Voraussetzungen, Fehlerbetrachtungen und Einschränkungen, ohne die die
Aussage nicht sinnvoll eingeordnet werden kann. Natürlich können auch
wissenschaftliche Aussagen schon mal auf einen Satz zusammenschnurren
(„Cygnus X-3 enthält ein schwarzes Loch von 17 Sonnenmassen.”), aber
der ist fast immer zu ergänzen mit einem „…wenn A, B und C so stimmen“.
Ohne solche Einschränkungen wird es meist mehr oder weniger falsch
(„…aber wenn das so wäre, könnten wir das nicht im Röntgen sehen, und
deshalb kann es gut sein, dass da stattdessen nicht mal ein weniger
exotisches schwarzes Loch ist.“).
Wer sich fragt, warum auch weit über den Umgang mit SARS-2 hinaus
politisches Handeln oft ziemlich plemplem wirkt, könnte hier die Antwort
finden. Wer Entscheidungen auf wissenschaftlicher Evidenz basieren will,
muss sich auf Wisschenschaft einlassen, und das bedeutet in aller Regel,
Papers zu lesen. Das dauert auch mit fachkundiger Erläuterung zumindest
im Bereich der Naturwissenschaften Stunden. Für ein erstes Verständnis.
Wer das nicht will, sollte vielleicht lieber nicht so viel entscheiden.
Oder jedenfalls nicht sagen, seine/ihre Politik sei irgendwie anders als
durch soziale Zwänge, Interessen, Fast Talk, Loyalität und Bauchgefühl
geleitet.
Dabei bleibt einzuräumen, dass ein großer Teil von Wissenschaft am Ende
schlicht gar nicht hinhaut – wenn es einfach wäre, bräuchte es keine
Forschung. Und gelegentlich ist Kram auch nicht nur falsch, weil er
sackschwierig ist. Eine erstaunlich irre Geschichte in dieser Abteilung
wird in einem zweiten Beitrag der Sendung erzählt: Da nutzen Leute
ernsthaft Excel für Wissenschaft, etwas, das mir selbst in der
Astronomie immer wieder mit fatalen Ergebnissen begegnet[1]. Wo
Leute über Genetik reden, hat das besonders lachhafte Folgen:
Der Name des Gens Septin 4, abgekürzt Sept4, wird automatisch in den
vierten September umgewandelt.
Das ist auch Mark Ziemann und KollegInnen von der Deakin University in
Melbourne aufgefallen, die daraufhin nachgesehen haben, wie groß das
Problem wohl in publizierten Arbeiten sein mag (PLOS Comput. Biol.
17(7), e1008984, doi:10.1371/journal.pcbi.1008984). Im DLF-Beitrag:
[Ziemann:] „Die Ergebnisse waren kurz gesagt viel schlechter als bei
unserer ersten Analyse 2016.“ [...] In fast jeder dritten Studie war
ein Gen-Name in ein Datum gewandelt worden. [... Ziemann:] „Zunächst
sollte Genomik nicht in eine Tabellenkalkulation aufgenommen werden.
Es ist viel besser, Software zu nehmen, die für umfangreiche
Datenanalysen geeignet ist.“
Dem Appell am Ende des Zitats kann ich mal mit ganzem Herzen zustimmen,
und zwar wie gesagt weit über das Feld der Genetik hinaus. Eine so
klare und offensichtlich wahre Aussage verlässt das Feld der
Wissenschaft. Ich kanonisiere sie hiermit zu Lehrbuchwissen.
Richtig schräg wird es, wenn Leute in Tabellenkalkulationen mit
vorzeichenbehafteten sexagesimalen Koordinaten wie -80° 14' 27"
rechnen. Klar, das sollten sie auch ohne Excel nicht tun, aber Leute,
die immer noch Excel verwenden, haben offensichtlich besonders große
Schwierigkeiten, sich von problematischen Traditionen zu lösen.
Mit meinem zyTemp-Kohlendioxid-Messgerät – das, für das ich neulich
Software gebastelt habe – bin ich natürlich gleich in die Welt
gezogen, um mal zu sehen, wo es überall CO2 (und mithin plausiblerweise
Corona-Aerosol) geben wird.
Der Wind und die Seuche
Nachdem mich ja zunächst sehr überrascht hat, wie deutlich sich die
Anwesenheit von Menschen in rasch steigendem CO2-Gehalt der Luft in
Innenräumen niederschlägt, war meine zweite große Überraschung, dass
sich umgekehrt im Freien nichts tut. Also, richtig gar nichts. Selbst
Autos, die mindestens eine Größenordnungen mehr CO2 emittieren als
Menschen (vgl. unten), fallen schon aus ein paar Metern Entfernung im
Wesentlichen nicht mehr auf. Ich musste mich schon an Kreuzungen neben
die Ampeln stellen, um überhaupt ein schwaches Signal zu bekommen. Und
das war kaum mehr als ein leichtes Oszillieren um ein paar ppm, während
die wartenden Autos vor sich hinstanken und dann losbrausten. So sehr
es nach Abgasen stank – CO2 ist im Nahbereich von Autos kein Problem.
Die gute Nachricht ist also: Wenn CO2 ein guter Indikator ist, wie
schlimm es mit Aerosol sein kann – real verschwindet Aerosol im
Regelfall aus hinreichend ruhiger Luft durch Niederschlag, was CO2
nicht tut – ist praktisch sicher, dass an der frischen Luft bei nicht
völlig irren Wetterlagen SARS-2 allenfalls durch Tröpfchen übertragen
wird.
Umgekehrt war meine Sorge ja immer der öffentliche Verkehr, und so habe
ich mit Hingabe in verschiedenen Zügen gemessen. Als Referenz:
Frischluft liegt derzeit hier irgendwo zwischen 280 und 350 ppm CO2. In
einem halb vollen ICE habe ich zwischen 800 und 1400 ppm gemessen
(interessanterweise nicht so ganz korreliert mit den Bahnhofsstopps; die
Bahn kennend, vermute ich eine Nicht-so-ganz-wie-gedacht-Funktion der
Lüftung in dem Wagen, in dem ich saß). Ein vollbesetzter IC-Zug der SBB
war zwischen 800 und 1050 dabei, ein leerer Nahverkehrszug bei etwa 400,
ein halb voller eher bei 700.
Bei solchen Dynamiken ist wohl klar, dass hinreichend viel frisches
Aerosol in der Luft sein wird, jedenfalls, solange nicht alle
Passagiere mit richtig sitzenden FFP2-Masken dahocken, und sowas habe
ich noch nicht mal dort gesehen, wo es wie in Berlin und Bayern
gesetzlich gefordert ist oder war. Es muss also im letzten Winter weit
mehr Ansteckungen in Zügen gegeben haben als das RKI in seinen
Ausbruchshistogrammen (z.B. S. 12 am 9.3.2021) mit den kleinen roten
Säulen andeutet. Aber ok, sie haben ja immer dazugesagt,
„Clustersituationen in anonymen Menschengruppen (z.B. ÖPNV, Kino,
Theater)“ seien fast sicher unterrepräsentiert.
Atmende Blumen
Aber ich hatte auch anderweitig viel Spaß mit dem Gerät. So war ich
neulich verreist, und in der Wohnung verlief die CO2-Konzentration so:
CO2-Konzentrationen in meinem Wohnzimmer während der Abwesenheit aller
BewohnerInnen. Zeiten sind in UTC.
Wohlgemerkt: Da war niemand. Es könnte sein, dass sich hier einfach
Schwankungen in der Außenluft reflektieren; aber ich glaube zunächst
mal, dass wir hier einer Birkenfeige beim Stoffwechsel zusehen; 6 Uhr
UTC, wenn die Kurve sich nach unten wendet, entspricht 8 Uhr Lokalzeit
und damit wohl der Zeit, in der es in dem Zimmer hell genug für
Photosynthese werden dürfte; der große Peak rund um 18 Uhr am 28.9. wäre
schön konsistent damit, dass die Pflanze sich zur Ruhe setzt und dazu
kurz mal ihre Mitochondrien anwirft; der folgende Abfall wäre dann
wieder ein Mischungseffekt, denn der Sensor lag (mehr zufällig)
praktisch in den Zweigen des Ficus. Warum er, das angenommen, den Peak
am 29.9. doch deutlich früher gemacht hat? Nun, vielleicht war ja
Mistwetter? Oder vielleicht ist das auch alles ganz anders: das
bräuchte definitiv mehr Forschung.
Rauchmelder diagnostizieren Blasenschwäche
CO2-Konzentrationen in meiner Diele. Zeiten sind in UTC.
Wenig überraschend zeigt sich, dass die CO2-Konzentrationen dramatisch
personenbezogene Daten sind. Der zweite Graph illustriert das an einem
relativ harmlosen Beispiel: Der Sensor steht jetzt in der Diele, vor
meiner Zimmertür. Deutlich zu sehen ist, dass ich an dem Tag gegen 23
Uhr geschlafen habe, oder jedenfalls, dass meine Schlafzimmertür dann zu
war. Und dann bin ich kurz vor zwei mal wach gewesen, weil ich am Abend
etwas viel Tee getrunken hatte. am Morgen aufgestanden bin ich um
sieben, kurz vor acht habe ich mal gelüftet, und um halb neun bin ich
gegangen.
Wer da etwas länger auf diese Weise zuschaut, findet viel über die
BewohnerInnen von Wohungen heraus – angefangen davon, wann wie viele
Menschen wo in der Wohnung sind –, und das im Zweifelsfall auch
automatisiert unter vielen Menschen. Ich habe dabei lediglich
zwei Messwerte pro Minute genommen. Das ginge, so würde ich schätzen,
für eine ganze Weile mit den zumindest hier im Haus recht verbreiteten
per Funk auslesbaren Rauchmeldern ganz gut, ohne dass ihre Batterien
gleich alle wären – für die Betreiber und, weil die Krypto von den
Teilen schon aus Stromspargründen sehr wahrscheinlich lausig ist,
vermutlich auch ungefähr für jedeN, der/die sich hinreichend intensiv
für das Leben der Anderen interessiert.
Nachdenken nur für 50W?
Schließlich bin ich jeden Tag wieder aufs Neue fasziniert, wie schnell
ich in meinem Büro schlechte Luft verbreite.
CO2-Konzentrationen in meinem Büro; ich komme von der Mittagspause
zurück, arbeite, und lüfte ein Mal. Zeiten sind in UTC.
An dieser Kurve ist viel zu sehen, unter anderem, dass sich offenbar die
Luft in dem Raum doch recht schnell mischt; das würde jedenfalls schön
erklären, warum es beim Lüften kurz nach 12 Uhr UTC so eine Delle nach
unten gibt: Das ist die Frischluft von außen, die ziemlich direkt an den
Sensor weht, sich dann aber innerhalb von fünf Minuten mit meinen im
Raum gebliebenen Abgasen mischt.
Diese schnelle Homogenisierung ist wesentlich für eine Überlegung, die
sich für mich da aufdrängt: Wie viel CO2 mache ich eigentlich? Das geht
so:
In den 96 Minuten von 10:30 bis 12:06 habe ich die Konzentration von
808 auf 1245 ppm erhöht, was einer Rate von
((1245 − 808) ppm)/((96⋅60) s) = 0.077 ppm ⁄ s
entspricht[1] (ich habe das nicht aus dem PNG, sondern noch im
Plotprogramm selbst abgelesen). Ein zweiter Datenpunkt ist nach Lüften
und Mischen: Da ging es von 12:17 bis 14:08 von 837 auf 1288 ppm, was
auf eine Rate von 0.068 ppm/s führt.
Aus den beiden Werten würde ich grob schätzen, dass ich die
CO2-Konzentration in meinem Büro so etwa mit 0.07 ppm/s erhöhe, wenn ich
normal arbeite; ich nenne diese Rate hier kurz δ. Unter der
sicher falschen, aber vielleicht noch hinnehmbaren Annahme, dass kein
CO2 entweicht und der nach den Beobachtungen plausiblen Annahme voller
Durchmischung im Raum kann ich nun abschätzen, was mein Stoffwechsel so
tut.
Was es dazu braucht, ist das Wissen, dass bei einem idealen Gas (was die
Luft nicht ist, aber für die Abschätzung reicht es) bei
„Normalbedingungen“ (die bei mir im Zimmer glücklicherweise auch nicht
ganz perfekt realisiert sind) ein Mol 22.4 Liter Volumen
einnimmt[2]. Unter Kopfzahl-Aspekten kann ich nicht genau sagen,
warum ich mir da drei Stellen gemerkt habe. In Wirklichkeit sind 20
l/mol natürlich genau genug als Kopfzahl. Ich nenne das unten
Vm.
Das ist eine Aussage über die Zahl der Gasmoleküle in einem Volumen
V, denn ein Mol sind ungefähr 6e23 (so schreibe ich
wieder kurz für 6⋅1023) Teilchen („Avogadro-Konstante“;
außerhalb von Kopfzahlen ist die inzwischen exakt festgelegt und
definiert das Mol). Mein Büro ist so in etwa fünf Meter lang, 2.5 Meter
breit und drei Meter hoch, hat also V = 40 Kubikmeter Rauminhalt. Das
heißt, dass sich darin
(40 m3)/(0.0224 m3 ⁄ mol) ≈ 1800 mol
befinden. Das sind gegen 1e27 oder 1000000000000000000000000000[3] Moleküle. Diese Zahl hat einen Namen: das ist eine
Quadrillarde. Aber klar: der Name ist selbstverständlich Quatsch. Ich
musste ihn selbst nachsehen. Der wissenschaftliche Fachbegriff für
solche Zahlen ist Gazillion. Für alle davon. Weshalb wir eben immer
zehn hoch siebenundzwanzig sagen, was viel nützlicher ist.
Und dann brauche ich noch die Energie (oder hier genauer die Enthalpie,
normalerweise geschrieben als ΔH) die bei der Bildung eines
Moleküls CO2 auch C und O₂ frei wird; konventionell geben die Leute das
nicht für ein Molekül, sondern für ein ganzes Mol (ihr erinnert euch:
ganz platt 6e23 Moleküle statt nur eins) an, und die Wikipedia
verrät, dass das 394 kJ/mol sind.
Jetzt baue ich das zusammen, nämlich die Erzeugungsrate von CO2 in
physikalischen Einheiten (statt in ppm/s), δ⋅V ⁄ Vm, auf der
einen Seite, und mein ΔH auf der anderen Seite. Es ergibt sich für
meine Leistung:
P = ΔH⋅δ⋅V ⁄ Vm
Wenn mensch da die Einheiten glattzieht und bedenkt, dass ppm/s
eigentlich 1e-6/s ist, muss mensch was rechnen wie:
Ich hatte neulich versprochen, ein paar Worte zu Zweifeln am
repräsentativen Modell zu sagen, die sich aus der Informationstheorie
speisen. Dazu braucht es zunächst einen Begriff von Information, und um
den definieren zu können, ein Modell von Nachrichtenübertragung, in
diesem Fall etwa: eine Wahl überträgt die Wünsche zur Organisation der
Gesellschaft von Wählenden an die Macht.
Information: Nachrichten in Bits gemessen
Wie viel Information steckt nun in den Wunschlisten dieses Modells?
Nun, Information – gemessen in Bit – lässt sich recht anschaulich
definieren als die Zahl der ja/nein-Fragen, die mensch bei optimaler
Fragestrategie im schlimmsten Fall stellen muss, um einer Menge
verschiedener Nachrichten eine ganz bestimmte Nachricht rauszufiltern.
Wenn die Wahl heißt „Parkplätze zu Parks?“ und sonst nichts, reicht eine
solche Frage, und mithin wird ein Bit Information übertragen. Kommt als
zweite Frage hinzu „Lebkuchen subventionieren?“, braucht es zwei Fragen
und mithin Bit, um die kompletten Wünsche zu übertragen.
Wenn mensch das fortführt, ergibt sich: Für ein komplettes Programm mit
n binären Entscheidungen braucht es naiv erstmal n bit Information.
Diese n bit reichen aus, um 2n Programme zu kodieren,
nämlich alle Kombinationen von ja/nein Entscheidungen über die n
Fragen hinweg. Wenn es nur die Parkplätze und die Lebkuchen von oben
gäbe, wären das beispielsweise:
für Parkplätze/für Lebkuchen
für Parkplätze/gegen Lebkuchen
gegen Parkplätze/für Lebkuchen
gegen Parkplätze/gegen Lebkuchen
Nochmal: Mit n bits kann ich 2n verschiedene Nachrichten
(hier also Programme oder Wunschzettel) auseinanderhalten.
Das kann mensch jetzt rückwärts aufziehen. Um den Informationsgehalt
einer Nachricht herauszubekommen, muss mensch sehen, wie viele
verschiedene Nachrichten es gibt und diese Zahl dann als 2x
darstellen. Das x in diesem Ausdruck ist der Informationsgehalt in
Bit. Das x braucht mensch nicht zu raten, denn es ist nichts anderes
als der Logarithmus der Zahl der verschiedenen Nachrichten, genauer der
Zweierlogarithmus (meist als ld geschrieben). Wenn euer Taschenrechner
den nicht kann: ld x = ln x/ln 2 – aber letztlich kommts nicht so
drauf an, denn ln 2 ist nicht viel was anderes als eins. Profis
schenken sich sowas.
Pop Quiz: Wie viele Bits braucht ihr, um eine von 1000 Nachrichten
rauszufummeln? (Ungefähr 10). Wie viele, um eine von 1'000'000'0000 zu
kriegen? (Ungefähr 30; ihr seht, der Logarithmus wächst sehr langsam).
Nicht gleichverteilt, nicht unabhängig
In Wahrheit ist das mit der Information etwas komplizierter. Stellt euch
vor, zur Parkplatz-Lebkuchen-Programmatik käme jetzt die Frage „Vorrang
für FußgängerInnen auf der Straße?“. Wer die Antwort einer Person auf
die Parkplatz-Frage kennt, dürfte recht zuverlässig vorhersagen können,
wie ihre Antwort auf die Vorrang-Frage aussehen wird.
Mathematisch gesprochen sind die beiden Entscheidungen nicht unabhängig,
und das führt dazu, dass mensch durch geschicktes Fragen im Schnitt
deutlich weniger als drei Fragen brauchen wird, um das komplette
Programm mit den drei Antworten rauszukriegen, etwa, indem mensch
zusammen nach Parkplätzen und Vorrang fragt. Dieser Schnitt liegt
irgendwo zwischen 2 und 3 – für die Mathematik (und den Logarithmus) ist
es kein Problem, Fragen auch hinter dem Komma zu zählen: 2.3 bit,
vielleicht (ich bin immer wieder erstaunt, wie viele Menschen noch
gewillt sind, Parkplätze hinzunehmen, während der Vorrang für
FußgängerInnen doch hoffentlich unbestrittener Konsens in der
zivilisierten Welt ist[1]).
Ein ähnlicher Effekt ergibt sich, wenn bestimmte Antworten viel
wahrscheinlicher sind als andere. Wenn es z.B. zwei Texte A und B gibt,
die jeweils 45% der Nachrichten ausmachen, bekomme ich in 90% der Fälle
die Nachricht in nur zwei Fragen raus („Eins von A oder B?“, worauf zu
90% schlicht „A?“ reicht, um die gewählte Nachricht rauszukriegen), ganz
egal, ob es noch 10 oder 10'000'000'000 andere Nachrichten gibt.
Die Sache mit „Information in bit rechnest du als den Logarithmus der
Zahl der verschiedenen Nachrichten aus“ gibt also eine Obergrenze für
den Informationsgehalt. Sie wird erreicht wenn die Nachrichten
gleichverteilt sind (und in gewissem Sinn in sich unabhängig; besser
verständlich wird der Unabhängigkeits-Teil, wenn mensch nicht eine
Nachricht, sondern eine Folge von Nachrichten betrachtet). Wer wissen
will, wie das richtig geht, sei auf die Wikipedia verwiesen.
Das ganz einfache Modell unabhängiger, gleichverteilter Nachrichten von
oben gilt in der Regel nicht – in natürlichsprachigen Texten sind z.B.
die Buchstabenhhäufigkeiten drastisch verschieden (Scrabble-SpielerInnen
kennen das), und es gibt allerlei Regeln, in welchen Reihenfolgen
Buchstaben kommen können. Eine erstaunlich effektive Schätzung für den
Informationsgehalt von Nachrichten ist übrigens, einfach mal gzip laufen
zu lassen: Für diesen Text bis hierher kommt da 2090 Bytes (á 8 bit)
raus, während er auf der Platte 4394 Bytes braucht: Was gzip da
geschluckt hat, sind die Abweichungen von Gleichverteilung und
Unabhängigkeit, die so ein dummes Computerprogramm leicht finden kann.
Klar: auch die 2090 ⋅ 8 bit sind höchst fragwürdig als Schätzung für den
Informationsgehalt bis hier. Wenn die Nachrichtenmenge „alle bisherigen
Blogposts hier“ wäre (davon gibt es etwas weniger als 100), wären es nur
sechseinhalb Bit, ist sie „Zeug, das Anselm Flügel schreibt“, wäre es
zwar mehr, aber immer noch klar weniger als die 16720 Bit, trotz aller
Exkurse über Information und Logarithmen[2]. Informationsgehalt ist
nur im Kontext aller anderen möglichen Nachrichten gut definiert. Und
dem, was bei EmpfängerInnen ankommt, was bei diesem Post für SchurkInnen
auch nur ein Bit sein kann: „Alles Mist“.
Wie viele bit in einem Wahlzettel?
Euer Wahlzettel bei der Bundestagswahl neulich dürfte so um die zwei Mal
sechzehn Möglichkeiten gehabt haben, etwas anzukreuzen. Im besten Fall
– unabhängige Parteien mit gleichen Erfolgschancen – könntet ihr also 8
bit übertragen mit euren zwei Kreuzen. In Wahrheit sorgt schon die
5%-Hürde dafür, dass es allenfalls 8 Listen gibt, die in der Logik
repräsentativer Regierungsbildung wählbar sind, und dann noch vielleicht
eineN von vier DirektkandidatInnen, die auch nur irgendeine Chance
haben. Zusammen, schätze ich (immer noch optimistisch), vielleicht drei
Bit.
Vergleicht das mit den Nachrichten, die so eine Regierung aussendet: So
redundant und erwartbar da auch viel sein mag, kein gzip dieser Welt
wird die Gesetze, Verordnungen und Exekutivakte von Regierung und
Parlament in der letzten Legislaturperiode auf irgendwas unter 100
Megabyte bringen können, selbst wenn es, das Kompressionsprogramm,
Politik und Jura schon kann. Gesetze wie das zur
Bestandsdatenauskunft etwa sind völlig beliebig: sie setzen
einfach Wünsche der Polizeien um und kümmern sich weder um Verfassungen
noch um Sinn, und sie würden deutlich anders aussehen, wenn bei BKA,
Innenministerium und Polizeiverbänden gerade andere Individuen am Werk
gewesen wären. Beliebigkeit ist aber nur ein anderes Wort für
Unabhängigkeit und Gleichverteilung. Die 100 Megabyte werden also eine
harte untere Grenze sein.
Bei einem Verhältnis von rund drei Bit rein zu mindestens 100
Megabyte raus (in Worten: eins zu zweihunderfünfzig Millionen, weit
unter der Gewinnchance beim 6 aus 49-Lotto) ist evident, dass Wahlen
gewiss kein „Hochamt der Demokratie“ sind; ihr Einfluss auf konkrete
Entscheidungen wäre auch dann minimal, wenn bei realen Wahlen viel
entschieden würde.
Was natürlich nicht der Fall ist. Niemand erwartet ernsthaft, dass eine
Wahl irgendetwas ändert an wesentlichen Politikfragen, hierzulande
beispielsweise Reduzierung des Freihandels, Zurückrollen von
Privatisierungen, Abschaffung des Militärs, Befreiung der Menschen von
der Autoplage, weniger autoritäres Management sozialer Spannungen (z.B. durch
weniger übergriffige Polizeigesetze), weniger blutige Staatsgrenzen,
weniger marktförmige Verteilung von Boden, kein Wachstum bis zum Kollaps und so
weiter und so fort; praktisch die gesamte Bevölkerung hat in allen
diesen Punkten die bestehende Regierungspolitik bestätigt, obwohl sie
manifest ihren Interessen oder zumindest ihrem moralischen Empfinden
widerspricht.
Warum Wahlen wichtig sind
Entsprechend tut in den gegenwärtigen Koalitionsverhandlungen nicht mal
wer so, als ginge es um mehr als um Selbstverständlichkeiten wie
Tempolimits auf Autobahnen (stellt euch mal kurz vor, wie unfassbar
bizarr das auf in 100 Jahren eventuell noch lebende Menschen wirken
muss).
Was nicht heißt, dass Wahlen nicht wichtig sind. Die ganz zentrale
Funktion von Wahlen dieser Art hat neulich im Deutschlandfunk ein
gewisser Andrej Kolesnikow am Beispiel Russland erläutert:
Die Wahl soll vor allem das Staatsmodell legitimieren, das sich in
Russland entwickelt hat. Sie ist deshalb für die Staatsmacht wichtiger
als für die Bürger. Die Wahl soll den Menschen auch vor Augen führen,
dass die Staatsmacht weiterhin über eine Mehrheit verfügt und dass es
besser ist, sich dieser Mehrheit anzuschließen, oder, wenn jemand
unzufrieden ist, wenigstens ruhig zu bleiben und seine Unzufriedenheit
für sich zu behalten.
Wer aus ein paar Schritt Entfernung auf die hiesigen Verhältnisse
blickt, wird diese Beobachtung auch hierzulande im Wesentlichen
bestätigt sehen. Versteht mich nicht falsch: Das ist durchaus wichtig.
Ein delegitimierter Staat geht schnell in eine kaputte Gesellschaft
über, solange wir es nicht hinbekommen, Menschen auch ohne
Nationalgeklingele zu rationalem, sprich kooperativem Verhalten zu
bekommen (nicht, dass ich glaube, dass das sehr schwer wäre; es würde
aber jedenfalls andere Schulen brauchen). Etwas von dieser
Delegitimation sehen wir schon hier, verglichen mit den 1980er Jahren
jedenfalls, etwas mehr in den USA, und noch viel mehr im, sagen wir,
Libanon. Und etwas weniger als hier in Dänemark oder Schweden. Ich
mache kein Geheimnis daraus, wo auf diesem Spektrum ich lieber leben
will.
Allerdings: diese Legitimationsfunktion der Wahl funktioniert weitgehend
unabhängig von politischer Partizipation. Auch die finstersten
autoritären Regimes halten Wahlen ab und wollen diese in aller Regel
auch recht ehrlich …
Keine Zikaden in Weinheim: das Eichhörnchen im dortigen Arboretum
konnte noch munter turnen.
Wieder mal eine Tier-Geschichte aus Forschung aktuell am
Deutschlandfunk: In der Sendung vom 25.5. gab es ein Interview mit
Zoe Getman-Pickering, die derzeit eine Massenvermehrung von Zikaden
an der US-Ostküste beobachtet. Im Gegensatz zu so mancher
Heuschreckenplage kam die nicht unerwartet, denn ziemlich verlässlich
alle 17 Jahre schlüpfen erstaunliche Mengen dieser Insekten und
verwandeln das Land in ein
All-You-Can-Eat-Buffet. Es gibt schon Berichte von Eichhörnchen und
Vögeln, die so fett sind, dass sie nicht mehr richtig laufen können.
Die sitzen dann einfach nur herum und fressen eine Zikade nach der
anderen.
Es war dieses Bild von pandaähnlich herumhockenden Eichhörnchen, die
Zikaden in sich reinstopfen eine einE Couch Potato Kartoffelchips, das
meine Fantasie angeregt hat.
Gut: Gereizt hat mich auch die Frage, wo auf der Fiesheitssakala ich
eigentlich einen intervenierenden Teil der Untersuchung ansiedeln würde,
der im Inverview angesprochen wird: Um
herauszufinden [ob die Vögel noch Raupen fressen, wenn sie Zikaden in
beliebigen Mengen haben können], haben wir auch künstliche Raupen aus
einem weichen Kunststoff. Die setzen wir auf die Bäume. Und wenn sich
dann Vögel für die künstlichen Raupen interessieren, dann picken sie
danach
und sind bestimmt sehr enttäuscht, wenn sie statt saftiger Raupen
nur ekliges Plastik schmecken. Na ja: verglichen mit den abstürzenden
Fledermäuse von neulich ist das sicher nochmal eine Stufe harmloser.
Balsam für die Ethikkommission, denke ich. Das Ergebnis übrigens: Ja,
die Zikadenschwemme könnte durchaus eine Raupenplage nach sich ziehen.
Die Geschichte hat ein Zuckerl für Mathe-Nerds, denn es ist ja
erstmal etwas seltsam, dass sich die Zikaden ausgerechnet alle 17 Jahre
verabreden zu ihren Reproduktionsorgien. Warum 17? Bis zu diesem
Interview war ich überzeugt, es sei in ÖkologInnenkreisen Konsens, das
sei, um synchronen Massenvermehrungen von Fressfeinden auszuweichen,
doch Getman-Pickering hat mich da eines Besseren belehrt:
Aber es gibt auch Theorien, nach denen es nichts mit den Fressfeinden
zu tun hat. Sondern eher mit anderen Zikaden. Der Vorteil wäre dann,
dass die Primzahlen verhindern, dass unterschiedliche Zikaden zur
gleichen Zeit auftreten, was dann schlecht für die Zikaden sein
könnte. Und dann gibt es auch noch einige Leute, die es einfach nur
für einen Zufall halten.
Das mit dem Zufall fände ich überzeugend, wenn bei entsprechenden Zyklen
in nennenswerter Zahl auch nichtprime Perioden vorkämen. Und das mag
durchaus sein. Zum Maikäfer zum Beispiel schreibt die Wikipedia:
„Maikäfer haben eine Zykluszeit von drei bis fünf, meist vier Jahren.“
Aua. Vier Jahre würden mir eine beliebig schlechte Zykluszeit
erscheinen, denn da würde ich rein instinktiv Resonanzen mit allem und
jedem erwarten. Beim Versuch, diesen Instinkt zu quantifizien, bin ich
auf etwas gestoßen, das, würde ich noch Programmierkurse geben, meine
Studis als Übungsaufgabe abbekommen würden.
Die Fragestellung ist ganz grob: Wenn alle n Jahre besonders viele
Fressfeinde auftreten und alle m Jahre besonders viele Beutetiere, wie
oft werden sich die Massenauftreten überschneiden und so den
(vermutlichen) Zweck der Zyklen, dem Ausweichen massenhafter
Fressfeinde, zunichte machen? Ein gutes Maß dafür ist: Haben die beiden
Zyklen gemeinsame Teiler? Wenn ja, gibt es in relativ kurzen
Intervallen Jahre, in denen sich sowohl Fressfeinde als auch Beutetiere
massenhaft vermehren. Haben, sagen wir, die Eichhörnchen alle 10 Jahre
und die Zikaden alle 15 Jahre Massenvermehrungen, würden die
Eichhärnchen alle drei Massenvermehrungen einen gut gedeckten Tisch und
die Zikaden jedes zweite Mal mit großen Eichhörnchenmengen zu kämpfen
haben.
Formaler ist das Problem also: berechne für jede Zahl von 2 bis N die
Zahl der Zahlen aus dieser Menge, mit denen sie gemeinsame Teiler hat.
Das Ergebnis:
Mithin: wenn ihr Zikaden seid, verabredet euch besser nicht alle sechs,
zwölf oder achtzehn Jahre. Die vier Jahre der Maikäfer hingegen sind
nicht so viel schlechter als drei oder fünf Jahre wie mir mein Instinkt
suggeriert hat.
Ob die Verteilung von Zyklen von Massenvermehrungen wohl irgendeine
Ähnlichkeit mit dieser Grafik hat? Das hat bestimmt schon mal wer
geprüft – wenn es so wäre, wäre zumindest die These vom reinen Zufall in
Schwierigkeiten.
Den Kern des Programms, das das ausrechnet, finde ich ganz hübsch:
def get_divisors(n):
return {d for d in range(2, n//2+1) if not n%d} | {n}
def get_n_resonances(max_period):
candidates = list(range(2, max_period+1))
divisors = dict((n, get_divisors(n)) for n in candidates)
return candidates, [
sum(1 for others in divisors.values()
if divisors[period] & others)
for period in candidates]
get_divisors ist dabei eine set comprehension, eine relativ neue
Einrichtung von Python entlang der altbekannten list comprehension:
„Berechne die Menge aller Zahlen zwischen 2 und N/2, die N ohne Rest
teilen – und vereinige das dann mit der Menge, in der nur N ist, denn
N teilt N trivial. Die eins als Teiler lasse ich hier raus, denn
die steht ohnehin in jeder solchen Menge, weshalb sie die Balken in der
Grafik oben nur um jeweils eins nach oben drücken würde – und sie würde,
weit schlimmer, die elegante Bedingung divisors[period] & others
weiter unten kaputt machen. Wie es ist, gefällt mir sehr gut, wie
direkt sich die mathematische Formulierung hier in Code abbildet.
Die zweite Funktion, get_n_resonances (vielleicht nicht der beste
Name; sich hier einen besseren auszudenken wäre auch eine wertvolle
Übungsaufgabe) berechnet zunächt eine Abbildung (divisors) der
Zahlen von 2 bis N (candidates) zu den Mengen der Teiler, und dann
für jeden Kandidaten die Zahl dieser Mengen, die gemeinsame Elemente mit
der eigenen Teilermenge haben. Das macht eine vielleicht etwas dicht
geratene generator expression. Generator expressions funktionieren auch
wie list comprehensions, nur, dass nicht wirklich eine Liste erzeugt
wird, sondern ein Iterator. Hier spuckt der Iterator Einsen aus, wenn
die berechneten Teilermengen (divisors.values()) gemeinsame Elemente
haben mit den Teilern der gerade betrachteten Menge
(divisors[period]). Die Summe dieser Einsen ist gerade die gesuchte
Zahl der Zahlen mit gemeinsamen Teilern.
Das Ergebnis ist übrigens ökologisch bemerkenswert, weil kleine
Primzahlen (3, 5 und 7) „schlechter“ sind als größere (11, 13 und 17).
Das liegt daran, dass bei einem, sagen wir, dreijährigen Zyklus dann
eben doch Resonanzen auftauchen, nämlich mit Fressfeindzyklen, die
Vielfache von drei sind. Dass 11 hier so gut aussieht, folgt natürlich
nur aus meiner Wahl von 20 Jahren als längsten vertretbaren Zyklus. Ganz
künstlich ist diese Wahl allerdings nicht, denn ich würde erwarten, dass
allzu lange Zyklen evolutionär auch wieder ungünstig sind, einerseits,
weil dann Anpassungen auf sich ändernde Umweltbedingungen zu
langsam stattfinden, andererseits, weil so lange Entwicklungszeiten rein
biologisch schwierig zu realisieren sein könnten.
Für richtig langlebige Organismen – Bäume zum Beispiel – könnte diese
Überlegung durchaus anders ausgehen. Und das mag eine Spur sein
im Hinblick auf die längeren Zyklen im Maikäfer-Artikel der
Wikipedia:
Diesem Zyklus ist ein über 30- bis 45-jähriger Rhythmus überlagert.
Die Gründe hierfür sind nicht im Detail bekannt.
Nur: 30 und 45 sehen aus der Resonanz-Betrachtung jetzt so richtig
schlecht aus…
Via Forschung aktuell vom 5. Mai (ab 18:35) bin ich über ein
weiteres Beispiel für vielleicht nicht mehr ganz vertretbare, aber
leider doch sehr spannende Experimente an Tieren gestolpert: Eran
Amichai und Yossi Yovel von der Uni Tel Aviv und dem Dartmouth
College haben festgestellt, dass (jedenfalls) Weißrandfledermäuse eine
angeborene Vorstellung von der Schallgeschwindigkeit haben
(„Echolocating bats rely on innate speed-of-sound reference“,
https://doi.org/10.1073/pnas.2024352118; ich glaube, den Volltext gibts
außerhalb von Uninetzen nur über scihub).
Die beeindruckendsten Fledertiere, die ich je gesehen habe: Große
Flughunde, die abends in großen Mengen am Abendhimmel von Pune ihre Runden
drehen. Im Hinblick auf die Verwendung dieses Fotos bei diesem
Artikel etwas blöd: Diese Tiere machen gar keine Echoortung.
Das ist zunächst mal überraschend, weil die Schallgeschwindigkeit in
Gasen und Flüssigkeiten von deren Dichte abhängig ist und sie damit für
Fledermäuse je nach Habitat, Wetter und Höhe schwankt. Für ideale Gase
lässt sie sich sogar recht leicht ableiten, und das Ergebnis ist: c =
(κ p/ρ)½, wo c die Schallgeschwindigkeit, p der Druck und
ρ die Dichte ist. Den Adiabatenexponent κ erklärt bei Bedarf die
Wikipedia, er ändert sich jedenfalls nur, wenn die Chemie des Gases
sich ändert. Luft ist, wenn ihr nicht gerade in Hochdruckkammern steht
(und da würdet ihr nicht lange stehen), ideal genug, und so ist die
Schallgeschwindigkeit bei konstantem Luftdruck in unserer Realität in
guter Näherung umgekehrt proportional zur Wurzel der Dichte der Luft.
Nun hat Helium bei Normalbedingungen eine Dichte von rund 0.18 kg auf
den Kubikmeter, während Luft bei ungefähr 1.25 kg/m³ liegt (Faustregel:
1 m³ Wasser ist rund eine Tonne, 1 m³ Luft ist rund ein Kilo; das hat
die Natur ganz merkfreundlich eingerichtet). Der Adiabatenexponent für
Helium (das keine Moleküle bildet) ist zwar etwas anders als der von
Stickstoff und Sauerstoff, aber so genau geht es hier nicht, und deshalb
habe ich 1/math.sqrt(0.18/1.25) in mein Python getippt; das Ergebnis
ist 2.6: grob so viel schneller ist Schall in Helium als in Luft (wo es
rund 300 m/s oder 1000 km/h sind; wegen des anderen κ sind es in Helium
bei Normalbedingungen in Wahrheit 970 m/s).
Flattern in Heliox
Das hat für Fledermäuse eine ziemlich ärgerliche Konsequenz: Da sich die
Tiere ja vor allem durch Sonar orientieren und in Helium die Echos 3.2
mal schneller zurückkommen würden als in Luft, würden an Luft gewöhnte
Fledermäuse glauben, all die Wände, Wanzen und Libellen wären 3.2-mal
näher als sie wirklich sind. Immerhin ist das die sichere Richtung,
denn in einer Schwefelhexaflourid-Atmosphäre (um mal ein Gas mit einer
sehr hohen Dichte zu nehmen, ρ = 6.6 kg/m³) ist die
Schallgeschwindigkeit nur 44% von der in Luft (wieder ignorierend, dass
das Zeug einen noch anderen Adiabatenexponenten hat als He,
O2 oder N2), und die Tiere würden sich noch zwanzig
Zentimeter von der Wand weg wähnen, wenn sie in Wirklichkeit schon mit
den Flügeln an sie anschlagen könnten – die Weißrandfledermäuse, mit
denen die Leute hier experimentiert haben, haben eine Flügelspannweite
von rund 20 Zentimetern (bei 10 Gramm Gewicht!). Wer mal Fledermäuse hat
fliegen sehen, ahnt, dass das wohl nicht gut ausgehen würde.
Aber das ist natürlich Unsinn: In Schwefelhexaflourid ist die Trägheit
des Mediums erheblich größer, und das wird die Strömungseigenschaften
und damit den dynamischen Auftrieb der Fledermausflügel drastisch
ändern[1]. Was auch umgekehrt ein Problem ist, denn in einer
Helium-Atmosphäre mit der um fast einen Faktor 10 geringeren
spezifischen Trägheit funktionieren die Fledermausflügel auch nicht
ordentlich. Ganz zu schweigen davon natürlich, dass die Tiere darin
mangels Sauerstoff ersticken würden.
Deshalb haben Amichal und Co mit Luft-Helium-Mischungen („Heliox“)
experimentiert. Dabei haben sie die Schallgeschwindigkeit in einigen
Experimenten um 27% erhöht, in der Regel aber nur um 15%[2].
Dass die beiden zwei Helioxmischungen am Start hatten, wird wohl
einerseits daran liegen, dass die 15% allenfalls knapp über der
natürlichen Schwankungsbreite der Schallgeschwindigket durch Temperatur,
Luftdruck und Luftfeuchtigkeit (die gehen ja auch alle auf die Dichte)
liegen. Mit 27% aber hatten die Fledermäuse doch zu große Probleme mit
dem Fliegen, und das wäre keine Umwelt, in der kleine Fledermäuse
aufwachsen sollten.
Im Artikel schreiben die Leute dazu etwas hartherzig:
“Category I” [von Fehlflügen] included flights in which the bat
clearly did not adjust motor responses to the lessened lift and landed
on the floor less than 50 cm from takeoff.
– was eine recht zurückhaltende Umschreibung von „Absturz“ ist. Einige
Tiere hatten davon schnell die Nase voll:
Treatments [nennt mich pingelig, aber die Bezeichnung der
Experimente als „Behandlung“ ist für mich schon auch irgendwo am
Euphemismus-Spektrum] were completed in one session with several
exceptions: two individuals refused to fly at 27% SOS after 2 d, and
those treatments were therefore done in two sessions each, separated
by 1 d in normal air.
Unter diesen Umständen liegt auf der Hand, dass „Köder gefangen und
gefressen“ kein gutes Kriterium ist dafür, ob sich die Fledermäuse auf
Änderungen der Schallgeschwindigkeit einstellen können – viel
wahrscheinlicher waren sie einfach mit ihren Flugkünsten am Ende.
Tschilpen und Fiepen
Es gibt aber einen Trick, um die Effekte von Wahrnehmung und
Fluggeschick zu trennen. Jagende Fledermäuse haben nämlich zwei Modi der
Echoortung: Auf der Suche und aus der Ferne orten sie mit relativ lang
auseinanderliegenden, längeren Pulsen, also etwa Tschilp – Tschilp –
Tschilp. In der unmittelbaren Umgebung der Beute (in diesem Fall so ab
40 cm wahrgenommener Entfernung) verringern sie den Abstand zwischen den
Pulsen, also etwa auf ein Fipfipfipfip. Auf diese Weise lässt sich
recht einfach nachvollziehen, welchen Abstand die Tiere selbst messen,
wobei „recht einfach“ hier ein Aufnahmegerät für Ultraschall
voraussetzt. Wenn sie in zu großer Entfernung mit dem Fipfipfip
anfangen, nehmen sie die falsche Schallgeschwindigkeit an.
Bei der Auswertung von Beuteflügen mit und ohne Helium stellt sich, für
mich sehr glaubhaft, heraus, dass Fledermäuse auch nach längerem
Aufenhalt in Heliox immer noch unter Annahme der Schallgeschwindigkeit
in (reiner) Luft messen: Diese muss ihnen also entweder angeboren sein,
oder sie haben sie in ihrer Kindheit fürs Leben gelernt.
Das Hauptthema der Arbeit ist die Entscheidung zwischen diesen
beiden Thesen – nature or nurture, wenn mensch so will. Deshalb haben
Amichal und Co 24 Fledermausfrauen aus der Wildnis gefangen, von
denen 16 schwanger waren und die schließlich 18 Kinder zur Welt gebracht
haben. Mütter und Kinder mussten für ein paar Wochen im Labor leben, wo
sie per Kunstlicht auf einen für die Wissenschaftler_innen bequemen
Tagesrhythmus gebracht wurden: 16 Stunden Tag, 8 Stunden Nacht, wobei
die Nacht, also die Aktivitätszeit der Tiere, zwischen 10 und 17 Uhr
lag. Offenbar haben BiologInnen nicht nennenswert andere Bürozeiten als
AstronomInnen.
Mit allerlei Mikrofonen wurde überprüft, dass die Tiere während ihres
Tages auch brav schliefen; auf die Weise musste die Heliox-Mischung
nur während der Arbeitszeit aufrechterhalten werden, während die Käfige
in der Nacht lüften konnten, ohne dass die Heliox-Fledermäuse sich
wieder an richtige Luft hätten gewöhnen können.
Jeweils acht Fledermausbabys wuchsen in normaler Luft bzw. Heliox-15
auf, den doch recht argen Heliox-27-Bedingungen wurden sie nur für
spätere Einzelexperimente ausgesetzt. Dabei hat sich gezeigt, dass die
Kinder unabhängig von ihrer Kindheitsatmosphäre in gleicher Weise orten:
Der Umschlag von Tschilp-Tschip nach Fipfip passierte jeweils bei
gleichen Schall-Laufzeiten unabhängig von der wirklichen Distanz.
Warum tun sie das?
Diese Befunde sind (aus meiner Sicht leider) nur recht schwer
wegzudiskutieren, das wirkt alles recht wasserdicht gemacht. Was die
Frage aufwirft, warum die Tiere so hinevolutioniert sind. Amichal und
Yovel spekulieren, ein Einlernen der Schallgeschwindigkeit habe sich
deshalb nicht herausgebildet, weil Weißrandfledermäuse in der Wildnis
sehr schnell erwachsen werden und selbst jagen müssen, weshalb es nicht
genug Zeit zum Üben und Lernen gebe.
Das wäre wohl testbar: Ich rate jetzt mal, dass größere (oder andere)
Fledermäuse längere Kindheiten haben. Vielleicht lernen ja die das?
Oder vielleicht hängt die festverdrahtete Physik auch daran, dass
Weißrandfledermäuse eigentlich durchweg mit ziemlich konstanter
Schallgeschwindigkeit leben? Dann müsste das etwa bei mexikanischen
Bulldoggfledermäusen (die aus dem Bacardi-Logo) anders sein, für die
der Artikel Flughöhen von 3 km zitiert.
Auch wenn die Sache mit dem Einsperren und Abstürzenlassen von
Fledermäusen schon ein wenig gruselig ist: die Wortschöpfungen
„Luftwelpen“ und „Helioxwelpen“ haben mich beim Lesen schon angerührt –
wobei „Welpe“ für das Original „pup“ eingestandermaßen meine
Übersetzung ist. Gibt es eigentlich einen deutsches Spezialausdruck für
„Mauskind“?
Abschließend doch noch ein Schwachpunkt: In der Studie habe ich nichts
zum Einfluss des Mediums auf die Tonhöhe der Rufe gelesen[3]. Den
muss es aber geben – die Demo von PhysiklehrerInnen, die Helium einatmen
und dann mit Micky Maus-Stimme reden, hat wohl jedeR durchmachen
müssen. Die Schallgeschwindigkeit ist ja einfach das Produkt von
Frequenz und Wellenlänge, c = λ ν, und da λ hier durch die Länge der
Stimmbänder (bei entsprechender Anspannung des Kehlkopfs) festliegen
sollte, müsste die Frequenz der Töne in 27%-Heliox eben um einen Faktor
1.27, also ungefähr 5/4, niediger liegen. In der Musik ist das die große
Terz, etwa das Lalülala einer deutschen Polizeisirene. Und jetzt frage
mich mich natürlich, ob das die Fledermäuse nicht merken …
Wenn PhysikerInnen Bücher über Molekularbiologie lesen (so wie ich
derzeit dann und wann), sollten sie sich wahrscheinlich öfter mal
schämen, weil sie Dinge faszinieren, die Menschen krankmachen. Aber
andererseits weht ein Geist der Einsicht, wenn makroskopische, fast
alltägliche Phänomene atomare Grundlagen haben.
Gerade habe ich etwas über erbliche Hypomagnesiämie gelesen, also
einen genetisch bedingten Magnesiummangel, speziell das
Meier-Blumberg-Imahorn-Syndrom (und wieder mal haut mich um, dass in
der Wikipedia über fast alles etwas steht, auch wenn dieser spezielle
Artikel mich gewiss nicht fasziniert hätte).
Wesentliches Symptom dieser Krankheit sind Krämpfe, wie vielleicht
erwartbar bei Magnesiummangel; doch können die Betroffenen Magnesium zu
sich nehmen, so viel sie wollen, die Krämpfe bleiben. Das liegt daran,
dass die Niere ohne weitere Maßnahmen endlos Magnesium verliert und es
deshalb im Normalbetrieb fleißig rückresorbiert, es also aus dem in der
Produktion befindlichen Urin wieder in den Körper zurückdiffundieren
lässt. Ein klarer Hinweis auf eine Störung in dem System: Bei den
Betroffenen geht der sehr niedrige Magnesiumspiegel im Blut mit einem
sehr hohen Magnesiumspiegel im Urin einher.
Die Rückresorption nun funktioniert bei der erblichen Hypomagnisiämie
nicht, weil die Zellen im Nieren-Epithel – also so einer Art innerer
Haut, die Blut und Urin trennt – zu fest zusammenkleben. Zellen solcher
Epithelien nämlich kleben sich ziemlich weit an der Außenseite („apikal“
– allein die Terminologie begeistert mich ja immer) fest zusammen.
„Tight Junction“ heißt das im Englischen und wohl im Wesentlichen
auch im Deutschen.
Diese Tight Junctions sehen in verschiedenen Hauttypen jeweils leicht
anders aus und können sozusagen gezielt Lücken lassen, je nach dem, wo
das Epithel ist und was die Epithelzellen noch so alles tun können und
wollen. Im Magen z.B. sollte die apikal (Ha!) schwappende starke Säure
wohl besser gar nicht durchkommen, im Darm gehen Natriumionen auch mal
an den sortierenden Zellen vorbei direkt ins Blut.
Karikaturen der drei Sorten von Bindungsmolekülen von Tight Junctions.
Die dicken grauen Striche sind die Zellmembran, die Klebemoleküle sind
als tief in den jeweiligen Zellen verankert, damit das auch ordentlich
hält. Aus: Lodish, H. et al: Molecular Cell Biology, 5. Auflage.
In normal funktionierenden Nieren geht die Rückresorption des
Magnesiums durch die Tight Junctions, die dafür natürlich die passenden
Lücken lassen müssen. Mein Physikherz schließlich schlug höher weil
„wir“ (also… „die Menschheit“) ganz gut verstehen, was da molekular
passiert. Im Groben machen drei Gruppen von Proteinen das
Montagematerial an den Tight Junctions aus: Occludine und Claudine
(die im Wesentlichen Schlaufen aus der Zellmembran heraus bilden) sowie
antikörperähnliche JAMs („junction adhesion molecules“; ich glaube,
die haben es noch nicht in die deutsche Wikipedia geschafft), die im
Gegensatz dazu eher lange hakenartige Strukturen bilden.
Die spezifischen Formen dieser Moleküle bestimmen, was durch die Tight
Junctions durchkann, wenn sie sich erstmal mit ihren Gegenstücken der
Nachbarzellen gefunden haben. Im Fall der erblichen Hypomagnesiämie nun
ist sogar klar, welches Molekül genau die Löcher für die Magnesiumionen
lässt. Es trägt den vielleicht etwas enttäuschenden Namen
Claudin-19, und wir wissen auch, wo das kodierende Gen liegt: Chromosom
1, p34.2. Eine ungünstige Mutation dort, und ihr habt in einem Fort
Krämpfe.
Von Muskelkrämpfen zu Atomphysik in ein paar relativ kleinen Schritten:
Ich sollte Molekularbiologe werden.
Allerdings: Die Rolle der Claudine wurde mit Knock-out-Mäusen geklärt.
Bäh. Das ist ja so schon schlimm genug, aber die Vorstellung, was für
Wesen herauskommen, wenn jemand den Zusammenhalt von Epithelien
ausschaltet: Oh Grusel. Für mich: Dann doch lieber zurück zu den Sternen.
Aber wo Christine Westerhaus es in dem Beitrag schon gesagt hat, konnte
ich einer neuen Tiergeschichte nicht widerstehen: Von Lachsen und
Eltern. Aktualität gewinnt das, weil ich klar nicht der Einzige bin,
dem es etwas merkwürdig vorkommt, wie fast alle Eltern auf der einen
Seite ostentativ darauf bestehen, ihre Kinder seien ihr Ein und Alles,
auf der anderen Seite aber die Große Kinderverdrossenheit von
Corona ganz öffentlich zelebrieren. Mal ehrlich: Wäre ich jetzt Kind,
wäre ich angesichts des herrschenden Diskurses von geschlossenen Schulen
als etwas zwischen Menschenrechtsverletzung und Katastrophe schon etwas
eingeschnappt.
Allerdings: vielleicht ist das ja gar keine Kinderverdrossenheit,
sondern Verdrossenheit mit der Lohnarbeit, auf die mensch aber noch
weniger schimpfen darf als auf die Kinder?
Wie auch immer, ernsthaft beunruhigt waren Lachse am NINA in
Trondheim, als eine Klasse lärmender Kinder um ihr Aquarium herumtobte.
Und dieses Mal sind sie belauscht worden. So klingen vergnügte Lachse:
Und so welche mit tobenden Kindern:
Wie es in der Sendung heißt: „They think school kids are scary.“ Sie.
Die Lachse.
PSA: Wenn euer Browser keine Lachstöne abspielt, beschwert euch bei
dessen Macher_innen: Ogg Vorbis sollte im 3. Jahrtausend wirklich alles
dekodieren können, was Töne ausgibt.