Tag Corona

  • Nacktscannen oder Strafen: Von den Grenzen der Freiwilligkeit

    Ein weiterer Grund, Viren zu loben: Ich habe es geschafft, fünf Jahre und einen Monat nicht zu fliegen, was im Wissenschaftsbetrieb außerhalb von Pandemien nicht einfach ist. Doch ist jetzt es vorbei: es hilft nichts, wenn ich meinen Job machen will, komme ich für die nächsten drei Wochen nicht um die USA herum, und so musste ich mich heute erneut all den schon halb vergessenen unangenehmen Ritualen einer Flugreise unterziehen.

    Nicht viel Schamgefühl außer Flugscham

    In etwa das unangenehmste Ritual unter diesen ist wohl die „Sicherheitskontrolle“, wobei in Frankfurt inzwischen immerhin das Rausfummeln von Computern sowie in Abhängigkeit von der Mondphase auch anderen Elektrogeräten entfällt. Kennt wer die offizielle Erzählung, welcher Wundertechnik (vielleicht „KI“?) wir diese Erleichterung verdanken? Unter „den Umständen entsprechend gute Nachrichten“ zu rubrizieren ist auch, dass an den dämlichen Nacktscannern weiterhin zu lesen ist, mensch unterwerfe sich ihrer Analyse „freiwillig“.

    Nicht, dass ich viel Schamgefühl jenseits der Flugscham hätte, aber da die Dinger wie kaum etwas anderes für das Geschick des Sicherheits-Industriellen Komplexes stehen, der öffentlichen Hand mit autoritären Versprechen allen möglichen Tech-Plunder unterzujubeln, habe ich zumindest in der BRD immer abgelehnt, sie auf mich anwenden zu lassen. Der Preis dafür war ein Abtasten etwa der Art, die es zuvor für ein Piepen des Metalldetektors gesetzt hatte.

    Demonstrativ grobes Fingern

    Bis vor fünf Jahren haben die Abtastenden in allen vielleicht fünf Fällen, in denen ich bei dem Zirkus mitspielen musste, einen gewissen Respekt für die Entscheidung demonstriert; manchmal fragten sie sogar mit echtem Interesse nach meinen Motiven.

    Heute hingehen hat der Abtaster die Prozedur demonstrativ grob durchgeführt und spürbar viel gründlicher rumgefingert als unter den öffentlichen Narrativen („Sprengstoffgürtel und -schuhe finden“) plausibel. Durch eine (wirklich) milde Rückfrage in dieser Sache ließ sich der Abtaster hinreißen zu einem ranzenden: „Tja, wer nicht in den Scanner geht, kriegt halt das hier“. Ich denke, es ist keine Paranoia, wenn ich in seiner Rede mehr als nur einen Hauch von Strafabsicht wahrgenommen habe.

    Ein weniger schlecht gelaunter Kollege relativierte das zwar ein wenig, indem er meinte, jetzt gerade – „Israel, Palästina“ – sei viel Sorgfalt geboten. Aber dennoch: Wann genau hört Freiwilligkeit auf und wann wandelt sich Sicherheitstheater in Strafe für unbotmäßige Technikverweigerung?

    Ballern ganz offiziell im Mainstream

    Es wäre gut, diese Grenze abgesteckt zu sehen wann immer irgendein autoritärer Quatsch (sagen wir, Fingerabdrücke im Personalausweis oder personengebundene Bahnfahrkarten) daherkommt und es heißt: „Habt euch doch nicht so, es ist ja freiwillig“. Ah… Na gut, speziell bei den Fingerabdrücken im Perser hat sich die Autorilla zugegenermaßen gar nicht erst mit eskalierendem Rumnerven abgegeben und gleich den Zwang ausgerollt.

    Mir selbst nicht klar geworden bin ich darüber, ob das in irgendeiner Beziehung steht zu einer anderen Post-Corona-Änderung am Flughafen: Ballerspiele sind auch dort ganz offiziell im Mainstream angekommen. Am hochsicheren Flugsteig Z in Frankfurt sind sie inzwischen auf einem Salienzniveau mit Toiletten und Raucherzonen:

    Ein Flugsteig, in dem ein paar Leute rumlaufen.  Davor ein quadratisches Schild mit Aufschrift „Gaming“ und einem Piktogramm aus einem stilisierten Gamepad und einem Männerklo-Icon.
  • Fiebrige Einsichten, von Veit Etzold vermittelt (eine Buchkritik)

    Die Behauptung, Reisen erweitere den Horizont, ist sicher eine der abgedroscheneren Weisheiten, die einen Artikel eröffnen können. Nun: hier habe ich eine aktuelle Illustration für ihre fortbestehende Wahrheit.

    Kaum überraschend bin ich nämlich von meiner ersten großen Auslands-Dienstreise (immerhin noch ohne die Erniedrigung des Flugverkehrs) mit einer aktuellen Variante von SARS-II zurückgekommen. Diese brachte mein Immunsystem mächtig auf Touren („Calor, Dolor, Tumor, Rubor“, in meinem Fall vor allem Calor bis 39 Grad und bejammernswerte Mengen Dolor). In Summe: Ich konnte für drei Tage im Wesentlichen nichts tun als Audiobücher hören, die ich bei vergangenen Reisen aus dem ICE-Portal der Bahn aufgenommen habe. Eines davon war „Die Filiale“ des Wirtschafts-Motivationspredigers Veit Etzold.

    Vielleicht ist das Werk selbst nicht sehr bemerkenswert, doch seine Verbreitungsweise ist es: Da es bei Argon erschienen ist (und auch als richtiges Buch bei Droemer), muss es wohl durch mindestens ein Lektorat gegangen sein. Und danach muss es immer noch wer fürs ICE-Portal ausgewählt haben. Irgendwo auf diesem Weg sollte doch jemand selbst angesichts eines Promi-Autors („Promi“ nehme ich jedenfalls an; ich kannte Etzold bis jetzt nicht) die Anmerkung gewagt haben, dass die Personen der Geschichte sprechen und handeln wie auf schlecht übersetzte US-Soaps trainierte Schaufensterpuppen?

    Ich finde weiter, ein Lektorat hätte merken müssen, dass die weit mehr künstlich als kunstvoll eingebauten Versuche, zweifelhafte „Finanzprodukte“[1] zu erklären und ein paar Brocken Französisch einzustreuen, einen Cringe-Faktor haben wie Marie Louise Fischers Hausgespenst-Schmonzetten (1976 bis 1982; für Kinder der Zeit sowie Neugierige entleihbar bei libgen) aus dem Schneider-Verlag unseligen Angedenkens[2]. Auch diese versuchten es mit übermäßig beiläufig eingestreuten Bildungshäppchen zu Pferdepflege, bayrischer Geographie, Kreuzfahrtschiffen und eben auch Französisch.

    Dazu tritt das zu billig rekrutierte Personal der Geschichte, das im Wesentlichen aus relativ glücklich verheirateten, berufstätigen, einfamilienhausbewohnenden Schwabos[3] um die 40 besteht, die mit, na ja, Internetfirmen und von diesen unterwanderten Traditionsbanken um ihr liebevoll ausgebautes – wenn auch nur gemietetes – Einfamilienhaus samt kameraüberwachten Gartenzwergen ringen.

    Also schön: das mit den Gartenzwergen habe ich erfunden: In der Wirklichkeit des Buchs videoüberwacht der liebenswerte, wenn auch etwas trottelige Gatte der Bankangestellten-Heldin gleich die ganze Straße; dass Etzold schließlich die Rettung der ab Mitte des Werks außertariflich Bezahlten auf diese niederträchtige Schurkerei aufbaut und bei der Gelegenheit noch etwas Anti-DSGVO-Ressentiment unterbringt, das hätte es selbst in diesem Roman wirklich nicht gebraucht.

    Das ganze Szenario wirkt um so artifizieller, als in Etzolds Welt die Männer Handwerker (oder bestenfalls FH-Absolventen auf dem Sprung aus Besoldungsgruppe A11) sind, während die Frauen zumindest akademischen Habitus zeigen. Ich wittere da aus der ollen rechten Sorge vor der „Überakademisierung“ der Bevölkerung geborene Träume, denn in der Realität sind schichtenübergreifende Ehen in dieser Kombination sehr wahrscheinlich immer noch die große Ausnahme (da bin ich mir so sicher, dass ich keine Belege dafür suche).

    Und auch wenn ich kein Diversitätsfass aufmachen will, ist es für eine Geschichte, die in Berlin spielt, eigentlich schon ein politisches Statement, wenn als einzige erkennbare Nichtschwabos zwei tschetschenische Killer und ganz kurz ein dicker, rauchender Franzose auftreten.

    Bei aller Kritik, und nun kommt das mit der Horizonterweiterung (denn ohne Reisen hätte ich weder jetzt SARS-II eingefangen noch das Etzold-Buch gehört), hat mir das Buch eine ganze Welt in Plastorama vorgespielt: Menschen, die mit ihren KollegInnen um die Beförderung zur stellvertretenden Filialleitung konkurrieren und die Arbeitsnutzerrede vom Betriebsrat als Abhängebude erst dann kurz vergessen, wenn es wirklich brennt, deren Internet aus lauter proprietären Plattformen, aus Markennamen besteht (aus dem Kopf: Reddit, Linkedin, Xing, Instagram, Whatsapp, erstaunlicherweise aber nach meiner Erinnerung weder Amazon noch Twitter), die ständig im Auto – einem „Amarok“ zumal, wenn sie im Wald Tiere totschießen wollen[4] – umherfahren und die ansonsten ihre triste Existenz mit Grillfleisch, Rotwein, Caipirinha, Starbucks-Karamelkaffee und Bekannten aus der Muckibude aufhellen.

    Wie mir Vorleserin Verena Wolfien das alles durchaus gekonnt in mein Fieberdämmern hineintrug, kam es mir in der irritierenden Kombination von hölzerner Prosa und thermoplastischer Handlung wie eine komische und wüste Dystopie im Stil von David Lynch vor. Bis ich merkte, dass das vermutlich unfair ist. Klar ist die Geschichte grob holzgeschnitzt, aber das Internet besteht für viele Menschen ja tatsächlich im Wesentlichen aus einer Handvoll proprietärer Plattformen. Nennenswert viele Menschen arbeiten, glaube ich, tatsächlich ernsthaft auf eine Beförderung hin, ganz gleich, wie sinnlos oder gar unmoralisch („Anlageberaterin“) schon ihre bestehende Tätigkeit ist.

    In meinem Fieber fühlte sich diese Einsicht recht profund an. Wahrscheinlich ist sie das nicht, aber gut sind solche Erinnerungen an die Blasenhaftigkeit der eigenen Weltwahrnehmung dann und wann bestimmt. Außerdem war die Erleichterung angenehm, als im nächsten Hörbuch („Acht, in Böen Neun” von Michael Wirbitzky, der als Hörfunkmensch eingestanden auch bessere Voraussetzungen hat; wenns das im Bahn-Portal noch gibt, lohnt es sich durchaus) Leute wieder wie halbwegs echte Buchmenschen redeten.

    Oh, und… Herr Etzold, sollten Sie das lesen und wirklich einen Bildungsauftrag verspüren: Nein, schon als Sie das Buch schrieben, war ein UMTS-Modul in einem Computer keine gute Wahl mehr für mobilen Internetzugang. Ein schneller Blick in die Wikipedia (oh ja: wertvoll, obwohl ohne Preis) hätte Ihnen gesagt, dass in der BRD schon Ende 2021 mit UMTS kein Blumentopf mehr zu gewinnen war (in der Praxis war für mich schon Mitte 2021 Schluss), also im Wesentlichen simultan zur Gamestop-Geschichte, auf die Sie im Buch anspielen.

    Für die nächste Auflage des Buches schlage ich eingedenk dessen ein durchgreifendes De-Branding vor. Hier zum Beispiel: „Funkmodem”. Allerdings gebe ich zu, dass ein Wort wie „Karrierenetzwerk“ den Tatbestand von Linkedin und Co zur Kenntlichkeit verzerrt, was vielleicht der Kunst (oder was immer) nicht wirklich hilft. Hmja.

    [1]Was ich davon mitgenommen habe: Wandelanleihen sind Mist, weil daran allenfalls die Bank verdient. Zur Kritik des gesamten Konzepts von Reichwerden mit Geldspielen kommt, das sage ich gleich mal, im Buch nichts; aber das wäre vielleicht auch etwas viel verlangt von einem, der bei der HAW Aalen als BWL-Professor auftritt (angesichts der hohen Lehrbelastung an Ex-Fachhochschulen und Etzolds Wohnsitz in Berlin werden bei diesem Job aber wohl mildernde Umstände im Spiel sein).
    [2]Beim Wikipedia-Stöbern zu alten Schneider-Autoren habe ich zu meiner endlosen Überraschung erfahren, dass der Autor der doch sehr stulligen (aber von mir seinerzeit heißgeliebten) Schreckenstein-Romane, Oliver Hassencamp, Gründungsmitglied der Münchner Lach- und Schießgesellschaft war. Oh?
    [3]Schwabo ist die (eine?) Bezeichnung für „Deutsche“ im Serbokroatischen gewesen. Weil ich immer noch Abbitte leisten will für das Unheil, das Genschers Großmachtfantasien vom Dezember 1991 (und u.a. meine Unfähigkeit, rechtzeitig effektiv etwas gegen sie unternehmen) über dessen SprecherInnen gebracht haben, ziehe ich das Wort dem üblicheren „Kartoffel“ vor.
    [4]Wobei unklar bleibt, wie sich der Betreiber eines Schlüsseldienstes diese Sorte exklusives Hobby eigentlich leisten kann.
  • Seuchen, Christen und das Ende des Imperiums

    Fotos antiker Inschriften: eine schön in regelmäßig, die andere völlig krakelig.

    Mein Sinnbild für den Zusammenbruch der antiken Kultur: Zwei Inschriften aus dem Kölner Römisch-Germanischen Museum, die eine schon christlich-apokalyptisch (mit Flammenvisionen), aber noch erkennbar von Profis mit Anschluss an die mediterrane Kultur gefertigt, die andere, vielleicht 100 Jahre später, nur noch freihändiges Gekrakel fränkischer Amateure.

    Ich habe mich schon im März eines gewissen Römerfimmels bezichtigt. Dieser Schwäche nachgebend lese ich gerade „The Fate of Rome – Climate, Disease & the End of an Empire“ von Kyle Harper (Princeton University Press, 2017, entleihbar bei libgen; gibts auch auf Deutsch bei C.H. Beck als „Fatum. Das Klima und der Untergang des Römischen Reichs“, aber das habe ich nicht).

    Der Untertitel verrät es: Harper analysiert hier den Untergang des römischen Reichs als Folge von Klimaveränderung und Seuchen. Das klingt nicht nur wie ein Film am Discovery Channel, es ist auch ein wenig so geschrieben. Gut, der eingebettete Arztroman über Galen ist immerhin noch motiviert, weil dieser eine wichtige Quelle zur Antoninischen Pest (nach Harpers Einschätzung eine Pockenepedemie) ist, aber dennoch wirken Spannungsbögen in so einem Buch schnell albern oder ranschmeißerisch. Und Harpers Tendenz, das Gleiche mehrfach hintereinander leicht variiert zu sagen, verbunden mit einer oft ziemlich atemlosen Sprache, nervt doch etwas. Eine Kostprobe:

    But it was not yet a crisis: [...] The fruits of Severan success were abundant. A bloom of cultural efflorescence, more inclusive than ever before, unfolded. The influx of provincial talent was a jolt to Severan culture. The ancient capital remained the focal point of imperial patronage.

    Allzu oft wirkt es, als hätte Harper Zeilen geschunden. Das Buch könnte bei gleichem Informationsgehalt auch halb so lang sein und wäre dabei jedenfalls für Menschen wie mich lesbarer.

    Dabei sind viele der Gedanken sehr wertvoll und verdienen überhaupt nicht, im Stil einer Fernsehreportage über spontane Selbstentzündung serviert zu werden. So hatte ich zwar schon lange die Ausbreitung des apokalyptischen Christentums mit dem weitgehenden Zusammenbruch der antiken Kultur in Verbindung gebracht. Über die Ursache dieser Ausbreitung hatte ich mir jedoch nie wirklich Gedanken gemacht – es war in meiner Vorstellung, wahrscheinlich unter dem übermächtigen Einfluss von Bertrand Russell, eben so, dass die Leute plötzlich auf orientalische Kulte Lust hatten, ob nun Isis und Osiris, Mithras, Jupiter Dolichenus[1] oder halt Jesus Christus.

    Nun bietet Harper eine historisch-materialistisch befriedigendere Geschichte an:

    Bis 200 ndcE[2] sind Christen in der Überlieferung praktisch unsichtbar. Die Christen der ersten zwei Jahrhunderte wären kaum eine Fußnote der Geschichte, wären da nicht die späteren Ereignisse. Es wird geschätzt, dass es in der zweiten Hälfte des zweiten Jahrhunderts größenordnungsmäßig 100'000 ChristInnen gegeben hat [wie gesagt, Harper sagt die Dinge gerne drei Mal]. Im Jahr 300 ndcE hatte sich ein atemberaubender Wandel ergeben. Das deutlichste Zeichen ist die plötzliche Verbreitung christlicher Vornamen. Eine aktuelle Arbeit schätzt, dass zu diesem Zeitpunkt erstaunliche 15-20 Prozent der ägyptischen Bevölkerung ChristInnen waren.

    Dazwischen fand – neben dramatischen Missernten infolge von mit einer Abkühlung des Weltklimas verbundenen Dürren im Mittelmeerraum[3] – die nach Harpers Darstellung verheerende Cyprianische Pest statt, für die er einen Ebola-ähnlichen Erreger vorschlägt. Es ist höchst plausibel, dass ein Massensterben an hämorrhagischem Fieber – also: Leute bluten aus jeder Pore ihres Körpers – größte Zweifel an den herrschenen Weltbildern auslösen kann. Harper schreibt dazu:

    Die Verbindung von Pest und Verfolgung scheint die Verbreitung des Christentums beschleunigt zu haben. So jedenfalls sah die Erinnerung einer bestimmten Christengemeinde aus, der von Neocaesarea in Pontus. In den Volkserzälungen rund um den Ortsheiligen, Gregor den Wundertäter, war die Pest ein Wendepunkt in der Christianisierung der Gemeinde. Das Massensterben zeigt die Machtlosigkeit der Götter der Alten und stellte die Tugenden des christlichen Glaubens heraus. Mag die Geschichte auch stark schablonenhaft sein, sie konserviert einen Kern historischer Erinnerung über die Rolle der Pest in der religösen Bekehrung der Gemeinde.

    Der klarste Vorteil des Christentums war seine unerschöpfliche Kapazität, mittels einer Ethik aufopfernder Liebe familienähnliche Netzwerke zwischen völlig Fremden zu knüpfen.

    Ohne, dass das viel an Harpers Darstellung ändern würde, würde ich persönlich ja in der erwähnten Tradition von Bertrand Russell eher spekulieren, dass das zumindest in etlichen Ausprägungen heitere antike Pantheon – ich verweise auf das leicht skandalöse, aber den römischen Geschmack m.E. gut treffende Riesendia im Römermuseum Osterburken:

    Foto: Ein farbenprächtig-sinnliches modernes Gemälde eines runden Dutzends antiker Götter

    – in einer Zeit von Hunger- und Pestkatastrophen viel weniger attraktiv wirkte als die Endzeitreligion, die das damalige Christentum ganz sicher war. Die zeitgenössichen Missionierenden dürften mindestens ebenso alarmistisch unterwegs gewesen sein wie die „das Ende ist nah“-Zeugen, die sich heute auch nicht davon beirren lassen, dass sich ihre Vorhersagen der Weltuntergänge 1914, 1925 und 1975 allesamt als nicht ganz zutreffend erwiesen haben[4].

    Und damit landen wir in der Gegenwart. Gewiss ist die SARS-2-Pandemie verglichen mit einem Krankheitsgeschehen mit einer Gesamtsterblichkeit im einige-zehn-Prozent-Bereich nicht zu vergleichen – aber dann ist unsere Gesellschaft in mancherlei Hinsicht etwas menschlicher geworden (auch wenn Blicke etwa in Fußballstadien oder Boxhallen anderes vermuten lassen). Und so mögen auch die insgesamt weniger dramatischen Auswirkungen auf die öffentliche Gesundheit zusammen mit der Erfahrung von Lockdown, Aussperrung und Heimarbeit sowie dem Doomscrolling auf Twitter durchaus zu vergleichbaren Aufwühlungen geführt haben. Müssen wir jetzt also mit religiösen Erweckungsbewegungen der Größenordnung der Christianisierung Roms rechnen?

    Ich sage mal mutig: eher nicht. Ohne tiefere Recherche scheint mir, dass grob vergleichbare Ereignisse in der Moderne auch keine solchen Konsequenzen hatten. Weder die spanische Grippe, die noch dazu vor der Horrorfolie des gerade zu Ende gegangenen ersten Weltkriegs ablief und fast überall deutlich dramatischer war als SARS-2, noch die vermutlich letzte Coronapandemie vor SARS-2 mit einer Sterblichkeit, die damals wahrscheinlich mit der in heutigen Lassen-Wirs-Laufen-Ländern vergleichbar gewesen sein wird, hatten offenbar nennenswerten Einfluss auf den Missionserfolg von Adventisten, Zeugen oder vergleichbaren Endzeitkulten.

    Schauen wir mal. Wer Anzeichen von Post-Corona-FlagellantInnen sieht: Ich bin für Hinweise dankbar.

    [1]Der ist übrigens mein Lieblingskult in dieser Liga, weil er eine der wenigen Religionen in der Geschichte der Menschheit sein dürfte, die an Kollisionen mit der Realität scheiterten. Der Hauptgott war eine milde angepasste Interpretatio Romana des mesopotamischen Superhelden Hadad, der vor allem mal alles zerschmettern konnte. Zitat Wikipedia: „Nach der Zerstörung des Hauptheiligtums in Doliche durch den Sassaniden-König Schapur I. Mitte des 3. Jahrhunderts ging der Kult unter.“ Sagt, was ihr wollt: Ein Kult, der einen solchen Gegenbeweis der Glaubensinhalte zum Anlass zur Auflösung – statt, wie in dem Geschäft sonst üblich, zu Zelotentum und verdrehten Ausflüchten – nimmt, kann so verkehrt nicht gewesen sein.
    [2]„nach der der christlichen Epoche“; vgl. dazu diese Fußnote.
    [3]Aus Heidelberger Sicht vergleichbar relevant: In der fraglichen Zeit, also zwischen 240 und 260, löste sich auch das Grenzregime am Limes auf, und die römischen Truppen zogen sich an Rhein und Donau zurück (von ein paar Brückenköpfen wie Ladenburg oder Köln-Deutz mal abgesehen).
    [4]Nur, damit ich nicht falsch verstanden werde: Verglichen mit zahlreichen anderen Kulten kann ich Jehovas Zeugen trotzdem total gut leiden. Einerseits natürlich wegen der Steinigungsszene im Life of Brian, vor allem aber, weil eine Lehre, aus der konsequente und radikale Kriegsdienstverweigerung (lokales Beispiel) folgt, extrem viel Nachsicht erwarten kann.
  • 34 Monate Corona im Film

    Im Sommer 2021 habe ich in zwei Posts Filme zur Visualisierung der Corona-Inzidenzen und einer Art Alters-Scores aus den RKI-Daten der vorherigen anderthalb Jahren vorgestellt und ein wenig das Python-Programm diskutiert, das die generiert.

    Ich wollte das über den Sommer immer mal aktualisieren. Aber die Pandemie hat keine erkennbare Pause eingelegt, die eine gute Gelegenheit für eine Art Rückblick gewesen wäre. Jetzt aber ist wohl so in etwa der letzte Moment, in dem so ein Film noch nicht vollständige Clownerei ist, denn schon jetzt testet zumindest anekdotisch kaum mehr jemand. Wenn aber fast niemand PCR-Tests machen lässt, werden die Zahlen, die ich da visualisiere, weitgehend bedeutunglos (weil nicht small data).

    Bevor das Ganze zu einer Art aufwändigen Lavalampen-Simulation wird, habe ich die Programme genommen, dem Inzidenzfilm eine dynamische Colorbar gegönnt – angesichts von Inzidenzen von örtlich über 4000/100'000 im letzten Winter war das bisher feste Maximum von 250 nicht mehr sinnvoll – und habe die Filmchen nochmal mit aktuellen Daten gerendert.

    Hier also die Inzidenzen per Kreis (Hinweise dazu von vor einem Jahr):

    und hier die Alters-Scores (auch dazu Hinweise vom letzten Mal):

    Beide Filme sind mit -i 7 gebaut, jeder Tag ist also sieben Frames lang. Inzwischen wären die Filme zwar auch ohne Interpolation lang genug, aber sie hilft wenigstens dem Lavalampen-Effekt – und natürlich verletze ich gerne das Durchhörbarkeits-Zeitlimit von drei Minuten. Auch wenn die Filme gar keinen Ton machen.

    Ich habe die Gelegenheit genutzt, um den Code, der das macht – statt ihn nur hier zu verlinken, wo ihn niemand finden wird –, brav auf dem Codeberg abzuladen. Vielleicht hilft er dort ja Leuten, die irgendwann irgendwelche Daten in Kreispolygonen von matplotlib aus plotten wollen. Wenn es dafür bessere Standardverfahren geben sollte, habe ich die zumindest vor einem Jahr nicht gefunden.

  • Schrödingers Tiger

    Wieder mal bin ich erstaunt über die Relation von Corona- zu sonstiger Berichterstattung. Während die Deutschlandfunk-Nachrichten um 7:30 aufmachten mit 800 Austritten aus der Linkspartei, gab es kein Wort dazu, dass derzeit hier im Land recht wahrscheinlich mehr SARS-2-Viren umgehen als je zuvor.

    Das ist aus den robusten Schätzern (Lang lebe small data!) zu schließen, die das RKI in seinen Wochenberichten veröffentlicht – die Inzidenzzahlen aus der Vollerfassung reflektieren ja inzwischen eher reales Verhalten als reale Verhältnisse, weil kaum mehr jemand PCR-testet. Bessere Zahlen sind zu schätzen aus dem, was ganz normale Leute über das GrippeWeb des RKI (Danke an alle, die mitmachen!) zu Erkältungen und Co berichten und aus den Diagnosen bei ÄrztInnen, wie viele Leute derzeit mit Symptonen Covid haben:

    Screenshot-Zitat: COVID-ARE-Inzidenz zwischen 1300 und 3100/100000

    (Quelle). Sehen wir uns an, wie das zum Höhepunkt der Omikron-Welle im Frühling aussah; die höchste Schätzung war für Kalenderwoche 11 im Bericht vom 24.3.:

    Screenshot-Zitat: COVID-ARE-Inzidenz zwischen 2000 und 3300/100000

    Nun gebe ich euch, dass das Mittel der damaligen Schätzung noch eine Ecke über der von heute liegt und inzwischen die Fehlerbalken größer sind. Aber wirklich signifikant verschieden sind die geschätzten Inzidenzen nicht.

    Und das sind nur Leute mit Symptomen. Weil inzwischen viel mehr Menschen SARS-2 schon einmal überstanden haben als im März, ist anzunehmen, dass auch viel mehr Menschen asymptomatisch erkrankt (aber vielleicht noch infektiös) sein werden als in Kalenderwoche 11. Wenn sich die entsprechende Dunkelziffer auch nur um ein Drittel erhöht hat, laufen jetzt fast sicher mehr SARS-2-infektiöse Menschen herum als damals.

    Dass „Infektionsraten wieder zurück auf Märzniveau“ gar keine Nachricht ist, finde ich zumindest in der Schrödinger-Interpretation des derzeitigen Pandemie-Umgangs interessant. Im Pandemie-vorbei-Zustand – und Abschnitt 1.6.3 im aktuellen RKI-Wochenbericht scheint in anzuzeigen –, wäre die Nachricht nämlich im Effekt „alle haben Schnupfen“, was eingestandenermaßen eher auf dem Niveau von „Hund beißt Mann“ ist und vielleicht wirklich nicht in die DLF-Nachrichten gehört. Stellt sich allerdings heraus, dass die Pandemie nicht vorbei ist, ist das, was da in der Schrödinger-Kiste ist, keine Katze mehr, sondern ein Tiger.

    Ich selbst – der gerade das erste Rhinoviren-Elend der Saison durchläuft – neige mittlerweile deutlich zur Einschätzung, dass wir mit „ist vorbei“ durchkommen werden, ohne noch unser Normal-Moralniveau im Bereich öffentlicher Gesundheit verlassen zu müssen.

    Aber wie es so ist mit den Kisten vom Schrödinger-Typ: Beim Öffnen kann es Überraschungen geben. Und so fände ich es schon ganz korrekt, wenigstens ein Mal die Woche, also nach dem Wochenbericht, kurz durchzusagen, dass, wer sich einschlägig Sorgen macht, derzeit die Ohren auf Märzniveau anlegen sollte.

  • Schrödingers Pandemie 2: Unsere Kraft ist die Gewerkschaft

    Foto einer großen und weitgehend leeren Halle mit ein paar Menschen auf einem Haufen.

    Im Glaspalast in Sindelfingen: Klare Luft und viel Platz. Mithin lässt das hier beobachtbare Clusterverhalten einen klaren Schluss auf P⁻ zu.

    Ich bin wieder eifrig am Öffnen der Kiste, in der Schrödingers Pandemie in einem Mischzustand von P⁺ (es ist noch Corona) und P⁻ (Corona ist rum) existiert – ich hatte das neulich schon diskutiert

    Dieses Mal bin ich bei der Landesdelegiertenversammlung meines GEW-Landesverbands. Im Vorfeld sah alles aus, als würde diese unter P⁺ stattfinden: Die Einladung mahnte zu Tests vor der Anreise und am Morgen des zweiten Tages, in der Konferenztasche fanden sich drei FFP-2-Masken, und vor allem anderen steigt das Ding im Sindelfinger Glaspalast. Diese Halle hat mich bei meinen CO₂-Messungen wirklich vom Hocker gerissen, denn während der Beratungen stieg die CO₂-Konzentration nie nennenswert über 400 ppm – bei einem Außenniveau von ungefähr 300 ppm. Was Aerosole angeht, kann mensch also ganz beruhigt sein, und wer in einem P⁺-Universum ein Treffen in der Paar-Hundert-Leute-Klasse plant, kann nach meiner Einschätzung beruhigt im Glaspalast einziehen.

    Als ich die Pandemiekiste vor Ort wirklich geöffnet habe, kollabierte die Wellenfunktion aber trotz dieser Vorzeichen fest auf P⁻. Abstand ist kein Thema, schon gar nicht OP-Masken etwa der Essensausgabe, wo große Menschenmengen in Spuckdistanz sind (und ich eines der wenigen realistischen Szenarien für Kontaktinfektionen sehe). Weniger eng war es zwar beim Frühstücksbuffet im Hotel – das von Delegierten dominiert war –, aber in einer P⁺-Welt, in der immer noch bis zu 2% der Erwachsenen SARS-2-Viren ausscheiden werden, wäre zumindest ein wenig Spuckschutz bei der Bedienung von Cornflakesspender und O-Saft-Kanne schon noch indiziert gewesen. Im Shuttlebus zwischen Hotel und Glaspalast folgten bis zu einer sehr deutlichen Mahnung des Busfahrers allenfalls ein Drittel der Delegierten der in den meisten P⁺-Universen geltenden Maskenpflicht (wobei ich einräumen muss, dass das zwar wie ÖPNV aussah, aber wahrscheinlich keiner war).

    Ganz klar in einer P⁻-Welt – ihr merkt, die Realität schubst mich zunehmend zur Everett-Interpretation – fand aber der soziale Abend statt, mit Musik, Tanz, milder Intoxikation, zwar in der Qualitätsluft im Glaspalast, aber eben auch mit völlig conrona-unkonformer Klumpung. Es war jedoch, das sei zur Ehrenrettung der Delegierten eingeräumt, viel leichter, hier Übertragungssituationen auszuweichen als beim Konferenz-Bankett, von dem ich vor einer guten Woche berichtet habe.

    Damals habe ich geschlossen mit:

    Wenn ich mir angesichts von realen Infektionsraten von mindestens 1% beim Bankett kein SARS-2 eingefangen habe, dann müssen die Menschen im P⁻-Zustand wohl doch recht haben…

    Was soll ich sagen? Die Antigen-Tests sind stur negativ geblieben. Dann hat sich auch noch Joe Biden als persongewordene Risikogruppe in P⁻ geoutet. Ich… Nun, ich mach die Kiste erstmal wieder zu und bin neugierig, wie es aussieht, wenn ich sie das nächste Mal wieder öffne.

  • Schrödingers Pandemie

    Fußmatte mit Aufschrift „Maske auf/Verantwortung tragen“

    Fußmatte in meinem ersten Dienstreisehotel seit Februar 2020.

    Ich bin gerade auf dem Rückweg von meiner ersten ordentlichen (also: in Präsenz) wissenschaftlichen Konferenz „seit Corona“, und ich fühle mich aus der Perspektive der Sozialgeschichte aufgerufen, meine Eindrücke zum derzeitigen Umgang mit SARS-2 festzuhalten. Wer weiß, wer sich im nächsten Frühling noch an den derzeitigen Zustand der Gesellschaft erinnert?

    „Zustand“ ist dabei stark vom Zustandsbegriff der Physik inspiriert, eigentlich gar vom Quantenzustand, weshalb sich mir die Rede von „Schrödingers Pandemie“ aufdrängt, in einer popkulturellen Analogie zu Schrödingers Katze. Deren Leben wird, ich erwähne es kurz für Nicht-Link-KlickerInnen, in einer nicht sehr freundlichen Weise mit der Wellenfunktion eines radioaktiven Atomkerns verschränkt. Das Ganze findet in einer hinreichend von der Umwelt abgeschlossenen Kiste statt. Nach populären Interpretationen der Quantenmechanik sorgt das dafür, dass die Katze, solange niemand nachsieht, in einer Mischung aus den Zuständen lebendig oder tot existiert.

    Ein wenig so war meine Erfahrung mit SARS-2 während der letzten Tage – erst, wenn ich irgendwo war, konnte ich feststellen, ob ich in dem Zweig der Realität bin, in dem die Pandemie rum ist (ich nenne das ab hier P⁻) oder in dem, in dem sie es nicht ist (was ich kurz als P⁺ bezeichnen will).

    Das ging schon beim Bezug des Hotels los. Auf dem Weg dorthin habe ich mich gefragt, ob ich besser mit Maske reingehe – ist jedenfalls netter und rücksichtsvoller, auch wenn die Rezeptionssituation in kleinen Hotels, in denen alle halbe Stunde mal wer ankommt, so oder so wenig Übertragungsrisiko birgt – oder besser ohne – weil sich manche Leute in der Gastronomie von Menschen im P⁺-Zustand existenziell bedroht fühlen. Wenn es sachlich keinen großen Unterschied macht, bin ich in jede Richtung kompromissbereit.

    Diese Überlegungen waren unnütz, denn das Empfangspersonal erwies sich als eine Zehnertastatur für den Schlüsselkasten. Dieser war das alles ersichtlich egal. Ich blieb also im P⁻-P⁺-Mischzustand, bis ich die Hoteltür öffnete und die oben abgebildete Fußmatte vorfand. Ergebnis des Experiments für dieses Mal: Das Hotel ist in P⁺.

    Am Frühstücksbüffet stellte sich jedoch heraus, dass doch eher P⁻ gilt, denn ich fing ein paar befremdete oder genervte Blicke ein mit meiner einsamen Maske, und Abstand am Büffet war jedenfalls für etliche der anderen GästInnen keine erkennbare Priorität. Danach habe ich in den nächsten Tagen auch maskenlos gefrühstückt, denn ganz ehrlich: Wenn mensch am Tisch zwangsläufig ohne Maske dasitzt, ist sie auf dem Weg vom und zum Tisch auch unter Annahme von P⁺ nur dann geboten, wenn es eng wird, und das war in diesem Hotel leicht vermeidbar. Dennoch: die zweite Runde ging klar an P⁻.

    Das war auch daran zu erkennen, dass meine Mit-GästInnen den bei P⁺ gut nachvollziehbaren Wunsch der Hoteliers ignoriert haben, in den relativ engen Gängen zumindest eine OP-Maske zu tragen. Dieser generellen P⁻-Diagnose zuwider lief aber die per Aushang in den Zimmern verkündete Politik des Hauses, die tägliche „Reinigung“ zum „Schutz von Gästen und Personal“ nur noch auf (durch Aushang des inversen „Bitte nicht stören“-Schildes geäußerten) Wunsch vorzunehmen. Yes! Ich fand es schon immer unmöglich, mir von anderen Menschen das Bett machen zu lassen. Es lebe P⁺.

    Ähnlich Heisenberg-unscharf ging es bei der Konferenz selbst weiter. Die OrganisatorInnen „empfahlen“ auf ihrer Webseite, ganz P⁺, in Innenräumen und überhaupt, wo der Mindestabstand nicht gewahrt werden kann, FFP-2-Masken zu tragen. Ich fragte mich, wie unter diesen Umständen das Herzstück jeder wissenschaftlichen Konferenz, die Kaffeepause[1], wohl aussehen würde.

    Dieses Grübeln gab ich spontan auf, als ich am Montag den Raum betrat, in dem die Auftaktzeremonie – eine Preisverleihung, über deren mit einer Überdosis unfreiwilliger Hybridkomik gewürzten Verlauf ich schweigen will – stattfand. Schon die Bestuhlung sprach P⁻, fettgedruckt und eigentlich mit Ausrufezeichen. Diese nämlich wäre mir schon vor Corona zu eng gewesen. Die Enge war zudem nicht mal ganz zwingend, denn es hätte schon noch unbestuhlten Platz im Raum gegeben, wenn auch nicht genug, um das ganze Ding angesichts der lausigen Lüftung in einer P⁺-Welt verantwortungsvoll laufen lassen zu können.

    Aber das war auch wurst, denn der anschließende Empfang mit Sekt und Schnittchen muss klar in einer P⁻⁻⁻-Welt stattgefunden haben: Die paar, die bei der Zeremonie noch der FFP-2-Empfehlung gefolgt waren, vergaßen diese zugunsten von Speis und Trank, während sie dicht gepackt in fensterlosen Räumen standen und sehr laut miteinander redeten. Eine Chorprobe ist im Vergleich eine aseptische Angelegenheit.

    Es war nachgerade bizarr, danach wieder in die P⁺-Welt der Straßenbahn zu geraten. Und ich war ehrlich überrascht, dass das Schnief- und Hust-Niveau gestern und heute lediglich deutlich erhöht war, nicht aber eine ganze Konferenz schon elend vor sich hinfieberte. Das wiederum werte ich als Indiz für eine P⁻-Welt, zumal informelle Plaudereien zeigten, dass wohl doch eine deutliche Mehrheit der Teilnehmenden „es schon hatten“.

    Das wäre auch zwanglos zu erklären, wenn diese nennenswert Präsenzlehre gehalten hätten und ihre Hörsäle ähnlich gut belüftet waren wie der große Hörsaal der gastgebenden Uni. Diese Einlassung ergibt sich aus meinen regelmäßigen CO₂-Messungen (als ordentlichen Proxy für die Aerosollast). Das Ergebnis in diesem großen Hörsaal war ernüchternd. Das Ding ist für 500 Menschen ausgelegt, und bei einer Auslastung von unter 20% ging die CO₂-Konzentration kontinuierlich vom Außenniveau von vielleicht 350 ppm bis auf über 1000 ppm hoch – innerhalb von weniger als einer Stunde. Das übersetzt sich zwanglos in „was an Aerosol drin ist, bleibt auch drin“. Dass die Lüftung beim Bau des Gebäudes so schlecht war, ist in ganz eigener Weise sprechend, denn im Bereich von 1000 ppm wirds nach meiner Erfahrung allmählich aufmerksamkeitsrelevant. Dass sie nach 30 Monaten Corona immer noch nicht besser ist, wäre, soweit es mich betrifft, Material für eine Sitzung des Uni-Senats.

    Und so bin ich bis zum Konferenzbankett am Mittwoch aus der P⁺-Welt (höchstens kurz und mit dichter FFP-2 durch den Raum mit dem Empfangsbüffet hechten) in die P⁻-Welt übergetreten und habe wie alle anderen ganz normal getafelt, in der festen Erwartung, dass ich bis jetzt im Zug noch nicht infektiös sein würde. Und morgen kann ich ja dann zurück nach P⁺ und brav in Isolation gehen. Aber: Wenn ich mir angesichts von realen Infektionsraten[2] von mindestens 1% beim Bankett kein SARS-2 eingefangen habe, dann müssen die Menschen im P⁻-Zustand wohl doch recht haben…

    [1]Für Menschen, die sowas noch nicht mitgemacht haben: Nein, das ist kein Witz. Das ist noch nicht mal milde Ironie.
    [2]Der aktuelle RKI-Wochenbericht schätzt aus SEED-ARE und GrippeWeb ab, dass zwischen 0.5 und 1.1% der Erwachsenen gerade SARS-2 mit Symptomen hat. Rechnet mensch großzügig, dass die Hälfte der Infektionen (mehr oder minder) asymptomatisch verlaufen, sind damit im Augenblick ein bis zwei Prozent der Menschen mehr oder weniger infektiös. Ob das nun P⁻ oder P⁺ ist, dürft ihr mich nicht fragen.
  • Wird Bolsonaro Schuld sein an der nächsten großen Seuche?

    Diagramm mit Einflussfaktoren wie Wald-Dichte, Artenvielfalt, Stadtnähe und ihren Korrelationen untereinander und mit der Inzidenz von Zoonosen

    Wie verschiedene Metriken die Häufigkeit von Zoonosen beeinflussen: Abbildung zwei aus doi:10.1126/sciadv.abo5774. CC-BY-NC Winck et al.

    Auch wenn (oder gerade weil) in China ein SARS-Erreger schon mal aus enem Labor entkommen ist, glaube ich ja immer noch ziemlich fest daran, dass SARS-2 aus (zu) engem Kontakt von Menschen und Wildtieren entstanden ist. Wo es viele Tiere gibt, sind solche Krankheiten mit tierischer Beteiligung, Zoonosen, Regel eher als Ausnahme, und wo es viele verschiedene Tiere gibt, ist entsprechend mit vielen Überraschungen zu rechnen. So erscheint Brasilien als ideales Land, um quantitative Schätzungen zu bekommen zur Frage, wie insbesondere neuartige Krankheitserreger Artgrenzen überwinden können und was dann passiert.

    Das war das Projekt von Gisele R. Winck und Ciclilia Andreazzi vom Institiuto Oswaldo Cruz in Rio de Janeiro sowie KollegInnen von verschiedenen anderen brasilianischen Instituten, über das sie in „Socioecological vulnerability and the risk of zoonotic disease emergence in Brazil”, Science Advances 8 (2022), doi:10.1126/sciadv.abo5774, berichten – und auch gleich anmerken, dass Brasilien vielleicht doch kein ganz ideales Land ist, ist doch ein Großteil der derzeit in Brasilien grassierenden Zoonosen gar nicht in Amerika entstanden: Malaria, Dengue, Zika oder Gelbfieber kommen alle aus der alten Welt.

    Aber es gibt auch Beispiele für Zoonosen aus Südamerika, so etwa Chagas, ein von Trypanosomen – das sind einzellige Eukaryoten, also in gewissem Sinn einfache Tiere – hervorgerufenes Syndrom, das zu tödlichen Verdauungsstörungen führen kann, sich aber nur gemeinsam mit relativ memmigen Wanzen weiterverbreiten kann.

    Pfadanalyse

    Winck et al versuchen, der Frage nach künftigen Zoonose-Risiken mit einer Pfadanalyse auf den Grund zu gehen, einer statistischen Methode zur Aufklärung von Netzwerken einander beeinflussender Größen, von der der ich, soweit ich mich erinnere, zuvor noch nie gehört habe. Diese Lücke dürfte wohl damit zusammenhängen, dass die Methode in der Biologie entwickelt wurde (ihr Erfinder war Populationsgenetiker) und im Bereich von Physik und Astronomie wenige etwas damit anzufangen wussten.

    Eine entsprechende ADS-Anfrage (und das ADS hat eigentlich alles, was es in der Astronomie gibt) liefert dann auch vor allem Kram aus Randbereichen, darunter eine Studie in den Geophysical Review Letters, die fast in das aktuelle Thema passt: „Urban Vegetation Slows Down the Spread of Coronavirus Disease (COVID-19) in the United States“. Da allerdings wette ich ungelesen, dass von dem Effekt wenig übrigbleibt, wenn mensch die Korrelation zwischen graueren Vierteln und Armut auf der einen und SARS-2 und Armut auf der anderen Seite rausrechnet.

    Wie dem auch sei: Bei einer Pfadanalyse braucht es eine Zielgröße (also das, dessen Verhalten erklärt werden soll) und „Kausalfaktoren“ (also Größen, das Verhalten der Zielgröße erklären sollen). Die Zielgröße im Paper ist die Fallzahl von einigen Zoonosen[1] in den verschiedenen brasilianischen Bundesstaaten.

    Das grobe Modell, das der Arbeit zugrundeliegt, ist nun, dass enge Kontakte zwischen Menschen und Tieren, gerade wenn wie beim Verzehr von Bushmeat Blut im Spiel ist, die Zoonosen nach oben treibt. Es könnte auch indirekte Effekte geben, wenn es etwa Wildtieren schlechter geht, weil die Menschen gerade ihr Habitat zerstören, und daher Pathogene, die vorher selten und harmlos waren, genau dann durch die geschwächte Population rauschen, wenn Menschen und Wildtiere während der Rodungen und vor der Etablierung funktionierender Landwirtschaft besonders wahrscheinlich interagieren. Mit solchen Motivationen betrachtet die Arbeit folgende Kausalfaktoren (vgl. Tabelle 1 im Paper):

    • Exposition gegenüber Zoonosen (Wie viele wilde Tiere gibt es? Wie gut ist die medizinische Versorgung der Nutztiere? Wie viel Boden ist (artenarme und in der Hinsicht wahrscheinlich eher sichere) landwirtschaftliche Fläche? Wie ist der Anteil der im Wesentlichen unberührten Fläche? Wie schnell gehen unberührte Flächen verloren?)
    • Empfindlichkeit gegenüber Zoonosen (Bäume in Städten als Proxy für die Art der Besiedlung; Kontakt mit Hausmüll als Proxy für die Dichte des Kontakts zu Vektoren wie Ratten und Mücken; Zustand der Abwassererfassung; Bruttoinlandsprodukt pro EinwohnerIn als Proxy für die Armutsrate)
    • Resilienz (Wie viel Gesundheitspersonal gibt es? In wie vielen Einrichtungen? Wie weit ist es in die nächste Stadt, in der spezialisierte Kliniken verfügbar sein werden?)

    Ich muss an der Stelle ein wenig die Nase rümpfen, denn an sich kann dieses Modell nicht so richtig das, was die AutorInnen zu versprechen scheinen: Aufklären, was mensch tun könnte, um neue Zoonosen im Zaum zu halten. Die Zielgröße ist ja die Ausbreitung längst an den Menschen gewöhnter Erreger. Zudem wird die Mehrheit der untersuchten Zoonosen von einzelligen Tieren verursacht und nicht von Viren oder Bakterien, deren pandemisches Potenzial ich weit höher einschätze, zumal, wenn sie anders als die meisten Einzeller keine Zwischenwirte brauchen.

    Aber seis drum: Ganz unplausibel ist ja nicht, dass, wo bekannte Erreger besonders intensiv zwischen Menschen und Tieren ausgetauscht werden, sich auch unbekannte Erreger allmählich an Menschen gewöhnen können.

    BIP ist wurst

    Angesichts des betrachteten Reichtums an Faktoren ist schon erstaunlich, dass die Mathematik der Pfadanalyse mit den Daten von Winck et al das Bild am Anfang des Posts ergibt (nicht signifikante Kausalfaktoren sind dort nicht gezeigt), also etwa das Bruttoinlandsprodukt pro EinwohnerIn keinen signifikanten Einfluss auf die Zoonoserate hat (was aus meiner Sicht nur heißen kann, dass es in Brasilien kein nützliches Maß für den Wohlstand mehr ist). In den Worten des Artikels:

    Zoonotic epidemic risks, as inferred from the observed mean number of ZD cases, are positively associated with vegetation loss (path analysis coefficient = 0.30), mammalian richness (0.47), and remoteness (0.72) and negatively related to urban afforestation (−0.33) and vegetation cover (−0.82).

    Also: Bäume in der Stadt (hätte ich erstmal nicht als einen wichtigen Faktor geraten, aber siehe das oben erwähnte GeoRL-Paper) und vor allem intakte Wildnis sind gut gegen Zoonosen. Eine hohe Dichte wilder Säugetiere, mit denen Menschen im Zuge von Entwaldung eifrig interagieren und, noch stärker, die Entfernung von größeren menschlichen Ansiedlungen befördern demgegegenüber solche Krankheiten.

    Besonders stark ist dabei der Effekt der Bewaldung (bzw. Besteppung oder Bemoorung, wenn das die lokal vorherrschenden Ökosysteme sind): Sie fördert zwar sehr stark die Artenvielfalt von Säugetieren, doch hemmt sie dennoch Zoonosen insgesamt. Das passt erstaunlich gut zur Beobachtung von Jared Diamond in seinem lesenswerten Buch „Collapse: How societies choose to fail or succeed“[2], dass Entwaldung wohl der allerwichtigste Faktor für den Zusammenbruch von Zivilisationen ist.

    Und dann die Schurken

    Ich bin auf das Paper wie üblich über einen Beitrag in der DLF-Sendung Forschung aktuell gegekommen, in dem Fall vom 30.6. Darin wurde vor allem abgehoben auf den Schluss der AutorInnen, die aktuelle Herrschaft in Brasilien beeinflusse die Kausalfaktoren mit ihrer marktradikalen, reaktionären und teils auch anderweitig dummen Politik stark in Richtung Zoonose:

    Ein weiterer wichtiger Aspekt, dessen Relevanz sich gerade erst erwiesen hat, ist die Empfindlichkeit gegenüber fehlgeleiteten politischen Maßnahmen, wie sie von den augenblicklichen Regierungen veranlasst wurden.

    Besonders gut hat mir dabei gefallen die Rede von einer „increasing socioecological degradation“, also einem zunehmenden sozio-ökologischen Verfall, zumal ich dabei an meine eigene brasilianische Geschichte denken musste.

    Foto eines Schildes aus Portugiesisch: Vorsicht, Waldtiere auf der Straße

    Im Parco de Tijuca auf dem Stadtgebiet von Rio de Janeiro: Warnung vor den „Waldtieren“, die auf der Straße rumlaufen. Tatsächlich turnen Affen sogar durch die Telefonleitungen, die zum Nationalobservatorium führen.

    Im Jahr 2014 habe ich rund eine Woche am Nationalobservatorium in Rio de Janeiro gearbeitet. Ich denke, es ist nicht verkehrt, so etwa in dieser Zeit den Höhepunkt der Wirkungen der Sozialpolitik von Lula da Silva zu verorten, der speziell mit seiner bolsa familia Dutzenden Millionen Menschen ein halbwegs menschenwürdiges Leben ermöglicht hat.

    Das hatte sehr profunde Konsequenzen auch für Menschen aus der Mittelschicht. Mein Gastgeber etwa erzählte, er sei vor Lulas Sozialpolitik „Opfer ungefähr jedes Verbrechens gewesen, das es gibt“, und das sei eine recht typische Erfahrung der Cariocas gewesen. Demgegenüber sei in den vieleicht fünf Jahren vor meinem Besuch eigentlich nichts mehr in der Richtung passiert. Ein weiterer Kollege ergänzte, er sei in dieser Zeit nur einmal ausgeraubt worden, und zwar mit chirurgischer Präzision (seine Worte), als er in den frühen Morgenstunden schon ziemlich beschickert unterwegs gewesen sei und die Räuber die Nettigkeit hatten, ihm seinen Geldbeutel wieder zurückzugeben, zwar ohne Bargeld, aber mit allem Plastikwahnsinn, dessen Wiederbeschaffung wirklich viel Stress gewesen wäre.

    Diese Zeiten sind lange vorbei. Nach dem (rückblickend ist diese Charakterisierung wohl nicht zu bestreiten) Putsch gegen Dilma ging die Politik zurück zur Umverteilung von unten nach oben, mit den erwartbaren Konsequenzen für das Leben in einer Stadt wie Rio – und den weniger offensichlichen Konsequenzen für das Heranbrüten der nächsten großen zoonotischen Pandemie.

    Ich frage mich ja bei solchen Betrachtungen immer, wie Leute wie Bolsonaro eigentlich ruhig schlafen können. Aber dann: Die Frage stellt sich ja ganz analog für Scholz, Steinmeier, für Fischer und Schröder, die mit Hartz IV oder der versuchten Rentenprivatisierung ganz ähnliche Dinge, wenn auch vielleicht auf kleinerer Flamme, angerichtet haben. Und ich vermute, ich habe den Kern der Antwort schon berechnet: Allein der Umstand, dass diese Menschen Macht haben, macht es sehr wahrscheinlich, dass sie über erhebliche moralische Flexibilität verfügen.

    [1]Im einzelnen Bilharziose, Leishmaniose (innere und Haut-; wird im Rahmen des Klimawandels auch in der BRD häufiger), Leptospirose (letzter großer Ausbruch in der …
  • (Un)verstandene Infektionsdynamik

    Ich habe vorhin einen Beitrag zu den Wirkungen nicht-pharmazeutischer Maßnahmen gehört, der in der Deutschlandfunk-Sendung Forschung aktuell am dritten Juni lief. Darin hieß es:

    Vielleicht sind die vielen Einflussfaktoren ein Grund, warum auf diesem Gebiet überhaupt wenig geforscht wird. Die Bessi-Collaboration zur Erforschung sozialer, Umwelt- und Verhaltens-Pandemiemaßnahmen zählt aktuell nur 18 veröffentlichte Studien aus diesem Bereich, aber 974 zu Impfstoffen oder Medikamenten.

    Das hat mich daran erinnert, dass ich spätestens seit Oktober 2021 eine ziemlich grundsätzliche Lücke bei unserem Verständnis der Epidemiologie von SARS-2 gewittert habe, und zwar ganz unabhängig von meinen misslungenen Vorhersagen im letzten Herbst. Ich habe nämlich bis genau heute aufgrund von, Fanfare, Unabhängigkeitsargumenten für sehr unplausibel gehalten, dass sich die Varianten gegenseitig verdrängen. Lasst mich spoilern: Mein Instinkt, dass da was nicht stimmen kann, war falsch, Mensch soll einfach nie die Exponentialfunktion unterschätzen.

    Aber langsam. Zunächst habe mir die R-Wert-Schätzungen des RKI vorgenommen. Zur Erinnerung: Der R-Wert soll sagen, wie viele Leute einE InfizierteR zu einer bestimmten Zeit im Mittel ansteckt; ist er konstant größer als eins, wächst die Inzidenz exponentiell, ist er konstant kleiner als eins, schrumpft sie exponentiell.

    Ich möchte auf der Basis der R-Werte den Pandemieverlauf nacherzählen, um der Variantenverdrängung auf die Spur zu kommen. Dabei nutze dabei die Kurvenfarbe als Indikator für die geschätzte Inzidenz – beachtet, dass sowohl die Skalen auf dieser Hilfsachse als auch auf der Ordinate von Bild zu Bild drastisch verschieden sind.

    Plausibler Anfang

    Dabei habe ich mir nacheinander ein paar Phasen vorgenommen. Von März bis Juli 2020 konnte mich mir alles prima zusammenreimen:

    Kurve mit einem Peak von über drei, die dann Richtung eins abfällt.

    Fig 1: R-Werte der ersten Welle

    Die unkontrollierte Infektion lief anfangs mit dem geschätzten R0 (also: wie groß ist das R ganz ohne Maßnahmen und Immunität?) der Wuhan-Variante (im Winter etwas wie 3) los, dann griffen die Maßnahmen, und wie sie nacheinander so griffen, fiel auch der R-Wert.

    Ich war damals mit dieser Interpretation soweit glücklich, auch wenn Leute immer mal wieder an den Zeitskalen rumgemäkelt haben: Reagiert das nicht schon vor den Maßnahmen? Hätte das nicht schneller auf Schul- und Betriebsschließungen reagieren müssen? Zu letzterem Punkt zumindest ist einzuwenden, dass es einerseits zwei, drei Wochen gedauert hat, bis die Leute wirklich im Coronamodus waren. Andererseits sind für die Mehrzahl der Fälle auch nur Melde-, nicht aber Infektionszeitpunkte bekannt. Da diese ohne Weiteres um ein oder zwei Wochen auseinanderliegen können, wäre selbst eine scharfe Stufe in R in den RKI-Schätzungen weich ausgeschmiert; ein weiteres Beispiel übrigens für die Gefahren von Big Data.

    Ein merkwürdiger Balanceakt

    Gegen Ende des ersten Coronasommers kam mir aber schon komisch vor, wie sehr sich das effektive R immer ziemlich genau um die Eins herum hielt. Bei sowas Kitzligem wie einem Infektionsprozess, der davon lebt, dass sich immer mal wieder ein ganzer Haufen Leute ansteckt, ist es alles andere als einfach, diese Sorte von Gleichgewicht (es stecken sich in jeder Zeiteinheit ungefähr genauso viele Leute an wie gesund werden) zu halten – die Überdispersion der Wuhan-Variante soll was wie 0.1 gewesen sein, so dass vermutlich überhaupt nur ein oder zwei von zehn Infizierten zur Ausbreitung der Krankheit beitrugen (dann aber auch gleich richtig, also mit mehreren Angesteckten).

    Unter diesen Umständen einen R-Wert von um die eins zu haben, ist ein Balanceakt ganz ähnlich der Steuerung eines AKW (das zudem nicht mit der Überdispersion zu kämpfen hat): mach ein bisschen zu wenig und die Infektion stirbt rapide aus (der Reaktor wird kalt); mach ein bisschen zu viel und du bist gleich wieder bei enormen Zahlen (der Reaktor geht durch). Dennoch hat sich der R-Wert (abgesehen vom Tönnies-Zacken Mitte Juni, der ganz gut demonstriert, was ich mit „kitzlig“ meine) im Sommer doch recht gut rund um 1 bewegt:

    Kurve, die um Eins rumzittert

    Fig 2: R-Werte im Sommer 2022

    Was hat R so (relativ) fein geregelt? Sind die Leute in Zeiten ansteigender R-Werte wirklich vorsichtiger geworden? Und waren sie unvorsichtiger, wenn die R-Werte niedrig waren? Erschwerend im Hinblick auf so eine Regelung kamen zumindest im Juli und August nennenswert viele Infektionen nicht durch Reproduktion im Land zustande, sondern kamen mit Rückreisenden aus Gegenden mit höheren Inzidenzen. Wie das genau lief, ist aber wieder schwierig zu quantifizieren.

    Mein erstes kleines Rätsel wäre also, warum die Inzidenz im Sommer 2020 über ein paar Monate hinweg im Wesentlichen konstant war. Im Herbst 2020 schien mir das eher wie eine Anekdote, zumal es recht erwartbar weiterging:

    Kurve mit einigen Peaks

    Fig 3: R-Werte der zweiten und dritten Wellen

    Die hohen R-Werte im Oktober sind überaus zwanglos durch Schulen, Betriebe und ganz kurz auch Unis mit allenfalls lockeren Maßnahmen bei lausig werdendem Wetter zu erklären. Der Abfall zum November hin wäre dann der „Lockdown Light“. Wieder mag mensch sich fragen, warum der Abstieg schon Mitte Oktober einsetzte, während der Lockdown Light ja erst Anfang November in Kraft trat, aber seis drum. Der nächste Buckel, hier schon in rot, weil mit für damalige Zeiten enormen Inzidenzen einhergehend, dürfte ganz grob Weihnachtsmärkte (Aufstieg) und deren Schließung (Abstieg; ok, es hat auch noch einige weitere Lockdown-Verstärkungen gegeben) im Dezember 2020 reflektieren.

    Verdrängt oder nicht verdrängt?

    Dass bei gleichbleibenden Maßnahmen der R-Wert ab Mitte Februar stieg, habe auch ich mir damals dadurch erklärt, dass die Alpha-Variante infektöser ist. Richtig schöne Grafiken dazu gibt es erst später, so etwa hier aus dem RKI-Wochenbericht vom 7.10 (der gerade nicht im RKI-Archiv zu finden ist):

    Farbig markierte Anteile verschiedener SARS-2-Varianten, die sich offenbar verdrängen

    Fig 4: Anteile der verschiedenen Varianten vom Oktober 2021 (Rechte: RKI)

    Während der, sagen wir, ersten 13 Kalenderwochen des Jahres 2021 hat also Alpha den Wuhan-Typ im Wesentlichen kompett, nun ja, verdrängt. Und das schien mir bis jezt sehr unplausibel. Anschaulich gesprochen nämlich kann Alpha den Wuhan-Typ nur dann verdrängen, wenn die Varianten „sich sehen“, also überhaupt nennenswert viele Menschen, die der Wuhan-Typ infizieren möchte, schon zuvor Alpha gehabt hätten[1].

    Das war im Frühling 2021 ganz klar nicht so. Der RKI-Bericht vom 16.4.2021 (in dem sich übrigens auch die damaligen Gedanken zu den Varianten spiegeln) spricht von rund 3 Millionen Infizierten. Plausible Dunkelziffern werden den Anteil der bereits mit SARS-2 (in der Regel noch nicht mal Alpha) Infizierten kaum über 10% heben. Die Wuhan-Variante kann also im Wesentlichen nichts von Alpha gesehen haben, und damit kann sie auch nicht verdrängt worden sein[2].

    Mit einem zweiten Blick stellt sich heraus, dass es das auch nicht brauchte, denn unter den recht drakonischen Maßnahmen vom Januar 2021 – wir reden hier von der Zeit nächtlicher Ausgangssperren – hatte der Wuhan-Typ so in etwa einen R-Wert von 0.9 (das lese ich jedenfalls aus Fig. 3). Nun rechnet(e) das RKI den R-Wert in etwa so, dass er das Verhältnis der Infektionen in einem Viertageszeitraum zum vorherigen Viertageszeitraum angibt; der Gedanke ist, dass es (die „Serienlänge”) von einer Infektion bis zur Ansteckung in der nächsten Generation bei SARS-2-Wuhan sowas wie eben die vier Tage dauern sollte[3].

    Unter der angesichts konstanter Maßnahmen wenigstens plausiblen Annahme eines konstanten R-Werts (gegen Ende des Zeitraums mag er wegen Wetter sogar noch weiter gefallen sein), kann mensch ausrechnen, dass nach 13 Wochen vom Wuhan-Typ nur noch

    0.913⋅7 ⁄ 4 ≈ 10%

    übrig waren, und weil bei hinreichend niedrigen Inzidenzen der Bestand eines im Wesentlichen ausbruchsgetriebenen Erregers wie der Wuhan-Variante eh schon prekär ist: Eigentlich reicht das schon, um das praktische Verschwinden der Wuhan-Variante ganz ohne Verdrängung durch Alpha zu erklären.

    Zero Covid vs. die vierte Welle

    Wenn das die Erklärung ist, wäre das in gewisser Weise eine gute Nachricht für die Zero Covid-Fraktion: Wir haben Corona schon mal ausgerottet, inzwischen sogar drei Mal, nämlich den Wuhan-Typ, Alpha und (wahrscheinlich) Delta. Die „Maßnahmen“ für die jeweils infektiösere Variante haben offenbar ausgereicht, ihre Vorgänger (praktisch) vollständig auszurotten. Damit wäre zwar immer noch nicht das Langfrist-Problem gelöst – denn global wird SARS-2 sicher nicht verschwinden –, so dass ich nach wie vor eifrig gegen Zero Covid argumentieren würde, aber ein lokales Ende von Corona haben wir offenbar schon mehrfach hinbekommen.

    Gehen wir weiter in der Zeit:

    Bunte Linie mit zwei ausgeprägten zweigipfeligen Höckern

    Fig 5: R-Werte während des Anlaufs zur vierten Welle.

    Im Anlauf zur vierten Welle wird es unübersichtlich, weil nennenswert viele Menschen geimpft waren. Es mag sein, dass der Wuhan-Typ etwas empfindlicher auf die Impfung reagiert als Alpha, so dass es vielleicht glaubhaft ist, dass der R-Wert des Wuhan-Typs nicht wieder auf das „gut 1“ aus dem Sommer 2020 zurückgeschnappt ist, nachdem die Beschränkungen aus dem Winter 20/21 nach und nach wegfielen; dann wäre zumindest klar, warum der Wuhan-Typ nicht wiederkam.

    Bei Alpha und Delta liegen die Verhältnisse wahrscheinlich komplizierter. Der Umschlag von Alpha auf Delta war noch schneller als der von Wuhan auf Alpha; abgeschätzt aus Fig. 4 vielleicht zwischen den Kalenderwochen 21 und 27. Davor, also im Juni, lag der R-Wert um 0.8, angesichts relativ entspannter Verhältnisse zu diesem Zeitpunkt vermutlich bereits eher durch Impfung als durch nichtpharamzeutische Maßnahmen bedingt. Sechs Wochen R = 0.8 bringen die Inzidenzen, immer noch unter der Annahme der Unabhängigkeit der konkurrierenden Infektionsprozesse, wiederum runter auf

    0.86⋅7 ⁄ 4 ≈ 10%

    – das Aussterben von Alpha kommt also erneut so in etwa hin, wenn …

  • Neurasthenie und Post-Covid

    Neulich hatte ich es schon von der Russischen Grippe, einer Pandemie, deren große Wellen zwischen 1889 und 1895 rollten und die plausiblerweise die jüngste große Coronapandemie vor SARS-2 gewesen sein könnte (Forschung aktuell dazu). Zwischenzeitlich ist mir nun aufgefallen, dass es einen weiteren Datenpunkt für Parallelen zwischen der Russischen Gruppe und SARS-2 geben könnte: Die Neurasthenie.

    Bis zu dieser Einsicht hatte ich die aktuelle Einschätzung der Wikipedia geteilt:

    Neurasthenie gehörte im ausgehenden 19. und beginnenden 20. Jahrhundert zu den Modekrankheiten einer gehobenen Gesellschaftsschicht.

    Im Fin de Siécle schien es in der Tat zum guten Ton zu gehören,

    Erschöpfung und Ermüdung, die entweder durch eine zu geringe Belastbarkeit durch äußere Reize und Anstrengungen oder auch durch zu geringe oder zu monotone Reize selbst verursacht sein kann

    an den Tag zu legen. Florian Illies schreibt dazu in seinem Zeitportrait „1913 – der Sommer des Jahrhunderts“:

    1913 fasste man das zusammen unter dem Begriff: »Neurasthenie«. Spötter sangen: »Raste nie und haste nie, sonst haste die Neurasthenie«.

    Was aber, wenn „wir“ (also die, die sich in der Einschätzung „Modekrankheit“ gefielen) den Betroffenen unrecht getan haben? Was, wenn das in Wirklichkeit das Äquivalent von Long Covid, sagen wir Long Russische Grippe, also die neurologischen oder immunologischen Spätfolge einer im höheren Alter ersterworbenen Coronainfektionen war? Wenn, dann sollten wir nicht die Luft anhalten, bis das alles wieder vorbei ist, denn die Neurastheniewelle ebbte, soweit ich erkennen kann, ähnlich wie Thomas Manns Zauberberg[1] erst mit dem ersten Weltkrieg, zwanzig Jahre nach den großen Wellen, ab.

    Ich bereite mich jedenfalls schon mal vor, mal wieder meinen Hut essen zu müssen. Hat wer Hinweise auf ordentliche Literatur zu dem Thema?

    [1]Ich habe aus gegebenem Anlass nachgesehen: Mann erwähnt im ganzen Zauberberg keine Neurasthenie, obwohl das Topos eigentlich das ganze Buch durchzieht. Ob es daran liegt, dass das Buch zehn Jahre nach dem Ende seiner Handlung erschien und es nichts Anrüchigeres gibt als die Mode von gestern?
  • Lang lebe Small Data

    Zu den unerfreulicheren Begleiterscheinungen der Coronapandemie gehörte die vielstimmige und lautstarke Forderung nach „mehr Daten“, selbst aus Kreisen, die es eigentlich besser wissen[1]. Wie und warum diese Forderung gleich mehrfach falsch ist, illustriert schön ein Graph, der seit ein paar Wochen im RKI-Wochenbericht auftaucht:

    Dargestellt sind die Zahlen von „im Zusammenhang mit“ SARS-2 in deutsche Krankenhäuser aufgenommenen PatientInnen. Die orange Kurve entspricht dabei den „Big Data“-Zahlen aus der versuchten Totalerfassung – d.h., Krankenhäuser melden einfach, wie viele Menschen bei der Aufnahme SARS-2-positiv waren (oder vielleicht auch etwas anderes, wenn sie das anders verstanden haben oder es nicht hinkriegen). Die blaue Kurve hingegen kommt aus der ICOSARI-Surveillance, also aus spezifischen Meldungen über Behandlungen akuter Atemwegsinfektionen aus 71 Kliniken, die für Meldung und Diagnose qualifiziert wurden.

    Wären beide Systeme perfekt, müssten die Kurven im Rahmen der jeweiligen Fehlerbalken (die das RKI leider nicht mitliefert; natürlich zählt keines von beiden ganz genau) übereinanderlaufen. Es ist offensichtlich, dass dies gerade dann nicht der Fall ist, wenn es darauf ankommt, nämlich während der Ausbrüche.

    Eher noch schlimmer ist, dass die Abweichungen systematisch sind – die Entsprechung zu halbwegs vertrauten Messungen wäre, wenn mensch mit einem Meterstab messen würde, dessen Länge eben nicht ein Meter ist, sondern vielleicht 1.50 m. Nochmal schlimmer: seine Länge ändert sich im Laufe der Zeit, und auch abhängig davon, ob mensch Häuser oder Giraffen vermisst. Wäre der Meterstab wenigstens konstant falsch lang, könnte mensch die Messergebnisse im Nachhinein jedenfalls in gewissem Umfang reparieren („die Systematik entfernen“). Bei der Hospitalisierung jedoch wird keine plausible Methode die Kurven zur Deckung bringen.

    Das RKI schreibt dazu:

    Im Vergleich zum Meldesystem wurden hierbei in den Hochinzidenzphasen - wie der zweiten, dritten und vierten COVID-19-Welle - höhere Werte ermittelt. In der aktuellen fünften Welle übersteigt die Hospitalisierungsinzidenz der Meldedaten die COVID- SARI-Hospitalisierungsinzidenz, weil zunehmend auch Fälle an das RKI übermittelt werden, bei denen die SARS-CoV-2-Infektionen nicht ursächlich für die Krankenhauseinweisung ist.

    Die Frage ist nun: Welche Kurve „stimmt“, gibt also das bessere Bild der tatsächlichen Gefährdungssituation für das Gesundheitssystem und die Bevölkerung?

    Meine feste Überzeugung ist, dass die blaue Kurve weit besser geeignet ist für diese Zwecke, und zwar weil es beim Messen und Schätzen keinen Ersatz für Erfahrung, Sachkenntnis und Motivation gibt. In der Vollerfassung stecken jede Menge Unwägbarkeiten. Um ein paar zu nennen:

    • Wie gut sind die Eingangstests?
    • Wie konsequent werden sie durchgeführt?
    • Wie viele Testergebnisse gehen in der Hektik des Notfallbetriebs verloren?
    • Wie viele Fehlbedienungen der Erfassungssysteme gibt es?
    • Haben die Zuständigen vor Ort die Doku gelesen und überhaupt verstanden, was sie erfassen sollen und was nicht?
    • Wie viele Doppelmeldungen gibt es, etwa bei Verlegungen – und wie oft unterbleibt die Meldung ganz, weil das verlegende Krankenhaus meint, das Zielkrankenhaus würde melden und umgekehrt?

    Und ich fange hier noch gar nicht mit Fragen von Sabotage und Ausweichen an. In diesem speziellen Fall – in dem die Erfassten bei der Aufnahme normalerweise nicht viel tun können – wird beides vermutlich eher unwichtig sein. Bei Datensammelprojekten, die mehr Kooperation der Verdateten erfordern, können die Auswahleffekte hingegen durchaus auch andere Fehler dominieren.

    Erfasst mensch demgegenüber Daten an wenigen Stellen, die sich ihrer Verantwortung zudem bewusst sind und in denen es jahrelange Erfahrung mit dem Meldesystem gibt, sind diese Probleme schon von vorneherein kleiner. Vor allem aber lassen sie sich statistisch untersuchen. Damit hat ein statistisch wohldefiniertes Sample – anders als Vollerfassungen in der realen Welt – tendenziell über die Jahre abnehmende Systematiken. Jedenfalls, solange der Kram nicht alle paar Jahre „regelauncht“ wird, was in der heutigen Wissenschaftslandschaft eingestandenermaßen zunehmend Seltenheitswert hat.

    Wenn also wieder wer jammert, er/sie brauche mehr Daten und es dabei um Menschen geht, fragt immer erstmal: Wozu? Und würde es nicht viel mehr helfen, besser definierte Daten zu haben statt mehr Daten? Nichts anderes ist die klassische Datenschutzprüfung:

    • Was ist dein Zweck?
    • Taugen die Daten, die du haben willst, überhaupt dafür? („Eignung“)
    • Ginge es nicht auch mit weniger tiefen Eingriffen? („Notwendigkeit“)
    • Und ist dein Zweck wirklich so großartig, dass er die Eingriffe, die dann noch übrig bleiben, rechtfertigt? („Angemessenheit“)

    Ich muss nach dieser Überlegung einfach mal als steile Thesen formulieren: Datenschutz macht bessere Wissenschaft.

    Nachtrag (2022-05-16)

    Ein weiteres schönes Beispiel für die Vergeblichkeit von Vollerfassungen ergab sich wiederum bei Coronazahlen Mitte Mai 2022. In dieser Zeit (z.B. RKI-Bericht von heute) sticht der bis dahin weitgehend unauffällige Rhein-Hunsrück-Kreis mit Inzidenzen um die 2000 heraus, rund das Doppelte gegenüber dem Nächstplatzierten. Ist dort ein besonders fieser Virusstamm? Gab es große Gottesdienste? Ein Chortreffen gar? Weit gefehlt. Das Gesundheitsamt hat nur retrospektiv Fälle aus den vergangenen Monaten aufgearbeitet und ans RKI gemeldet. Dadurch tauchen all die längst Genesenen jetzt in der Inzidenz auf – als sie wirklich krank waren, war die Inzidenz zu niedrig „gemessen“, und jetzt halt zu hoch.

    So wurden übrigens schon die ganze Zeit die Inzidenzen berechnet: Meldungen, nicht Infektionen. Das geht in dieser Kadenz auch nicht viel anders, denn bei den allermeisten Fällen sind die Infektionsdaten anfänglich unbekannt (und bei richtig vielen bleibt das auch so). Wieder wären weniger, aber dafür sorgfältig und kenntnisreich gewonnene Zahlen (ich sag mal: PCR über Abwässern), hilfreicher gewesen als vollerfassende Big Data.

    [1]Vom Totalausfall der Vernunft etwa bei der Luca-App will ich gar nicht anfangen. Der verlinkte Rant von Fefe spricht mir ganz aus der Seele.

    Nachtrag (2023-02-08): Das sehe übrigens nicht nur ich so.

  • Vom Nutzen der Diversität

    Dafür, dass ich das Buch „SARS from East to West“ als „unfassbar langweilig“ beschrieben habe, gibt es schon ziemlich viel her, denn nach meiner ersten Besprechung hat es mit den bekannten Szenarien ja schon einen zweiten Post abgeworfen. Und jetzt gleich noch einen. Wenn ich kurz drüber nachdenke – eigentlich ist das ein Kennzeichen von Wissenschaft: Weite Strecken von mühsamer Langeweile unterbrochen von aufregenden Erkenntnissen, die mensch unbedingt gleich mitteilen möchte. Hm.

    Heute jedenfalls will ich auf eine Geschichte aus Kapitel 8 des Buchs hinweisen. In diesem beschäftigen sich Joan Deppa, Andrew Seaberg und Grace Han Yao (die die Arbeit an der „School of Public Communications“ in Syracuse, NY gemacht haben und danach Public Communications-Profin, Investmentheini und Marktforscherin geworden sind) mit dem öffentlichen Nachrichtenfluss im Verlauf der SARS-1-Pandemie von 2003. Während nämlich, wie neulich zusammengefasst, spätestens seit dem 1. März 2003 in Ostasien klar war, dass eine ungewöhnliche Krankheit umging, tauchten in „westlichen“ Medien (Deppa et al haben CNN, die New York Times und die Washington Post untersucht) die ersten „richtigen“ Geschichten zu SARS erst nach der weltweiten Warnung der WHO am 15. März auf, auf die Titelseite der NYT hat es SARS gar erst am 7. April geschafft.

    Als am 23.2.2003 die kanadische Touristin, die sich nahe dem Zimmer 911 angesteckt hatte, in Toronto landete, wussten aber dennoch KanadierInnen von SARS: In Vancouver und Toronto lebten schon damals viele Menschen, die sich mehr oder weniger als chinesische Expats verstanden und insbesondere chinesischsprachige Zeitungen mit chinesischen Meldungen lasen. Eine von ihnen war Agnes Wong, die in eben dem Krankenhaus arbeitete (dem Scarborough Grace), in das die Touristin eingeliefert worden war. Als sich deren Sohn am 7. März ebenfalls mit einer schlimmen Lungensymptomatik in der Notaufnahme vorstellte, erinnerte sich Wong an einen Artikel aus der in Toronto erscheinenden Sing Tao (eine der erwähnten Expat-Zeitungen), in dem über SARS-Fälle in Hong Kong berichtet worden war. Und dann ging es so weiter:

    Die ursprüngliche Diagnose des Patienten im Scarborough Grace-Krankenhaus war Tuberkulose gewesen [...] Wong jedoch verständigte die Nachtschwester und bat sie, die Reiseanamnese der Mutter des Patienten zu prüfen. Sie erfuhr bald, dass die Mutter in Hong Kong gewesen und krank zurückgekommen war. Wong drängte die Pflegekräfte, den ärztlichen Dienst zu verständigen. Und so, das jedenfalls ist die Darstellung des Fernsehsenders CBC und der Zeitung Toronto Star, wurde der erste Fall von SARS in Kanada gefunden.

    Sollte euch mal wer fragen, was die Sache mit der Diversität – die ja tatsächlich so oft in Reden von Marktradikalen vorkommt, dass mensch ins Grübeln kommen mag – soll: Vielleicht erinnert ihr euch an diese Geschichte.

    Und wo ich schon über das Buch schreibe, kann ich vielleicht noch einen schnellen Nachtrag zum bekannten Szenario-Post loswerden in dem ich ja spekuliert hatte, dass die Murdoch-Presse in Kanada ähnlich destruktiv agiert haben könnte wie Springer hier. In der Tat findet sich im siebten Kapitel des Buchs (das vor allem eine Verhältnismäßigkeitsabwägung der Isolationsmaßnahmen vornimmt) folgende Passage:

    Ganz besonders die konservative Presse spielte die Bedrohung durch SARS anfänglich herunter. Die Unterstellung war, alarmistische Berichterstattung über kleinere Probleme diene vor allem dazu, Zeitungen zu verkaufen und die Forschungsbudgets nordamerikanischer Universitäten zu erhöhen.

    Wie gesagt: Bekannte Szenarien.

  • Ein bekanntes Szenario

    Was die Submikrometer-Filtermasken nach N95 [in der EU: FFP2] angeht, illustriert dies viele der logistischen und planerischen Probleme, die die Antwort [auf den Krankheitsausbruch] im Großraum Toronto unterminierten. Unmittelbar nach dem Ausbruch war die Nachfrage nach Masken verständlicherweise groß; die kanadischen Lieferanten waren, da sie zuvor keinen Vorrat angelegt hatten, rasch ausverkauft. Krankenhäuser mussten sich bei ausländischen Herstellern vesorgen, aber wegen der weltweiten Bedrohung durch SARS war es sehr schwierig, Masken aus anderen Ländern zu beschaffen.

    Das ist kein Text von 2020. Dieser Text wurde (ausweislich der spätesten Zitate) kurz nach 2005 geschrieben und ist in dem 2011 erschienenen Band „SARS from East to West“ von Olsson et al enthalten, von dem ich letztes Wochenende erzählt habe. Wann immer ich eine hinreichende Bürokratesischtoleranz – wenn ihr die Textbeispiele hier modulo meiner Übersetzung bröselhölzern findet: der Rest des Buchs ist schlimmer – aufgebaut habe, gebe ich mir weitere Kapitel, und jetzt gerade habe ich Kapitel 6 gelesen. Darin beschäftigen sich Dan Markel und Christopher Stoney mit dem SARS-Ausbruch im Großraum Toronto, der Greater Toronto Area (GTA).

    Mensch sollte dabei im Kopf haben: Nach heutigen Maßstäben war der SARS-1-Ausbruch von 2003 winzig. Es gab nur zwischen Ende Februar und und Anfang Juli überhaupt Fälle außerhalb von Guangzhou, und in Kanada, dem mit Abstand am schwersten betroffenen Land im „Westen“, wurden am Ende 251 Fälle mit 43 Toten gezählt. Das ist, grob gesagt, ein zehntel Promille von SARS-2. Faktoren wie 10 − 4 illustriere ich immer gerne mit Zeit: Wenn SARS-2 ein Jahr ist, ist SARS-1 eine Dreiviertelstunde.

    Lokal allerdings kam es doch zu messbaren Inzidenzen, denn die große Mehrheit der kanadischen Fälle waren Folge der ursprünglichen Einschleppung aus Zimmer 911 und konzentrierten sich daher um Toronto herum. Trotz der dramatisch anderen Größenordnungen muss es sich nach Darstellung von Markel und Stoney dort ziemlich angefühlt haben wie in der BRD im März 2020, bevor der Podcast mit Christian Drosten online ging:

    Die Unfähigkeit, Information zutreffend und wirkungsvoll zu veröffentlichen, fachte Verwirrung und Panik an: War SARS infektiös oder nicht? Konnte man sich wie bei einer Erkältung anstecken oder nicht? War SARS unter Kontrolle oder nicht? Im Ergebnis wurden bei den täglichen Pressekonferenzen zu viele Meinungen über das aktuelle Geschehen öffentlich geäußert.

    Leider diskutiert das Buch nicht, was die Medien anschließend mit den Themen aus den Pressekonferenzen gemacht haben, denn ich wäre überrascht, wenn in Kanada die Murdoch-Presse nicht ähnlich verheerend gewirkt hätte wie hier die Springer-Presse. Die schlimmste Presse-Schelte, zu der sich die Autoren des Kapitels durchringen konnten, ist:

    Die sich aus den Schwierigkeiten bei der Informationsverbreitung ergebende Verwirrung und Fehlinformation verschäfte sich noch durch permanente Anfragen, 24 Stunden am Tag, Minute für Minute. Dies war eine wesentliche Behinderung der Bemühungen einer kleinen, überarbeiteten Belegschaft dabei, die zur Bekämpfung von SARS nötige epidemiologische Information zu sammeln, zu analysieren, zu interpretieren und zu verteilen.

    Auch das Lamento über schlechte EDV-Infrastruktur klingt wie vom letzten Jahr:

    Das Fehlen eines effektiven Überwachungssystems auf Provinz- wie gesamtstaatlicher Ebene, einer gemeinsamen Datenbank und eines gemeinsamen Informationssystems für meldepflichtige Infektionskrankheiten hat die Versuche unterminiert, Bedürfnisse zur Datensammlung zu befriedigen und die rasche Meldung von Infektionstätigkeit sowohl zwischen als auch innerhalb von Verwaltungseinheiten zu erleichtern.

    Tatsächlich hat jede der vier Public Health-Stellen innerhalb des Großraums Toronto ihr eigenes Erhebungssystem entwickelt und band sich fest an jeweils spezifische und unverträgliche Erhebungs- und Auswertungsmethoden, obwohl das erhebliche Probleme verursachte.

    Angesichts der mikroskopischen Zahlen frage ich mich ein wenig, wie diese Leute Zeit hatten, sich in ihre jeweiligen Systeme zu verlieben, denn bei allenfalls ein paar hundert Fällen insgesamt konnten diese ja wohl nicht viel genutzt worden sein; aber gut, wenn noch ein paar tausend Quarantänefälle dazu kommen…

    Vielleicht sind die kleinen Zahlen auch der Grund, warum dort nicht aufgefallen ist, was nach zwei Jahren SARS-2-Surveillance längst auf der Hand liegt: Wichtiger als die Totalerfassung und der rasche Umgang mit großen Datenmengen ist eine wohldefinierte Datenerhebung. Blind alle Fälle zählen („Inzidenz“) sagt ganz offenbar nichts, wie allein schon der Vergleich von diesem Januar (eigentlich ziemlich cool bei 1500/100'000) mit dem vor einem Jahr (ziemliches Gemetzel bei 250/100'000) zeigt. Um zu einer irgendwie sinnvollen Einschätzung des Geschehens zu kommen, braucht es zumindest noch Daten zu Vollständigkeit, Alters- und Sozialstruktur, Virusprofil, Impfstatus und Übertragungswegen, sehr wahrscheinlich noch deutlich mehr.

    Da eine Vollerfassung dieser Daten nicht nur praktisch unmöglich wäre, sondern auch ein Datenschutzalptraum würde, so dass wiederum viele Menschen – wahrscheinlich auch ich – das Ergebnis durch kleine Lügen unbrauchbar machen würden, wäre es rundherum viel hilfreicher, ein (relativ) kleines Sample zu ziehen, dessen Bias gut untersucht ist. Dieses könnte dann unter sorgfältiger Datenschutzkontrolle genau studiert werden, gerade im Hinblick auf die tatsächlichen Infektionsketten, deren Kenntnis ja z.B. zur Beurteilung der wirklich nützlichen „Maßnahmen“ letztlich entscheidend wäre. Das große Vorbild für eine hochnützliche „small data“-Operation in diesem Bereich ist die AGI-Surveillance, von der ich Ende Januar schon mal geschwärmt habe.

    Jedenfalls: irgendwas in der Art von „Wir saßen auf einem Berg schlechter Daten und hätten eigentlich einen Klumpen guter Daten gebraucht“ hätte ich halb erwartet, und das kommt bei Markel und Stoney nicht. Vielleicht wegen der kleinen Zahlen, vielleicht, weil meine Überlegungen im Public Health-Bereich nicht zutreffen, vielleicht, weil die Leute andere Sorgen hatten.

    Ein für PolitologInnen naheliegendes Thema für Sorgen könnten die länderfürstlichen Stunts sein, zuletzt spektakulär die faktische Aussetzung der Impfpflicht von Beschäftigten im Gesundheitswesen durch Markus Söder. Auch sowas gab es schon 2003 in Kanada:

    Unstimmigkeiten zwischen den Zuständigen auf Gemeinde- und Provinzebene führten auch zu Doppelungen von Verantwortlichkeiten und Aufgaben. [...]

    Daher blieb unbeanwortet, wer die verantwortlich war für: die Klassifikation eines Falls; die Erteilung von Anweisungen an Krankenhäuser; die Festlegung von Konsequenzen, wenn die Anweisungen nicht befolgt wurden; die Bestimmung, welche Daten von wem an wen übertragen werden müssen; die Definition, welche Daten in welchem Ausmaß und zu welchem Zweck zwischen öffentlicher Verwaltung und privaten ExpertInnen ausgetauscht werden dürfen; die Benachrichtigung von Verwandten, dass einE AngehörigeR als ein wahrscheinlicher Fall klassifiziert wurde; die Abwägung, ob Datenschutzrechte der Informationsweitergabe, die zur Kontrolle und Verhütung der weiteren Ausbreitung von SARS nötig war, entgegenstehen.

    Auch die verbreitete Erfahrung – gerade bei Lehrkräften an Schulen, aber auch unsere Vewaltung an der Uni hat häufig geseufzt –, nach der die Vorstellungen der Mächtigen, was nun gerade gelten sollte, wahlweise am Vorabend oder gar nicht ankamen, ist nicht neu:

    Tatsächlich wurden die Menschen, die an der Gesundheitsfront und/oder in Hochrisiko-Umgebungen, etwa Bildungseinrichtungen, Gemeindezentren, Altenheimen, kirchlichen oder privatwirschaftlichen Einrichtungen arbeiteten, nie direkt über wichtige Entwicklungen informiert.

    Nach all dem: Haben diese Untersuchungen der kanadischen Regierung geholfen, mit SARS-2 besser fertig zu werden als andere westliche Länder, die ja keine nennenswerten Erfahrungen mit SARS-1 hatten?

    Leider ist Kanada nicht von Aburto et al (vgl. Trifft die Menschen hart …

  • SARS-1 und das Zimmer 911

    Buchcover

    Ich lese gerade „SARS from East to West“, einen Sammelband von Artikeln zu den Ausbrüchen von SARS-1 zwischen 2002 und 2004, den Eva-Karin Olsson and Xue Lan 2012, also lang, bevor jemand etwas von SARS-2 ahnte, herausgegeben haben (ISBN 978-0-7391-4755-9, gibts auch in der Imperial Library). Es handelt sich wohl um eine Art Abschlussband eines wissenschaftlichen Projekts irgendwo zwischen Politologie, Zivilschutz und Militärforschung, das in einer Kooperation zwischen einigen schwedischen Regierungsstellen und einer Handvoll, nun, regierungsnahen Bildungseinrichtungen aus China bearbeitet wurde.

    Das Ergebnis ist über weite Strecken unfassbar langweilig. Die AutorInnen beschäftigen sich seitenweise damit, welche Verwaltung wann mit welcher anderen geredet hat oder wer wann zurückgetreten ist oder wer vielleicht Gesichter verloren haben könnte. Manchmal habe ich mich gefragt, ob es Leute gibt, denen sowas ähnlich viel Freude macht wie AstronomInnen ihre Sterne – oder ob die Motivation, PolitologIn zu werden, vielleicht ganz anders aussieht als unser „ich will doch nur spielen“.

    Andererseits fühle ich mich gleich daheim, wenn das Buch den WHO-Mitarbeiter Peet Tüll wiedergibt. Dieser hat während des Ausbruchs mit der chinesischen Seite die Maßnahmen zur Bekämpfung der hochkochenden Epidemie diskutiert, wozu im Buch zu lesen ist:

    Treffen und Verhandlungen zwischen der WHO und ihren chinesischen Partnern waren entweder formell oder informell […] Formelle Verhandlungen waren zäh und hoch politisiert. […] Während der informellen Treffen waren die Chinesen zugänglicher. [Diese] drehten sich um Problemlösungen […] Wenn ein chinesischer Partner sich auf ein informelles Treffen einließ, änderte sich die Frage von einer politischen zu einer sachlichen.

    (Kapitel 5; Übersetzung von mir). Das deckt sich komplett mit meiner Erfahrung im (wie eben eingestanden durchaus anders gestrickten) Bereich der Astronomie: Je mehr Arbeitsebene, je weniger Management, desto produktiver. Was mal wieder die Frage aufwirft, warum daraus niemand die offensichtlichen Schlüsse zieht…

    Das Zimmer 911

    Richtig Neues habe ich aus der Chronologie des Ausbruchs gelernt. Verglichen mit SARS-2 war SARS-1 ja ein recht beschränktes Geschehen mit gut 8000 bestätigten Infizierten und knapp 800 auf SARS-1 zurückgeführten Toten[1], und so konnten Infektionsketten vielfach genau nachvollzogen werden. Die für mich Spannendste war die vom Zimmer 911 (das Schicksal ist numerologischen VerschwörungstheoretikerInnen ganz offensichtlich gewogen) im Hotel Metropole in Hong Kong ausging.

    Das ging so: Nachdem SARS-1 schon seit November 2002 im Hinterland von Hong Kong, der Provinz Guangdong, herumgegangen ist, reist am 21.2.2003 – ein Freitag – der 64-jährige Arzt Liu Janlun von dort nach Hong Kong und bezieht dieses Zimmer 911, um an einer Familienfeier teilzunehmen. Zunächst ist er etwas mit seinem Schwager in der Stadt unterwegs, verbringt dann aber einige Zeit im Hotel. Dort halten sich auch eine 78-jährige Touristin aus Toronto, ein 48-jähriger US-chinesisicher Geschäftsmann und drei junge Frauen aus Singapur auf. Genauer: Sie alle wohnen im 9. Stock des Metropole.

    Schon am nächsten Tag geht es Liu Janlun so schlecht, dass er ins Kwong Wah-Krankenhaus geht und, da er selbst vorher SARS-Fälle behandelt hatte, das Personal dort warnt, er könnte „eine sehr ansteckende Krankheit“ haben. Nach zehn Tagen Krankenhausaufenthalt, am 4.3., stirbt er an den Folgen seiner untypischen Lungenentzündung.

    Sein Schwager entwickelt bis zum Dienstag (25.2.) erhebliche Symptome einer Lungenerkrankung und begibt sich zunächst ebenfalls ins Kwang Wah-Krankenhaus. Er wird wieder entlassen, muss am 1.3. aber erneut aufgenommen werden und stirbt schließlich am 19.3. an SARS (das zu diesem Zeitpunkt natürlich noch nicht als solches erkannt ist und auch nicht so heißt).

    Die kanadische Touristin fliegt am Sonntag zurück nach Toronto. In Kanada entwickelt sie recht bald Symptome und stirbt am 5.3. Fünf ihrer Familienmitglieder stecken sich an und werden in der Folge ebenfalls in Krankenhäuser aufgenommen. Das erste SARS-Todesopfer, das sich in Kanada angesteckt hat, ist der 44-jährige Sohn der Touristin.

    Auch der Geschäftsmann reist am Sonntag ab. Seine nächste Station ist Hanoi, wo er am 26.2. ins Französische Krankenhaus eingeliefert wird. Er braucht rasch Intensivbetreuung und wird am 5.3. zur Weiterbehandlung zurück nach Hong Kong in das Princess Margeret-Krankenhaus verlegt. Dort stirbt er am 13.3., offenbar, ohne weiteres Personal anzustecken. In Hanoi hingegen entwickeln bis zum 12.3. 26 MitarbeiterInnen des Krankenhauses SARS-Symptome, fünf sind zu diesem Stichtag in kritischem Zustand.

    In Hanoi ist ein Mitarbeiter der WHO, Carlo Urbani, auf den Fall aufmerksam geworden und meldet ihn eine Woche nach dem Freitagabend auf dem Gang im 9. Stock, also am 28.2., als möglichen Fall von Vogelgrippe an das WHO-Büro in Manila, was dort, so steht es in der Chronologie, einen „heightened state of alert“ auslöst.

    Urbani selbst untersucht noch für ein paar Tage in Hanoi die unbekannte Krankheit, bevor er am 11.3. zu einer Konferenz nach Bangkok weiterfliegt. Schon bei der Ankunft ist er so krank, dass er dort ins Krankenhaus eingewiesen wird. Er stirbt am 29.3., ebenfalls an SARS.

    Eine der drei jungen Frauen aus Singapur, die am Dienstag nach dem schicksalhaften Freitagabend dorthin zurückgekehrt ist, wird am folgenden Samstag mit einer schweren Lungenerkrankung in ein Krankenhaus in Singapur eingewiesen; auch die beiden anderen zeigen Symptome.

    Ein Arzt, der sie behandelt hat, fliegt am 15.3. über Frankfurt nach New York City. Da er kurz vor dem Abflug Krankheitssymptome angegeben hat, alarmieren die Behörden von Singapur die WHO, die veranlasst, dass der Arzt sowie seine Frau und seine Schwiegermutter in Frankfurt aus dem Flugzeug entfernt werden. Die Familie kommt dort in Isolation, so dass sogar die BRD ein wenig SARS abbekommt; SARS-1 beschränkte sich hier aber auf insgesamt 9 Fälle, die alle glimpflich ausgingen (zum Vergleich: In Kanada starben von 251 bekannten Infizierten 43).

    Die Wikipedia berichtet, dass 4000 SARS-Erkrankungen – und damit die Hälfte der bekannten Gesamtzahl – auf diesen Freitagabend im Metropole-Hotel zurückgehen. Diese Geschichte war den Leuten, die an der SARS-2-Prävention im März 2020 überlegten, sicher vertraut – und sie lässt mich etwas besser verstehen, warum sie Hotels so rasch runterfuhren und später zunächst eher wirr erscheinende Regeln (etwa „mindestens ein leeres Zimmer zwischen zwei vergebenen“) verhängten.

    Allerdings: SARS hätte es sicher auch anders aus Guangzhou herausgeschafft. So ist etwa am 8.3.2003 ein Fall in Taiwan aufgetreten, der sich direkt nach Guangdong zurückverfolgen ließ. Wahrscheinlich war es global gesehen sogar ein Glück, dass SARS-1 durch eine schnelle Ausbreitung in gesundheitlich gut überwachten Kreisen doch recht schnell auffiel.

    Der Erfolg jedenfalls, SARS-1 innerhalb von drei Monaten nach dem Übergang zur Pandemie tatsächlich „besiegt“ zu haben – um mal eines der dümmeren Wörter aus der Corona-Kommunikation aufzunehmen – dürfte wohl auch die sture Entschlossenheit der derzeitigen chinesischen Regierung erklären, SARS-2 aus dem Land zu halten. „Wir haben es schon mal geschafft, das geht bestimmt wieder“. Nun, das war sicher schon im März 2020 eine Illusion, und wahrscheinlich nicht nur, weil SARS-2 schon in der Wuhan-Variante doch regelmäßig ein paar Ecken übertragbarer zu sein scheint als SARS-1. Spätestens jetzt, bei einem Infektionsgeschehen vier Größenordnungen über dem von SARS-1, ist es absurd, anzunehmen, SARS-2 würde in absehbarer Zeit verschwinden.

    Wir haben jetzt fünf humane Coronaviren, und wer sich nicht über Nordkorea-Nivau hinaus abschotten will, wird sie früher oder später laufen lassen müssen. Insofern frage ich mich schon, wie sich die Regierung in Beijing sich das so vorstellt.

    Zur Laborhypothese

    Eine zweite SARS-Geschichte, von der ich vorher noch nichts gehört hatte, betrifft den Ausbruch genau dort, in Beijing, ein Jahr nach der Pandemie. Das SARS-1-Virus war wie gesagt schon im Juli 2003 wieder verschwunden, auch wenn im Januar 2004 in Guangdong nochmal zwei Fälle bekannt wurden – möglicherweise hatten sich diese erneut beim ursprünglichen Wirt angesteckt.

    Am 22.4.2004 (einem Donnerstag) berichtet jedoch das chinesische Gesundheitsministerium, es gebe einen SARS-Fall in Beijing, und fünf weitere Personen zeigten verdächtige Symptome. 171 Kontaktpersonen stünden unter Beobachtung. Am Freitag wird ein weiterer Fall und ein Verdachtsfall berichtet, dieses Mal aus der Provinz Anhui zwischen Beijing und Shanghai. Diese Fälle lassen sich offenbar auffällig nahe an ein Labor der chinesischen Gesundheitsbehörde CCDC zurückführen, so dass schon am folgenden Montag Vermutungen laut werden, die SARS-Viren seien bei einem Laborunfall übertragen worden.

    Die Behörden reagieren schnell und identifizieren Kontaktpersonen an den beiden Orten, was in Anhui auf bis zum folgenden Mittwoch auf 154 Menschen führt. Isolation und Quarantäne führen dazu, dass der letzte bekannte SARS-1-Fall überhaupt einen Monat nach dem Beginn des zweiten Ausbruchs, am 21.5.2004, aus dem Ditan-Krankenhaus entlassen wird. Insgesamt waren 2004 wohl um die 1000 Personen in Isolation und Quarantäne (wenn ich die Chronologie im Buch richtig lese).

    Am 1.7.2004 bestätigte der chinesische Gesundheitsminister Gao Quiang, der Ausbruch sei auf ein Labor der CCDC zurückzuführen gewesen. In der Folge trat der Direktor der CCDC, Li Liming, zurück, vier weitere hochrangige Mitarbeiter wurden entlassen.

    Ich muss sagen, dass ich die Laborhypothese zum Ursprung von SARS-2 im Vergleich zur sehr plausiblen Zoonose (ich bin immer noch leicht traumatisiert von einem Besuch in einem chinesischen Lebensmittel-Supermarkt, der auf den ersten Blick kaum von einem Zoo zu unterscheiden war) nie sonderlich überzeugend fand, auch wenn es schon ein komischer Zufall ist, dass der erste große Ausbruch ausgerechnet in so großer Nähe zum Wuhan Institute of Virology der Chinesischen Akademie der Wissenschaften (CAS) stattfand. Aber das ist konsisitent mit dem generellen …

  • SARS-2 ist in etwa fertig

    Ich beobachte derzeit fasziniert die Reihenfolge der Beiträge in Nachrichtensendungen. Wir haben Corona-Zahlen, die noch vor zwei Monaten helle Panik ausgelöst hätten – 200000 gemeldete Neuinfektionen am Tag, eine bundesweite 7-Tages Inzidenz über einem Prozent –, und entsprechende Meldungen kommen zumindest bei ARD und DLF, wenn überhaupt, weit hinter Mumpitz wie der Frage, ob wohl ein Herr Merz oder ein Herr Brinkhaus der CDU-Fraktion im Bundestag vorsitzen wird (mal ehrlich: Wer wirds merken?).

    Aber vielleicht ist das auch besser so; denn auch wenn sich das derzeitige Tempo wahrscheinlich noch nicht durchhalten lässt, wenn sich die Altersverteilung der Infizierten nach oben verschiebt, mag es sein, dass es ohne grobe Notbremsen gerade jetzt geht, und wenn der nächste Winter halbwegs normal laufen soll, sollten wir auch gar nicht so arg einbremsen (und auch nicht im Interesse der 70-Jährigen).

    Gestern allerdings hätte es eine spektakuläre Nachricht gegeben, die ich ganz vorne in meine Sendung gepackt hätte, wenn ich Redakteur wäre: Mit Omikron ist SARS-2 in gewissem Sinn fertig. Woher ich das weiß? Nun, meine Lieblingsrubrik im RKI-Wochenbericht kommt schon seit langem von der Arbeitsgemeinschaft Influenza (AGI; ich hatte die schon mal zitiert), die Woche um Woche berichtet, was so umgeht an Erregern von Atemwegserkrankungen. Im Bericht von gestern findet sich das auf Seite 14, und da steht:

    In der virologischen Surveillance der AGI wurden in KW 3/2022 in insgesamt 66 von 112 eingesandten Proben (59 %) respiratorische Viren identifiziert. Darunter befanden sich 23 Proben mit SARS-CoV-2 (21 %), 15 mit humanen saisonalen Coronaviren (hCoV) (13 %), zwölf mit Rhinoviren (11 %), elf mit humanen Metapneumoviren (10 %), jeweils drei Proben mit Parainfluenzaviren (3 %) bzw. mit Respiratorischen Synzytialviren (RSV) (3 %) sowie eine Probe mit Influenzaviren (1 %).

    Das ist spektakulär, weil, wenn ich nichts übersehen habe, nie zuvor während der ganzen Pandemie SARS-2 in den Infektionszahlen unsere gewohnten humanen Coronaviren überholt hat.

    Und es heißt ziemlich sicher: SARS-2 ist jetzt bis auf einen kleinen Faktor so gut an den Menschen angepasst, wie das Coronaviren halt können – die anderen vier hatten ja schon mindestens hundert Jahre Zeit für ihre Optimierung (der jüngste könnte seit 1889 umgehen; zumindest vermuten viele Leute, die Russische Grippe könne die letzte wirklich tödliche Coronapandemie vor SARS-2 gewesen sein), und wenn SARS-2 in deren Liga aufgestiegen ist, wird es wohl keine weltbewegenden Erfindungen mehr machen können; in diesem Sinne wäre es, na ja, „fertig“.

    Mensch könnte spekulieren, SARS-2 könne einen Vorteil haben, weil es für die meisten Menschen hier immer noch neu ist, während sie die anderen vier schon aus dem Kindergarten kennen. Per Bauchgefühl bezweifele ich den Vorteil allerdings, denn die vielen Geimpften – und niemand ist gegen eines der anderen Coronaviren geimpft – machen es SARS-2 vermutlich ziemlich ähnlich schwer wie die vorhergegangenen Infektionen den anderen.

    Zum Schluss nochmal Fanpost an die AGI: Ich halte das für hochrelevante Forschung mit minimalem Eingriff in die Privatsphäre von Kranken, small data im besten Sinn (wobei ich zugebe, dass mir das noch besser gefallen würde, wenn das Sample etwas größer wäre; in Zeiten wie diesen sollten sich doch 500 bis 1000 Proben finden). In meiner Fantasie sind die AGI-Leute und ihre Sentinelpraxen so wie die Waldläufer im Herrn der Ringe, die durch die Wildnis ums Auenland streichen und, ohne dass es viele merken, die Augen offen halten. Helden!

  • Anachronismen

    Wer gestern vom Papst Generalabsolution haben wollte, bekam in der Vatikan-Übertragung folgendes Bild sehen:

    Schweizer Garde mit riesigen Helmen und OP-Mundschutz

    Quelle: Vatikan-Mitschnitt. Rechte beim Vatikan.

    Ich kann gar nicht genau sagen, warum genau mich das als symbolisch für Religion in der Moderne hingerissen hat: die Kombination aus offensichtlich unsinniger Tradition (die Rüstungen) und modernen Einsichten (Viren, Tröpfcheninfektion)? Das Festhalten an unsinnigen Prozeduren (hier: eng stehen, laut brüllen), auch wenn diese mit erkennbaren Risiken verbunden sind, die mensch leicht vermeiden könnte? Oder wars nur, dass die Mundschutze in dieser Situation annäheernd leere Demonstration waren, denn vergleichen mit dem, was dann nachher in den Umkleiden[1] stattfindet, ist das Infektionsrisiko am durchpusteten Petersplatz trotz des zu geringen Abstands fast vernachlässigbar (na gut, jedenfalls, wenn sich die Leute bereitgefunden hätten, aufs Rumbrüllen zu verzichten).

    [1]Oder der Kaserne? Leider geht aus dem Wikipedia-Artikel zur Schweizergarde nicht hervor, ob die Leute kaserniert sind oder nicht. Dafür steht dort zu lesen, dass auch der Papst statt auf ordentliche Schutzengel doch eher auf die Maschinenpistole 5 aus der Todesfabrik von Heckler und Koch in Oberndorf am Neckar setzt. Außerdem im Artikel: Ein Link auf die nachgerade klischeereine Geschichte um den Mord an dem Kommandanten Alois Estermann. Manchmal, so scheint es, stimmt der Bibelspruch doch: Wer das Schwert ergreift, wird durch das Schwert umkommen.
  • Keine Vollendung

    Vor gut 30 Jahren hat der Bundestag beschlossen, mit der Regierung nach Berlin umzuziehen. Es setzte sich damals ein Antrag durch, der von Willy Brandt und Wolfgang Schäuble unterstützt wurde – wie so oft hatte der Patriotismus großzügig weltanschauliche Differenzen zugekleistert.

    Der Titel des siegreichen Antrags von 1991: „Vollendung der inneren Einheit Deutschlands“.

    Diese „Sternstunde des deutschen Bundestags“ (Bundestagsverwaltung) kommentiert das SARS-2-Cornavirus am 23.12.2021 wie folgt:

    Deutschlandkarte mit Inzidenzen: die alten Grenzen sind unschwer sichtbar

    Aus: RKI-Bericht von heute, Rechte beim RKI

    Wer sich nicht mehr erinnert: vgl. Wikipedia.

  • Optimierte Inzidenz

    Mortalitätspunkte und eine Fit-Gerade in einem Logplot

    Abbildung 3 aus dem Paper von Levine et al, auf das ich unten ein wenig eingehe: das Risiko, an SARS-2 zu sterben, geht ziemlich genau exponentiell mit dem Alter (die Ordinate ist logarithmisch aufgeteilt). Diese Beobachtung führt ziemlich direkt zu einem Kult-Paper aus den wilden Jahres des Internet. CC-BY doi:10.1007/s10654-020-00698-1.

    Als das WWW noch jung war und das Internet jedenfalls nicht alt, im Dezember 1999 nämlich, haben Chris Gottbrath, Jeremy Bailin, Casey Meakin, Todd Thompson und J.J. Charfman vom Steward Observatory das bemerkenswerte Paper „The Effects of Moore's Law and Slacking on Large Computations“ auf astro-ph, der Astrophyik-Abteilung des Preprint-Servers arXiv, veröffentlicht. Obwohl das damals nach meiner Erinnerung hohe Wellen geschlagen hat (selbst slashdot, damals eine der wichtigsten Seiten im Netz, berichtete), haben sie es bis heute zu keiner Fachzeitschrift eingereicht. Keine Ahnung, warum nicht, denn ihr Punkt ist trotz ihres eher leichtfüßigen Stils[1] völlig korrekt und jedenfalls nicht ganz offensichtlich.

    Gottbrath und Freunde sagen nämlich, dass, wer eine riesige Rechenaufgabe und ein festes Budget hat, durch Warten schneller fertig werden kann. Das liegt daran, dass mensch nach 18 Monaten (das ist die konventionelle Zeitskala für Moore's Law) fürs gleiche Geld einen Rechner mit doppelt so vielen Transistoren kaufen kann und der wird mit etwas Glück doppelt so schnell sein wie der, den mensch heute kaufen würde. Sie berechnen auch, wie groß eine Rechnung sein muss, damit sich das Warten lohnt: mit dem 18-Monate-Gesetz ist die Grenze bei Aufgaben, die 26 Monate rechnen würden.

    Weil das Paper damals in meiner Blase intensiv herumgereicht worden ist, finde ich überraschend, dass es laut ADS nur sechs Mal zitiert (wenn auch von einer illustren Auswahl von Papern) worden ist und bei den üblichen Suchmaschinen bei Anfragen wie „Moore's Law optimal waiting“ nicht in Sicht kommt.

    Transistoren vs. SARS-2

    Gesucht hatte ich es wiederum, weil ich ja schon länger mit Niedriginzidenzsstrategien hadere. Ganz unabhängig davon, ob wir als Gesellschaft hohe Inzidenzen ohne Schrammen überstehen, dürfte inzwischen niemand mehr ernsthaft bestreiten, dass „am Ende“ alle SARS-2 gehabt haben werden – die Frage ist nur, wann („werden wir im Herbst 2022 wieder einen Lockdown brauchen?“) und auch, wie viele Menschen bis dahin wegen SARS-2 schwer krank geworden oder gar gestorben sein werden.

    An diesem Punkt ist mir das 1999er-Paper eingefallen, denn wir haben bei SARS-2 etwas ganz ähnliches wie Moore's Gesetz: Die Sterblichkeit nach einer Erstinfektion steigt exponentiell mit dem Alter. Das haben im September 2020 (also einige Monate, bevor Impfungen gegen SARS-2 epidemiologisch relevant wurden) Andrew Levin und Kollegen in ihrem Artikel „Assessing the age specificity of infection fatality rates for COVID-19: systematic review, meta-analysis, and public policy implications“ (doi:10.1007/s10654-020-00698-1) recht sorgfältig und beeindruckend gezeigt. Die Abbildung am oben im Post ist aus dieser Arbeit.

    Da hier das Risiko und nicht die Leistung zunimmt, ist jetzt allerdings die Frage nicht, ob mensch lieber etwas warten soll. Nein, je älter Leute werden, desto größer ist ihr Risiko, eine SARS-2-Infektion nicht zu überleben, und dieses Risiko wächst ziemlich steil. Der Gedanke, die Gesamtopferzahl könnte sinken, wenn sich Menschen anstecken, solange sie noch jünger sind und sie also die Infektion mit höherer Wahrscheinlichkeit überleben, liegt also nicht fern. Die zur Prüfung des Gedankens notwendige Mathematik läuft im Wesentlichen analog zu den Überlegungen von Gottbrath und Freunden.

    Ethisch ist es natürlich nicht analog, aber ich wollte dennoch wissen, wie viel das eigentlich ausmachen könnte. Deshalb habe ich mir folgendes Modell ausgedacht:

    1. Die Infection Fatality Rate, also die Wahrscheinlichkeit, an einer (erkannten oder unerkannten) SARS-2-Infektion zu sterben, ist inspiriert von der Abbildung oben

      IFR = exp((t − A1) ⁄ λ) ⁄ 100.

      Dabei ist t das Alter der erkrankten Person, A1 das Alter, in dem 1% der Infizierten versterben (das pro-cent ist auch der Grund für die Division durch Hundert), und λ so etwas wie die Steigung; nennt mensch das Alter, in dem die Todesrate auf 10% gestiegen ist, A10, so lässt sich leicht

      λ = (A10 − A1) ⁄ ln(10)

      ausrechnen.

    2. Eine ultrakompetente Regierung (oder Schwarmintelligenz auf Brillianzniveau cosmic) kriegt es hin, die Inzidenz konstant über viele Jahre auf i zu halten. In meiner Simulation bleibe bei der Interpretation als Wocheninzidenz und simuliere die Infektion von Woche zu Woche. Gegenüber den Inzidenzen in der realen Welt gibt es bei mir außerdem keine Dunkelziffer.

    3. Wer nicht an SARS-2 stribt, stirbt nach Gompertz (cf. Mortalität in der Wikpedia), es stirbt also jedes Jahr ein Anteil („General Fatality Rate”)

      GFR = S30⋅exp(G⋅(t − 30  a)).

      der t-jährigen. Dabei ist S30 die Sterberate für 30-jährige, die ich aus dem Wikipedia-Artikel als ungefähr 40/100000 pro Jahr ablese, und G der Gompertz-Sterbekoeffizient – ich bin nicht sicher, ob ich so eine Größe eigentlich nach mir benannt haben wollte -, den die Wikipedia als 0.08 ⁄  a gibt. Etwas jenseits von Gompertz lasse ich jede Woche 1/52 der fürs jeweilige Wochen-Alter berechneten Menschen sterben; das macht vor allem die Kurven von SARS-2-Opfern über der Zeit glatter.

    4. Wer eine SARS-2-Infektion überlebt hat, stirbt nicht mehr an SARS-2. Das ist sicher eine unrealistische Annahme, aber sie macht das Modell auch deutlich klarer.

    Bliebe noch die Schätzung der Parameter aus der Formel für die IFR. Aus der Abbildung am Artikelanfang lese ich per Auge A1 = 65  a und A10 = 83  a ab (wer von den a irritiert ist: das ist die Einheit, nämlich das Jahr).

    Hier liegt die zweite wesentliche Schwäche meines Modells: Nachdem inzwischen in den dabei mitspielenden Altersgruppen wirklich eine überwältigende Mehrheit geimpft ist, werden diese Zahlen heute garantiert anders aussehen als in der ersten Jahreshälfte 2020, als die Studien gemacht wurden, die Levine et al ausgewertet haben. Andererseits legen die immer noch recht erheblichen Sterbefallzahlen nahe, dass sich die Kurve wohl nur ein wenig nach rechts verschoben haben wird; ich komme gleich nochmal darauf zurück.

    Der Berg des Todes

    Habe ich dieses Modell, kann ich einer Gruppe von Menschen folgen, bis sich (fast) niemand mehr infizieren kann, weil alle entweder tot oder in meinem Sinne immun sind. Ohne es probiert zu haben, glaube ich, dass das Modell einfach genug ist, um es in eine geschlossen lösbare Differentialgleichung umschreiben zu können. Aber wer will denken, wenn es doch Computer gibt?

    Und so habe ich die Modellannahmen von oben einfach in ein paar Zeilen Python gepackt und folge dem Schicksal einer Kohorte von 100000 70-jährigen, bis alle tot oder genesen sind. Und das mache ich für einen Satz von Inzidenzen zwischen 20 und 2000. für Das Ergebnis:

    Eine Kurve mit einem deutlichen Maximum um die 100

    Ich gebe zu, dass ich mit dieser Kurvenform nicht gerechnet hatte. Dass ganz niedrige Inzidenzen die Todeszahlen drücken, ist zwar zunächst klar, denn bei, sagen wir, 20/100000/Woche würde es 100000 ⁄ 20 = 5000 Wochen oder fast 100 Jahre dauern, bis alle mal das Virus hätten haben können, und in der Zeit sind 70-jährige natürlich anderweitig gestorben.

    Das hohe und recht steile Maximum um die 100 herum hatte ich so aber nicht erwartet. Zu ihm tragen vor allem Leute bei, die erst nach einigen Jahren – und dann deutlich gebrechlicher – mit SARS-2 in Kontakt kommen. Bei einer 100er-Inzidenz sieht die Wochensterblichkeit über der Zeit (in Wochen) so aus (cf. make_hist_fig im Skript):

    Kurve mit einem Maximum zwischen 1000 und 1700 Wochen

    Diese Kurve wäre ziemlich zackig, wenn ich strikt nach Gompertz-Formel nur ein Mal im Jahr natürliche Tode hätte, statt die diese geeignet auf die Wochen zu verteilen.

    Die Menschen, die am Anfang der Pandemie 70 sind, sterben in diesem Modell also typischerweise nach 1000 Wochen oder fast 20 Jahren, wenn sie ihn ihren 90ern wären. Das mag etwas fantastisch klingen. Jedoch: Das RKI hat früher immer dienstags die Demographie der Verstorbenen veröffentlicht (z.B. Bericht vom 30.3.2021, siehe S. 12), und tatsächlich sind 20% der Coronatoten in der Altersgruppe 90-99.

    Aber klar: Das ist hypothetisch. Niemand kann die Inzidenzen konstant auf 100 halten, und niemand wird das vernünftigerweise wollen. Vor allem aber mag die Impfung die IFR-Kurve durchaus so weit nach rechts verschieben, dass der Sterblichkeitspeak, der hier noch bei 90-jährigen sitzt, jenseits der 100 rutscht, und dann betrifft das, bei heutigen Lebenswerwartungen, praktisch niemanden mehr.

    Zynische Metriken

    Als Gedankenexperiment jedoch finde ich das Ganze schon bemerkenswert: Wenn wir eine 1000er-Inzidenz aushalten können, würden wir nach diesem, eingestandenermaßen idealisierten, Modell 7% der 70-jährigen den Tod durch SARS-2 ersparen.

    Ein so starker Effekt muss eigentlich schon aufgefallen sein. Wenn das kein Fehler auf meiner Seite ist: steht das schon irgendwo in der epidemiologischen Literatur?

    Allerdings ist die, ach ja, Metrik „Wie viele Leute sterben an SARS-2?“ auch ziemlich nichtssagend. Weit üblicher zur Einschätzung der Frage, wie viel Geld (oder Nerven) mensch für Interventionen gegen Krankheiten ausgeben mag, sind die YLL, Years of Life Lost (cf. nochmal DALY in der Wikipedia). Diese Metrik ist zwar – ganz wie meine Rechnung hier – ein wenig zynisch, aber doch nachvollziebar genug, dass ich mir aus meinem Modell auch nochmal die Gesamtlebensjahre habe ausspucken lassen, die meine 100000er-Kohorte in den Läufen mit den verschiedenen Inzidenzen …

  • Trifft die Menschen hart

    Viele Kurven mit Lebenserwartungen

    Die SARS-2-Pandemie ist historisch: relative Änderungen der Lebenserwartungen nach Jahren für Männer, soweit doi:10.1016/S2214-109X(21)00386-7 brauchbare Daten hatte. In Blau ist die Veränderung 2020 (also vor allem durch SARS-2) markiert. Es lohnt sich, die Abbildung detailliert in einem eigenen Browserfenster anzusehen: Von den demographischen Folgen des Zusammenbruchs der alten Ordnung in vielen Ex-Ostblockstaaten über die Spanische Grippe und die verschiedenen Kriege bis hin zum Rauschen der kleinen Zahlen in Island ist viel zu entdecken. CC-BY Aburto et al.

    In den Informationen am Morgen im Deutschlandfunk hat der Moderator Rainer Brandes heute berichtet, dass die deutsche Regierung nun Einreisesperren für Menschen aus dem südlichen Afrika verhängt hat und fuhr fort mit dem Satz: „Das trifft die Menschen dort natürlich hart“.

    Wenn das ein Versuch von Empathie war, ist der ziemlich misslungen. Einerseits, weil „die Menschen“ in der Region im Schnitt sicher nicht gerade jetzt (es ist eiskalt!) dringend in die BRD wollen. Tatsächlich wäre ich überrascht, wenn das Land als Reise- oder Fluchtdestination überhaupt schon in vielen Köpfen aufgetaucht wäre, schon aus Sprachgründen.

    Weiter geht aus der Übersicht zur Visumspflicht des Auswärtigen Amts hervor, dass die BewohnerInnen aller Staaten des südlichen Afrikas (Südafrika/Azania, Eswatini, Lesotho, Simbabwe, Botsuana, Angola, Mosambik und sogar die unseres alten Schlachtfeldes Namibia) ohne Visum nicht reinkommen. Wie groß sind wohl die Chancen eines Durchschnittsmenschen aus, sagen wir, Namibia ohne bereits bestehende Kontakte hierher, so ein Visum zu bekommen?

    Der wirklich wesentliche Punkt in Sachen Empathie ist aber: Für fast die gesamte EinwohnerInnenschaft des südlichen Afrika stellt sich die Visafrage nicht, und auch nicht die coronabedingter Reisebeschränkungen: Die Leute sind schlicht zu arm, und bevor sie darüber nachdenken, wo sie nächste Woche hinfliegen könnten[1], müssen sie erstmal klarkriegen, was sie morgen zu beißen haben.

    Angesichts der oft wirklich schreienden Armut in der weiteren Region (und auch unserer eigenen Visapolitiken) ausgerechnet die coronabedinge Einreisesperre in die BRD als „hart“ zu bezeichnen – nun, das ist entweder verwegen oder ignorant.

    Etwas Ähnliches ist mir neulich beim Hören eines Interviews mit Arne Kroidl vom Tropeninstitut der GSU LMU München zu einer Corona-Seroprävalenzstudie in Äthiopien durch den Kopf gegangen. Hintergrund ist das Paper doi:10.1016/S2214-109X(21)00386-7, in dem berichtet wird, dass es zwischen August 2020 und und Februar 2021 im eher ländlich geprägten Jimma Inzidenzen im Bereich von im Schnitt 1600/100000/Woche gegeben haben muss, in Addis Abeba sogar über 4500; was das für Inzidenzen während der tatsächlichen Ausbrüche bedeutet, ist unschwer vorstellbar.

    Das ist dort offenbar nicht besonders aufgefallen, es hat ein Forschungsprojekt gebraucht, um es zu merken. In einer im Wesentlichen völlig ungeimpften Bevölkerung.

    Das ist kein Argument dafür, dass SARS-2 doch harmlos ist. Es ist ein Symptom der Nonchalance, mit der „wir“ Verhältnisse hinnehmen, in denen Menschen an einem Fleck recht normal finden, was woanders (zu recht) als wirklich ganz schlimme Gesundheitskrise empfunden würde. Bei aller Reserviertheit gegenüber Metriken und Zweifeln am Meldewesen: Laut CIA World Factbook ist die Lebenserwartung in Äthiopien 68 Jahre. Die Vergleichszahl für die BRD sind 81 Jahre.

    Aburto et al, doi:10.1093/ije/dyab207, schätzen, dass Corona, wo es wirklich schlimm durchgelaufen ist (Spanien, Belgien), etwa anderthalb Jahre Lebenserwartung gekostet hat (in der BRD: ca. 6 Monate). Wie viel schlimmer das ohne Lockdown geworden wäre, ist natürlich Spekulation, aber da es gerade die besonders verwundbaren Bevölkerungsgruppen ohnehin besonders schlimm erwischt hat, dürfte ein Faktor fünf zwischen dem realen Verlauf und dem schlimmsten Szenario eine sehr plausible Obergrenze geben, oder etwa eine um acht Jahre reduzierte Lebenserwartung. Auch damit wäre die BRD immer noch fünf Jahre über den offiziösen Zehlen in Äthiopien.

    Was in dieser Metrik[2] hier im Land ein unvorstellbares Gemetzel ist (denn fünf Mal Belgien wäre hier bundesweit Bergamo), ist dort Normalzustand, und zwar zu guten Stücken aus völlig vermeidbaren Gründen, wie beispielsweise unserer Völlerei; vgl. dazu How food and water are driving a 21st-century African land grab aus dem Guardian von 2010. Oder den IWF-Strukturanpassungsmaßnahmen, die, wo immer sie zuschlugen, das öffentliche Gesundheitswesen ruinierten und die Menschen Evangelikalen und anderen Hexendoktoren in die Arme trieben. Am Beispiel Peru illustriert zwangen „wir“ mit unseren marktradikalen Zivilreligion zwischen 1981 und 1990 die dortige Regierung zur Senkung der Gesundheitsausgaben um 75%.

    Verglichen mit solchen Totalabrissen sind unsere Gesundheitsreformen kaum mehr als das Niederlegen einer Hälfte der Doppelgarage vor der Villa. Dass „wir“ bei sowas dezent in die andere Richtung schauen, das ist ein noch größeres Empathieversagen als das vom Anfang dieses Posts.

    Nachtrag (2022-03-28)

    Der Hintergrund Politik vom 11. März wirft weitere Blicke auf die SARS-2-Situation in Afrika. In der Sendung berichtet Kondwani Jambo beispielsweise, dass BlutspenderInnen in Malawi im Februar 2022 bereits zu 80% SARS-2-positiv waren; auch in einem Land mit einem – laut Angaben der Sendung – Durchschnittsalter von knapp 18 hätte eine derart hohe Welle eigentlich stark auffallen müssen. Die Vermutung, Kreuzimmunitäten mit lokal verbreiteten anderen Coronavieren könnten geholfen haben, findet Jambo nicht bestätigt. Seine in der Sendung unverbindlich angebotene Erklärung über „schnellere“ Monozyten in Malawi gegenüber einer britischen Vergleichsgruppe finde ich allerdings spontan auch nicht allzu überzeugend.

    [1]Wie der BUND nicht ganz unplausibel behauptet: 90 Prozent der Weltbevölkerung haben noch nie ein Flugzeug von innen gesehen.
    [2]Wie immer sollte die Metrik nicht überbewertet werden; metriktheoretisch lesenswert ist in diesem Zusammenhang das Methoden-Kapitel der Aburto-Arbeit. Mensch sollte insbesondere klar haben, dass sich ein Tod weniger junger Menschen in der Lebenserwartung bei Geburt nicht von einem Tod vieler alter Menschen (wie bei SARS-2, wo der Verlust von Lebenserwartung bei Männern bei Aburto et al fast überall durch Tode in der Altersgruppe 60-79 dominiert ist) unterscheiden lässt. Mensch muss nicht Boris Palmer sein, um zwischen diesen Situationen unterscheiden zu wollen. Aber schon meine Erfahrungen mit Notaufnahmen in den USA (näher bin ich, eingestandenermaßen, Krankenhäusern im globalen Süden nie gekommen) sagen mir, dass die Lebenserwartungs-Zahlen eben doch oft sehr konkrete Not beim Zugang zu medizinischer Versorgung spiegeln.
  • Wieder falsch vorhergesagt

    Also gut. Ich sehe es ein. Und gebe es auf. Vor neun Tagen hatte ich vorhergesagt, heute müssten so in etwa 4700 Intensivbetten mit SARS-2-PatientInnen belegt sein. In Wahrheit liegt die DIVI-Zahl im RKI-Bericht von heute bei 3987, also gut 15% darunter. Das wäre bei meinen sonstigen Handwerks-Abschätzungen kein Drama. Hier aber sagt es klar: Meine Methode taugt (erstmal) nicht (mehr).

    Hintergrund war mein Artikel von vor 18 Tagen, in dem ich (für Verhältnisse dieses Blogs sorgfältig) die Verzögerung zwischen steigenden Inzidenzen und in der Folge steigender Intensivbelegung abgeschätzt habe. Das Ergebnis für die vierte Welle waren neun Tage. Doch schon die daraus folgende Abschätzung der Intensivbelegung vor neun Tagen lag weit daneben.

    Und nun liege ich eine weitere Verzögerungsperiode später wieder falsch. Das ist also ganz offenbar alles Quatsch. Während ich mich bei der letzten falschen Vorhersage noch mit einer Fehlanwendung des heuristischen Modells herausreden konnte, ist das bei zwei falschen Vorhersagen nicht mehr drin. Nein. Die Prämisse ist falsch. Die Instensivbelegung folgt nicht mehr, wie noch in den zweiten und dritten Wellen, ganz brauchbar der Inzidenz. Die beiden Kurven haben sich inzwischen sehr deutlich entkoppelt:

    Graph: Entkoppelte Entwicklungen

    Meldezahlen des RKI vs. DIVI-Zahlen (Quellen vgl. Halbwegs gute Nachrichten). Auf der Zeitachse Sekunden seit 1.1.2020; 5⋅107 entspricht dabei dem 1.8.2021. Die Intensivbelegung ist um neun Tage nach vorne gezogen, um den wahrscheinlichsten Verzug auszugleichen und die Kurven übereinanderzubringen. Die y-Achse ist wie immer bei solchen Wachstumsplots von mir logarithmisch (also: exponentielles Wachstum ist eine Gerade). Die Skalierung der Intensivbelegung ist frei Auge, aber egal, wie mensch das macht: die Kurven passen nicht übereinander.

    Ganz offensichtlich reagiert die Intensivbelegung „weicher“ als die Inzidenz, und zwar nicht nur, wie aufgrund längerer Liegezeiten zu erwarten, nach unten, sondern auch nach oben. Es ist eben derzeit nicht so, dass aus einer gegebenen Zahl von Infizierten eine leicht vorhersehbare Zahl von IntensivpatientInnen wird. Daher ist vorläufig jede Vorhersage, die von einem konstanten Verhältnis von Intensivbelegung zu Inzidenz ausgeht, eine schlechte und ziemlich sicher falsche Vorhersage.

    Das richtige Vorgehen wäre jetzt, nachzusehen, was eigentlich diese Annahme kaputt macht (wobei: wie ich im September herausgefunden habe, war sie so ganz richtig ohnehin nie). Leider gibt es eine große Zahl möglicher Gründe, allen voran ist das natürlich die Demographie. Solange sie nicht ihre Eltern und Großeltern anstecken, können sich sehr viele Kinder mit SARS-2 infizieren, bevor das irgendwo in Intensivstatistiken sichtbar wird, während umgekehrt ein einziger Ausbruch in einem Pflegeheim mit gebrechlichen Menschen einige dutzend Intensivbetten belegen mag, was auch bundesweit schon eine Veränderung im einstelligen Prozentbereich ausmachen würde.

    Dazu kommen dann regional und nach Altersgruppen recht deutlich schwankende Impfquoten: Rasant steigende Inzidenzen in Bremen mit einer relativ stark durchimpften Bevölkerung geben ziemlich sicher ein deutlich schwächeres Signal auf Intensiv als eine rollende Welle in Sachsen, wo immer noch viele Menschen im mittleren Altersbereich ungeimpft sind und damit weit eher langwierige und kritische Verläufe nehmen werden

    Nachtrag (2021-11-25)

    Zum Thema Sachsen ist in der taz vom 25.11. zu lesen, von den dortigen 14000 PolizistInnen seien derzeit 519 SARS-2-positiv. Das ist eine 100000er-Wocheninzidenz zwischen 1500 und 4000, je nach dem, wie die zählen, und damit selbst für sächsische Verhältnisse (RKI-Inzidenz heute 1075) ziemlich sportlich.

    Mein int/inc-Maß (IntensivpatientInnen pro Inzidenzpunkt) ist aber auch empfindlich für Auswahleffekte. So wird es immer dann stark sinken, wenn systematisch getestet wird: Wenn die Dunkelziffer unerkannt Infizierter runtergeht, geht die Inzidenz im Hellfeld und damit mein Nenner hoch, ohne dass sich an der im Zähler reflektierten Realität etwas ändert. Besonders verzerrend werden sich solche Effekte auswirken, wenn systematische Tests nur demographisch oder impfstatistisch sehr auffällige Teile der Bevölkerung erreichen (sagen wir: SchülerInnen).

    In Summe: Wer derzeit aus der Inzidenzkurve Vorhersagen über die Intensivbelegung machen will, musss Impfquoten und Demographie, und damit auch die geographische Verteilung der Inzidenz, berücksichtigen, wenn das irgendwie hinkommen soll. Und das mutiert zu mehr Arbeit als ich in der Kategorie handwerk tun will.

    Bestimmt macht das irgendwer auch richtig. Aber dann: die Zahlenspielereien ändern nichts daran, dass wir Inzidenzen um 5000 haben müssten, wenn wir im nächsten Frühling durch sein wollen (100000/(5000 pro Woche) entspricht 20 Wochen oder einem knappen halben Jahr, mit Dunkelziffer also vielleicht einem Vierteljahr oder so), und auch nicht daran, dass das mit unseren augenblicklichen Techniken und Politiken ein furchtbares Gemetzel werden würde. Seufz.

  • Keine guten Nachrichten

    Und wieder muss ich meinen Hut essen im Zusammenhang mit meinen Corona-Zahlenspielen. Ich hatte nämlich vor neun Tagen zuversichtlich vorhergesagt, so etwa jetzt sollten knapp 3500 Intensivbetten in der BRD mit SARS-2-PatientInnen belegt sein, mit dem Argument, dass sich die entsprechenden Zahlen derzeit neun Tage hinter der Inzidenz herbewegen. Da (und das war, wie unten diskutiert, ein Fehlschluss) die Inzidenz in den neun Tagen vor dem 6.11. um 44% gestiegen war, sah ich die Intensivbelegung heute bei 2332⋅1.44 ≈ 3350. Tatsächlich aber berichtet das RKI heute von nur 3034 SARS-2 IntensivpatientInnen, also um die 10% weniger als meine Vorhersage – oder 30% weniger Anstieg, um die Fehleinschätzung mal deutlicher zu machen.

    Ein Metafehler und einige Nicht-Fehler

    Es war schon ein paar Tage abzusehen, dass ich falsch liegen würde, und ich habe mir bereits letzte Woche ein paar lose Gedanken gemacht, wo wohl mein Fehler liegen könnte. Nicht angreifen konnte ich meine Argumentation aus dem Artikel, nach der die Leute, die in den vergangenen neun Tagen intensivpflichtig geworden sind, damals bereits krank waren und in diesem Sinn nicht mehr viel zu ändern sein würde.

    Ich hatte dann kurz überlegt, ob vielleicht bei der Normalisierung der Ableitungen (das incs /= sum(abs(incs)) irgendwas schief gegangen sein kann. Aber nein, eine Angabe wie „44%“ ist natürlich selbst normalisiert („pro hundert“). Der Verdacht jedoch führte schon mal in die richtige Richtung: Nachdenken über die Ableiterei und was dabei so passiert.

    Bevor ich da weiterknoble, zunächst die eigenliche Selbstbezichtung, denn was ich vor neun Tagen zumindest hätte tun sollen, wäre eine simple Validierung an den bestehenden Daten, nämlich am unmittelbar vorhergehenden 9-Tage-Intervall. Am 27.10. war die Intensivbelegung bei 1707, in den neun Tagen vor dem 6.11. war die Intensivbelegung also um 37% gestiegen. Es wäre ganz leicht gewesen, gleich nachzusehen, ob auch die Meldezahlen des RKI in den neun Tagen davor um etwas wie 37% gestiegen sind. Ich hätte festgestellt, dass sie das nicht sind – am 27.10. lag die RKI-Meldeinzidenz bei 118, am 18.10. bei 74, ein Anstieg also um satte 59% –, und das hätte mir gesagt, dass ich einen Fehler gemacht habe.

    Auch dann hätte ich vermutlich, wie heute auch, den nächsten Verdacht auf die heftige Kontamination der tageweisen Inzidenzschätzungen des RKI durch Wochenenden und Co gelenkt – schon in meinem allerersten Corona-Post hatte ich die bejammert. Vielleicht ist es ja das? Im Programm von neulich glätte ich deshalb vor der Ableitung. Die geglättete Kurve kommt am 18.10. auf 75, am 27.10. auf 120, und für den 6.11. habe ich noch keine geglätteten Daten, weil da noch zu viele Randeffekte dabei sind. Das ist sehr nah an den ungeglätteten Daten. Also, nein: Das macht repariert meine Fehlvorhersage nicht.

    Der wirkliche Fehler

    Das tatsächliche Problem liegt in der Methode, und zwar nicht in dem komplizierten Teil. Die Berechnung des Verzuges mit all dem Glätten und Ableiten ist völlig in Ordnung. Das Problem ist vielmehr, und ein wenig Nachdenken über Schulmathematik hätte mich darauf bringen können, in der Natur der Ableitung. Bei der gehen Konstanten nämlich verloren: (d)/(dx)(f(x) + C) = (d)/(dx)f(x). Ein hoher Sockel von Langzeit-IntensivpatientInnen wird bei meiner Verzögerungsrechnung einfach wegdifferenziert. Das ist ja sogar der Sinn der Differenziererei.

    Nur: Wenn ich am Schluss blind „44% mehr“ rechne, wird der Sockel (das C) mitmultipliziert, und genau da wird es falsch. Die richtige Rechnung wäre gewesen, die Differenz der Inzidenzen über die neun Tage vor dem 27.10. (von 74 auf 118) zu vergleichen mit der Differenz der Intensivbelegung der neun Tage vor dem 6.11 (von 1707 auf 2332) – dabei geht der Verzug ein, irgendwelche konstanzen Sockel spielen aber keine Rolle.

    Dieser Vergleich ergibt einen, sagen wir, 9-Tage-Übersetzungfaktor von 625 ⁄ 44 ≈ 14. In diesem stecken die Demographie der Erkrankten, die Eigenschaften des Virus, das Verhalten der Bevölkerung, und alles andere, was die mittlere Wahrscheinlichkeit bestimmt, mit einer SARS-2-Infektion intensivpflichtig zu werden. Unter der Annahme jedoch, dass der Übersetzungsfaktor über kurze Zeiten in etwa kontant ist, kann mensch jetzt die Entwicklung korrekt vorhersagen. Und zwar übersetzt sich demnach die Inzidenzentwicklung zwischen 27.10. und 6.11. (von 118 auf 164) 14-fach in die Intensivbelegung der jetzt gerade vergangenen neun Tage (das ist letztlich etwas wie ein Momentanwert von meiner int/inc-Metrik aus dem September).

    Ich hätte damit am 6.11. vorhergesagt, die Intensivbelegung würde um 46⋅16 = 644 zunehmen oder eben auf 2332 + 644 = 2976, in guter Übereinstimmung mit dem berichteten Wert von 3034.

    Blöd, dass ich nach meinen Zahlen- und Interpolationsspielen beim Zusammenbau der Vorhersage nicht aufgepasst habe. Aber es zeigt mal wieder, dass Mathe voll ist mit Fallen und ein Moment der Unaufmerksamkeit ziemlich unausweichlich zu zwanghaftem Vertilgen von Hüten führt. Und dabei hätte ich mir durch einfache Versuche, die Zukunft der Verangenheit vorherzusagen – ein sehr probates Mittel, wann immer mensch Zeitreihen analysiert – diese wenig erfreuliche Mahlzeit sparen können. Rülps.

    Aus eine physikalischen Betrachtung heraus ist diese Methode auch nicht so arg befriedigend, denn natürlich gibts bei den Meldezahlen keinen Sockel. Die sind ja selbst schon Ableitungen[1], nämlich die der Gesamtzahl der Infizierten. Die Intensivbelegung ist von der Genese her noch komplexer, da dort Zu- wie Abgänge eingehen. Insofern ist die Sache mit dem Übersetzungsfaktor zutiefst phänomenologisch und kann also aus vielen Gründen brechen.

    Schauen wir also mal, wie es in neun Tagen, am 24.11., aussieht. Meine Vorhersage wäre 3034 + (303 − 184)⋅14 = 4700. Das ist auch von der Dynamik her nicht mehr weit weg von der Höchstbelegung am 3.1.2021 (5762), und ohne ziemlich deutliche „Maßnahmen” werden wir wohl recht bald an der vorbeirauschen.

    [1]Wobei: Solange die Entwicklung exponentiell ist, ist das mit der Ableitung in diesem Kontext quasi wurst, denn die Exponentialfunktion ex ist ihre eigene Ableitung. Reale Wachstumsfunktionen über der Zeit t sehen aus wie N(1 + r)t = Neln(1 + r)⋅t, wobei r die Wachstumsrate ist (mit RKI-Zahlen R-Wert minus 1). Die Ableitung solcher Funktionen sind sie selbst mal einem konstanten Faktor, und der würde bequem in unserem Übersetzungfaktor 14 aufgehen. Wie gesagt: alles erstmal phänomenologisch.
  • Halbwegs gute Nachrichten

    Eine Kurve mit einem breitem Minimum um die 8.5

    Aus dieser Kurve lässt sich ablesen, dass wir in acht Tagen knapp 3500 SARS-2-Fälle auf Intensivstationen haben werden. Wie, verrate ich in diesem Artikel.

    In meinen Corona-Überlegungen gestern habe ich mich mal wieder gefragt, wie lange wohl die „Intensiv-Antwort“ dem Inzidenzsignal nachläuft, wie viele Tage es also dauert, bis sich ein Anstieg in den Inzidenzen in der Intensivbelegung reflektiert. Diese Frage ist, wie ich unten ausführe, derzeit ziemlich relevant im Hinblick auf Überlegungen, wie lange wir eigentlich noch Zeit haben, um massenhafte Triage in (oder vor) unseren Intensivstationen abzuwenden.

    Meine Null-Annahme für diese Verzögerung war seit Mai 2020 – nach einer entsprechenden Ansage eines befreundeten Anästhesisten – „eher so drei Wochen“. Bei nährem Nachdenken ist mir gestern aber aufgefallen, dass er wohl eher „von Infektion bis Intensiv“ gemeint haben wird, und dann ist die Antwort sicher schneller, denn von Infektion bis Meldung vergeht normalerweise wohl mindestens eine Woche. Aber: Ich muss nicht raten. Wir spielen hier mit Kennzahlen, die vielleicht in der Realität nicht immer viel bedeuten, aber zumindest klar definiert sind. Daher lässt sich der Verzug auf der Basis von RKI- und DIVI-Zahlen nachrechnen.

    Ich verrate gleich mal das Ergebnis: ich komme für die zweite Welle auf gut fünf Tage Verzug der Intensiv-Antwort, für die dritte auf etwa sieben Tage, für die vierte Welle auf acht bis neun Tage. Wie ich unten ausführe, sind das relativ gute Nachrichten.

    Zeitreihen

    Wie habe ich das gerechnet? Nun, die Korrelation von Zeitreihen ist ein ganzer Satz von Wissenschaften, bei denen es meist darum geht, ungleiche Abdeckungen, unregelmäßig gesetzte Messpunkte sowie allerlei Rauschen und Schmutz weggefummelt zu kriegen, ohne allzu viele Informationen zu verlieren oder, vielleicht schlimmer, damit Artefakte einzubauen.

    Die so gereinigten Daten lassen sich dann zum Beispiel geeignet skaliert und verschoben übereinanderlegen. Tatsächlich sind die Parameter dieser Transformationen im Regelfall (und gewissermaßen auch hier) viel interessanter als die Zeitreihen selbst[1]. Es gibt daher zahlreiche mathematische Verfahren, die das von einer Augenmaß-Übung in etwas verwandeln, das reproduzierbar und auch quantifizierbar ist. Vorsicht: ich bin da kein Experte und gehe hier nur mit nicht allzu schwer erkranktem Menschenverstand ran, verwende also (zumindest in Summe) gerade kein wirklich wohldurchdachtes Verfahren. Wer sowas wie das hier für Hausaufgaben oder Hausarbeiten verwendet, tut das auf eigene Gefahr.

    Andererseits bin ich recht zuversichtlich, dass der Kram insgesamt schon stimmt.

    Ausgangsdaten sind meine aus RKI-Berichten gescrapten Intensivbelegungen und ein RKI-Sheet (in, ach weh, „Office Open XML“ a.k.a. XSLX – muss das sein?) mit den Inzidenzen. Dabei ist das erste Problem, dass ich aus verschiedenen Gründen nicht für jeden Tag Belegungszahlen habe, und so ist mein erster Schritt, fehlende Punkte zu interpolieren. Das Scipy-Paket macht es leicht, aus einem Satz von Zeit/Wert-Paaren (die Zeit wird in den Lesefunktionen auf Sekunden seit einer Epoche gewandelt) ein handliches Array zu rechnen:

    grid_points = numpy.arange(
      raw_crits[0][0],
      raw_crits[-1][0],
      86400)  # ein Tag in Sekunden
    critnums = interpolate.griddata(
      raw_crits[:,0], raw_crits[:,1], grid_points)
    

    Ich wollte diese Interpolation eigentlich visualisieren, habe aber keine gute Stelle gefunden, an der sie einen sichtbaren Unterschied gemacht hätte, und entscheidend ist eigentlich nur, dass ich ab diesem Schritt blind mit Arrays arbeiten kann; deren Index ist zunächst die Zahl der Tage seit dem ersten Tag mit Daten, hier speziell dem 11.8.2020, denn damals habe ich mit dem Screenscrapen der DIVI-Daten angefangen.

    Übergeplottete Kurven

    Wenn ich diese interpolierten Kurven übereinanderlege, kommt das hier heraus:

    Zwei nicht so arg gut aufeinanderpassende Kurven

    Weil das, wie gesagt, erst im August 2020 anfängt, fehlt die erste Welle.

    Das bloße Auge reicht für die Bestätigung der Erwartung, dass die Intensivbelegung der Inzidenzkurve meist etwas hinterherläuft, wenn auch nicht so, dass mensch hoffen könnte, die beiden durch etwas Schieben global übereinanderzubekommen. Die großen Zacken in den Inzidenzen durch Weihnachten und Ostern finden sich in der Intensivbelegung gar nicht wieder, was ein klares Zeichen ist, dass sie weitgehend Erfassungsartefakte sind. In der Hinsicht wären die „großen“ RKI-Zahlen mit Referenzdaten (vgl. die Film-Geschichte) bestimmt besser, aber ich wollte für dieses Ding nicht die 200 Megabyte durchkämmen, zumal die „kleinen“ RKI-Daten besser auf die Meldedaten aus den Tagesberichten passen, um die es mir hier ja geht.

    Vor allem fällt auf, dass meine Jammerei darüber, dass der Impffortschritt die Intensivantwort nicht wesentlich abgeflacht hat, unzutreffend ist: Mit der Skalierung aus dem Plot liegen Inzidenz und Belegung in der zweiten und dritten Welle ziemlich übereinander, während in der vierten Welle doch ein knapper Faktor zwei dazwischenliegt; da scheint die Impfung doch ein wenig gegenüber Delta zu gewinnen (aber, klar, nirgendwo hinreichend).

    Ich hatte erwartet, dass die abfallenden Flanken der Intensivkurven deutlich flacher sind als die der Inzidenzkurven, weil Leute unter Umständen lang auf Intensiv liegen und es entsprechend lang dauern sollte, bis sich die Stationen wieder leeren. Das sieht im Abfall der zweiten Welle auch ein wenig so aus, nicht jedoch bei dem der dritten Welle. Bei ihr fällt die Intensivbelegung sehr treu mit der Inzidenz. So viele LangzeitpatientInnen gibt es glücklicherweise wohl doch nicht.

    Nach Glätten differenzierbar

    Wie kann ich jetzt den Verzug zu quantifizieren? Mein (wie gesagt eher intuitiv gefasster) Plan ist, über die Ableitung der jeweiligen Kurven zu gehen, und zwar aus der Überlegung heraus, dass mich ja Veränderungen viel mehr als Pegel interessieren. Nun habe ich aber keine differenzierbaren Funktionen, sondern lediglich Arrays, bei denen ich Ableitungen allenfalls durch Subtrahieren benachbarter Elemente simulieren kann. Solche numerischen „Ableitungen“ reagieren ziemlich empfindlich auf das Gewackel („Rauschen“), das es in realen Daten immer gibt („Subtraktion ist in der Regel numerisch schlecht konditioniert“). Deshalb will ich meine rohen Daten glätten, bevor ich die „Ableitung“ ausrechne, sprich: das Rauschen rausnehmen, ohne das Signal wesentlich zu verzerren.

    Glättung heißt eigentlich immer, Kurvenpunkte in einem Zelle für Zelle über die Daten laufenden Fenster zu mitteln, also z.B., indem mensch je fünf Nachbarpunkte rechts und links auf den aktuellen Punkt draufaddiert und ihn dann durch die durch elf geteilte Summe ersetzt. Mit diesem ganz naiven Rezept bekommen relativ weit entfernte Werte aber genauso viel Einfluss auf den aktuellen Punkt wie die unmittelbaren Nachbarn. Das modelliert meist die sachlichen Grundlagen des Rauschens nur schlecht. Es ist auch aus theoretischeren Gründen normalerweise eher ungünstig.

    Der eher theoretische Hintergrund ist grob, dass bei der Glättung letztlich zwei Funktionen gefaltet werden. Das ist äquivalent dazu, die Spektren der beiden Signale (ihre Fouriertransformierten) zu multiplizieren und dann wieder zurückzutransformieren. Bei einem einfachen Fenster des oben skizierten Typs („Rechteckfunktion“) gibts nun sehr scharfe Kanten, die wiederum zu einem sehr breiten Spektrum führen, so dass auch das Spektrum der geglätteten Funktion allerlei unwillkommene Features bekommen kann (manchmal ist das aber auch genau das, was mensch haben will – hier nicht).

    Wie auch immer: scipy macht es einfach, mit einer lärmarmen Funktion – die sieht ein wenig gaußig aus und ist im nächsten Plot im kleinen Inset zu sehen – zu glätten, nämlich etwa so:

    import numpy
    from scipy import signal
    
    smoothing_kernel = numpy.kaiser(20, smoothing_width)
    smoothing_kernel = smoothing_kernel/sum(smoothing_kernel)
    convolved = signal.convolve(arr, smoothing_kernel, mode="same"
      )[smoothing_width:-smoothing_width]
    

    Die Division durch die Summe von smoothing_kernel in der zweiten Zeile sorgt dafür, dass sich an der „Höhe“ der geglätteten Funktion insgesamt nichts ändert: Sozusagen ausgeklammert ist die Faltung eine Multiplikation mit eins. Das Wegschneiden der Ränder in der letzten Zeile wiederum entfernt Punkte, bei denen fehlende Werte am Anfang und Ende der Zeitreihe im Fenster waren. Scipy ersetzt die durch Nullen, so dass die geglätteten Werte am Rand steil abfallen. Was ich hier mache, entspricht technisch dem valid-Mode der convolve-Funktion. Nur weiß ich hier zuverlässig, wie lang das Array am Schluss ist.

    Der Effekt, hier auf Indzidenzdaten der vierten Welle:

    Zwei Kurven, eng beieinander, aber eine viel rauschiger, mit einem glockenähnlichen Inset

    Damit kann ich jetzt meine numerische „Ableitung“ bilden, ohne dass mir das Ergebnis furchtbar rauscht:

    diff = convolved[1:]-convolved[:-1]
    

    Die nächsten beiden Grafiken zeigen diese Pseudo-Ableitungen für Inzidenz und Intensivbelegung. Ich habe jeweils in blau reingemalt, wie es ohne Glättung aussehen würde, um deutlich zu machen, warum diese eine gute Idee ist und was ich mit „furchtbar rauschen“ meine. Weiterverwendet werden natürlich die orangen Verläufe:

    Zwei Kurven, eine schlimm wackelnd, die andere ruhig
    Zwei Kurven, eine schlimm wackelnd, die andere ruhig

    In der Inzidenzkurve fallen wieder Weihnachten und Ostern besonders auf, weil sie selbst in den geglätteten Graphen noch wilde Ausschläge verursachen.

    In der Zeit verschieben

    Schon der optische Eindruck aus dem Rohdaten-Plot legt nahe, die einzelnen Wellen getrennt zu untersuchen, und das ist angesichts von über die Zeit stark veränderlichen Viren, Testverhältnissen, demographischen Gegebenheiten und nichtpharamzeutischen Maßnahmen sicher auch sachlich geboten.

    Deshalb hier zunächst der Verlauf der Ableitungen von Inzidenzen und Intensivbelegung in der aktuellen vierten Welle (das ist eine Kombination der rechten Enden der orangen Graphen der letzten beiden Plots):

    Zwei Kurven, die eine der anderen recht schön folgend

    In dem Graphen steckt noch eine weitere Normalisierung. Und zwar habe ich für beide Arrays etwas wie:

    incs /= sum(abs(incs))
    

    laufen lassen. Damit ist die Fläche zwischen den Kurven …

  • Corona: Neue Filme, Alte Zahlen

    Weil sich sowohl bei Inzidenz als auch bei Altersstruktur der Corona-Meldungen gerade viel tut, habe ich meine beiden Coronafilme neulich neu rechnen lassen. Dabei habe ich beim Inzidenzfilm noch darauf verzeichtet, den Wertebereich über die 350 hinaus zu erweitern, auch wenn das bewirkt, dass sowohl der Kreis mit der höchsten Inzidenz gestern (Miesbach mit 715 Fällen/100'000) als auch der Kreis mit der 33st-höchsten und mithin nur halb so hohen Inzidenz (Ostallgäu mit 350/100'000) saturiert erscheinen.

    Irgendwas werde ich da bei der nächsten Aktualisierung tun müssen, denn, wie z.B. ich im September ausgeführt habe: eine 300-er Inzidenz bedeutet, dass es sechs Jahre dauert, bis alle mal SARS-2 hatten. Es wird im anderen Worten Inzidenzen in den Tausendern brauchen, wenn SARS-2 in nächster Zeit zu einem der anderen humanen Coronaviren werden soll, mit denen zu leben wir alle schon als Kinder schniefend gelernt haben.

    XKCD-cartoon

    Randall Munroe hat mir in der Woche mal wieder aus dem Herzen gesprochen. CC-BY-NC xkcd

    Schniefend, so wie ich jetzt, denn seit letztem Freitag habe ich meine erste richtige Erklältung seit Corona. Ich hatte ganz vergessen, wie doof sowas ist (und nein, ausweislich zweier Antigentests gleich am Freitag und dann am Montag nochmal ist es kein SARS-2). Schon deshalb habe ich gestern mit viel Interesse den Wochenbericht des RKI gelesen, in dem ja immer die Ergebnisse der Influenzasurveillance (Seite 13) berichtet werden. Über die Proben von an respiratorischen Infekten erkrankten Personen steht dort gestern:

    In der virologischen Surveillance der AGI wurden in der 43. KW 2021 in insgesamt 118 von 204 eingesandten Proben (58 %) respiratorische Viren identifiziert. Darunter befanden sich 61 Proben mit Respiratorischen Synzytialviren (RSV) (30 %), 31 mit Rhinoviren (15 %), 20 mit humanen saisonalen Coronaviren (hCoV) (10 %), acht mit SARS-CoV-2 (4 %), sechs mit Parainfluenzaviren (3 %) sowie eine Probe mit humanen Metapneumoviren (0,5 %). Influenzaviren wurden in der 43. KW 2021 nicht nachgewiesen.

    Wenn das irgendwie repräsentativ ist, habe ich eine gute Chance, dass meine derzeitige Pest RSV ist und ich den Rhinoviren Unrecht getan habe, wenn ich sie schon am Freitag mit den saftigsten Flüchen belegt habe. Tatsächlich habe ich aber schon vor dem oben gezeigten XKCD 2535 überlegt, wer mich da wohl gerade quält. Ich glaube jedenfalls, Randall Munroe ist gerade auch erkältet.

    Aber zurück zu meinen Überlegungen vom September: Ich hatte damals ja bejammert, dass wir seit Anfang der Pandemie, von steilen Inzidenzflanken nach oben (etwas niedrigeres int/inc) und unten (deutlich höheres int/inc) abgesehen, eigentlich immer so 20 SARS-belegte Intensivbettern pro Inzidenzpunkt (int/inc) hatten und das grob bedeutet, dass Inzidenzen über 300 ein Gemetzel werden.

    Ich muss leider sagen, dass sich das nicht wesentlich geändert hat. An der stark steigenden Flanke am 2.11.2020 lag int/inc nach RKI-Zahlen bei 2243 ⁄ 120 ≈ 19, derzeit, ebenfalls an einer stark ansteigenden Flanke ist das 2226 ⁄ 155 ≈ 15. Seufz.

    Etwas einschränkend dazu zwei Punkte:

    • Mein Plot neulich hat, wo verfügbar, mit Referenzdaten gerechnet, also, wo rekonstruierbar, den Ansteckungs- und nicht den Meldedaten. Damit kommt mensch für Anfang November 2020 auch auf ein int/inc von rund 15; mit den aktuellen Daten geht das aber nicht, einfach weil von den jetzigen Daten viele Daten aus der Zukunft fehlen, deren Referenzdaten irgendwann mal heute sein werden. Deshalb vergleiche ich hier ganz blind in beiden Fällen die instantanen RKI-Meldezahlen und vergesse meine raffiniertere Technik vom September.
    • Ein wesentlicherer Einwand ist, dass wir in diesem Jahr von einem weitaus höheren Sockel kommen und deshalb in Wirklichkeit die Flanke in der Intensivantwort wesentlich weniger steil ist als im letzten Jahr und sie wahrscheinlich auch in Zukunft vermutlich nicht gleich auf 20 oder sowas zurücklaufen wird, wenn die Inzidenzentwicklung abflacht.

    Das mag so sein, aber qualitativ ändert das alles nicht viel: Unser int/inc ist um mindestens eine Größenordnung zu groß, als dass „wir“ entspannt auf 1000er-Inzidenzen hinlaufen könnten; ob bei 300 (sechs Jahre bis zur Endemisierung) oder bei 500 (vier Jahre) Schluss ist, ist in dieser Betrachtung eher nebensächlich.

    Mein told you so (auch schon im Juli, vierter Absatz) wäre vielleicht befriedigender, wenn das auch im September nicht eigentlich jedeR gesagt hätte, der/die nicht woandershin geschaut hat (was bis neulich sehr populär war, und nur so ist irgendwie plausibel zu machen, warum es ausgereicht jetzt hektische Krisentreffen gibt). Andererseits hatte ich damals auch gesagt:

    wir dürften also, wenn nicht ein Wunder geschieht, in sechs Wochen, Mitte Oktober, deutlich über 4000 liegen und damit in der Gegend der Notbremsenbelastung rund um Neujahr 2021.

    – und damals geschah ein Wunder, denn aus mit dem Sommerreiseverkehr endete auch die damalige exponentielle Füllung der Intensivstationen mit SARS-2-PatientInnen; in DIVI-Zahlen aus den RKI-Tagesberichten:

    Steigende Kurve mit langem Atemholen zwischen Mitte September und Mitte Oktober

    Was zwischen Mitte September und Mitte Oktober – oder, unter der Annahme, dass die Intensivantwort zwei, drei Wochen verzögert auf ihre Ursachen kommt, einfach im September – anders war als davor und danach, das würde mich wirklich interessieren.

  • Kohlendioxid und die thermische Leistung von Menschen

    Mit meinem zyTemp-Kohlendioxid-Messgerät – das, für das ich neulich Software gebastelt habe – bin ich natürlich gleich in die Welt gezogen, um mal zu sehen, wo es überall CO2 (und mithin plausiblerweise Corona-Aerosol) geben wird.

    Der Wind und die Seuche

    Nachdem mich ja zunächst sehr überrascht hat, wie deutlich sich die Anwesenheit von Menschen in rasch steigendem CO2-Gehalt der Luft in Innenräumen niederschlägt, war meine zweite große Überraschung, dass sich umgekehrt im Freien nichts tut. Also, richtig gar nichts. Selbst Autos, die mindestens eine Größenordnungen mehr CO2 emittieren als Menschen (vgl. unten), fallen schon aus ein paar Metern Entfernung im Wesentlichen nicht mehr auf. Ich musste mich schon an Kreuzungen neben die Ampeln stellen, um überhaupt ein schwaches Signal zu bekommen. Und das war kaum mehr als ein leichtes Oszillieren um ein paar ppm, während die wartenden Autos vor sich hinstanken und dann losbrausten. So sehr es nach Abgasen stank – CO2 ist im Nahbereich von Autos kein Problem.

    Die gute Nachricht ist also: Wenn CO2 ein guter Indikator ist, wie schlimm es mit Aerosol sein kann – real verschwindet Aerosol im Regelfall aus hinreichend ruhiger Luft durch Niederschlag, was CO2 nicht tut – ist praktisch sicher, dass an der frischen Luft bei nicht völlig irren Wetterlagen SARS-2 allenfalls durch Tröpfchen übertragen wird.

    Umgekehrt war meine Sorge ja immer der öffentliche Verkehr, und so habe ich mit Hingabe in verschiedenen Zügen gemessen. Als Referenz: Frischluft liegt derzeit hier irgendwo zwischen 280 und 350 ppm CO2. In einem halb vollen ICE habe ich zwischen 800 und 1400 ppm gemessen (interessanterweise nicht so ganz korreliert mit den Bahnhofsstopps; die Bahn kennend, vermute ich eine Nicht-so-ganz-wie-gedacht-Funktion der Lüftung in dem Wagen, in dem ich saß). Ein vollbesetzter IC-Zug der SBB war zwischen 800 und 1050 dabei, ein leerer Nahverkehrszug bei etwa 400, ein halb voller eher bei 700.

    Bei solchen Dynamiken ist wohl klar, dass hinreichend viel frisches Aerosol in der Luft sein wird, jedenfalls, solange nicht alle Passagiere mit richtig sitzenden FFP2-Masken dahocken, und sowas habe ich noch nicht mal dort gesehen, wo es wie in Berlin und Bayern gesetzlich gefordert ist oder war. Es muss also im letzten Winter weit mehr Ansteckungen in Zügen gegeben haben als das RKI in seinen Ausbruchshistogrammen (z.B. S. 12 am 9.3.2021) mit den kleinen roten Säulen andeutet. Aber ok, sie haben ja immer dazugesagt, „Clustersituationen in anonymen Menschengruppen (z.B. ÖPNV, Kino, Theater)“ seien fast sicher unterrepräsentiert.

    Atmende Blumen

    Aber ich hatte auch anderweitig viel Spaß mit dem Gerät. So war ich neulich verreist, und in der Wohnung verlief die CO2-Konzentration so:

    Graph mit Periodizitäten

    CO2-Konzentrationen in meinem Wohnzimmer während der Abwesenheit aller BewohnerInnen. Zeiten sind in UTC.

    Wohlgemerkt: Da war niemand. Es könnte sein, dass sich hier einfach Schwankungen in der Außenluft reflektieren; aber ich glaube zunächst mal, dass wir hier einer Birkenfeige beim Stoffwechsel zusehen; 6 Uhr UTC, wenn die Kurve sich nach unten wendet, entspricht 8 Uhr Lokalzeit und damit wohl der Zeit, in der es in dem Zimmer hell genug für Photosynthese werden dürfte; der große Peak rund um 18 Uhr am 28.9. wäre schön konsistent damit, dass die Pflanze sich zur Ruhe setzt und dazu kurz mal ihre Mitochondrien anwirft; der folgende Abfall wäre dann wieder ein Mischungseffekt, denn der Sensor lag (mehr zufällig) praktisch in den Zweigen des Ficus. Warum er, das angenommen, den Peak am 29.9. doch deutlich früher gemacht hat? Nun, vielleicht war ja Mistwetter? Oder vielleicht ist das auch alles ganz anders: das bräuchte definitiv mehr Forschung.

    Rauchmelder diagnostizieren Blasenschwäche

    Graph mit einigen Spitzen

    CO2-Konzentrationen in meiner Diele. Zeiten sind in UTC.

    Wenig überraschend zeigt sich, dass die CO2-Konzentrationen dramatisch personenbezogene Daten sind. Der zweite Graph illustriert das an einem relativ harmlosen Beispiel: Der Sensor steht jetzt in der Diele, vor meiner Zimmertür. Deutlich zu sehen ist, dass ich an dem Tag gegen 23 Uhr geschlafen habe, oder jedenfalls, dass meine Schlafzimmertür dann zu war. Und dann bin ich kurz vor zwei mal wach gewesen, weil ich am Abend etwas viel Tee getrunken hatte. am Morgen aufgestanden bin ich um sieben, kurz vor acht habe ich mal gelüftet, und um halb neun bin ich gegangen.

    Wer da etwas länger auf diese Weise zuschaut, findet viel über die BewohnerInnen von Wohungen heraus – angefangen davon, wann wie viele Menschen wo in der Wohnung sind –, und das im Zweifelsfall auch automatisiert unter vielen Menschen. Ich habe dabei lediglich zwei Messwerte pro Minute genommen. Das ginge, so würde ich schätzen, für eine ganze Weile mit den zumindest hier im Haus recht verbreiteten per Funk auslesbaren Rauchmeldern ganz gut, ohne dass ihre Batterien gleich alle wären – für die Betreiber und, weil die Krypto von den Teilen schon aus Stromspargründen sehr wahrscheinlich lausig ist, vermutlich auch ungefähr für jedeN, der/die sich hinreichend intensiv für das Leben der Anderen interessiert.

    Nachdenken nur für 50W?

    Schließlich bin ich jeden Tag wieder aufs Neue fasziniert, wie schnell ich in meinem Büro schlechte Luft verbreite.

    Graph mit zwei recht gleichmäßigen Anstiegen

    CO2-Konzentrationen in meinem Büro; ich komme von der Mittagspause zurück, arbeite, und lüfte ein Mal. Zeiten sind in UTC.

    An dieser Kurve ist viel zu sehen, unter anderem, dass sich offenbar die Luft in dem Raum doch recht schnell mischt; das würde jedenfalls schön erklären, warum es beim Lüften kurz nach 12 Uhr UTC so eine Delle nach unten gibt: Das ist die Frischluft von außen, die ziemlich direkt an den Sensor weht, sich dann aber innerhalb von fünf Minuten mit meinen im Raum gebliebenen Abgasen mischt.

    Diese schnelle Homogenisierung ist wesentlich für eine Überlegung, die sich für mich da aufdrängt: Wie viel CO2 mache ich eigentlich? Das geht so:

    In den 96 Minuten von 10:30 bis 12:06 habe ich die Konzentration von 808 auf 1245 ppm erhöht, was einer Rate von

    ((1245 − 808)  ppm)/((96⋅60)  s) = 0.077  ppm ⁄ s

    entspricht[1] (ich habe das nicht aus dem PNG, sondern noch im Plotprogramm selbst abgelesen). Ein zweiter Datenpunkt ist nach Lüften und Mischen: Da ging es von 12:17 bis 14:08 von 837 auf 1288 ppm, was auf eine Rate von 0.068 ppm/s führt.

    Aus den beiden Werten würde ich grob schätzen, dass ich die CO2-Konzentration in meinem Büro so etwa mit 0.07 ppm/s erhöhe, wenn ich normal arbeite; ich nenne diese Rate hier kurz δ. Unter der sicher falschen, aber vielleicht noch hinnehmbaren Annahme, dass kein CO2 entweicht und der nach den Beobachtungen plausiblen Annahme voller Durchmischung im Raum kann ich nun abschätzen, was mein Stoffwechsel so tut.

    Was es dazu braucht, ist das Wissen, dass bei einem idealen Gas (was die Luft nicht ist, aber für die Abschätzung reicht es) bei „Normalbedingungen“ (die bei mir im Zimmer glücklicherweise auch nicht ganz perfekt realisiert sind) ein Mol 22.4 Liter Volumen einnimmt[2]. Unter Kopfzahl-Aspekten kann ich nicht genau sagen, warum ich mir da drei Stellen gemerkt habe. In Wirklichkeit sind 20 l/mol natürlich genau genug als Kopfzahl. Ich nenne das unten Vm.

    Das ist eine Aussage über die Zahl der Gasmoleküle in einem Volumen V, denn ein Mol sind ungefähr 6e23 (so schreibe ich wieder kurz für 6⋅1023) Teilchen („Avogadro-Konstante“; außerhalb von Kopfzahlen ist die inzwischen exakt festgelegt und definiert das Mol). Mein Büro ist so in etwa fünf Meter lang, 2.5 Meter breit und drei Meter hoch, hat also V = 40 Kubikmeter Rauminhalt. Das heißt, dass sich darin

    (40  m3)/(0.0224  m3 ⁄  mol) ≈ 1800  mol

    befinden. Das sind gegen 1e27 oder 1000000000000000000000000000[3] Moleküle. Diese Zahl hat einen Namen: das ist eine Quadrillarde. Aber klar: der Name ist selbstverständlich Quatsch. Ich musste ihn selbst nachsehen. Der wissenschaftliche Fachbegriff für solche Zahlen ist Gazillion. Für alle davon. Weshalb wir eben immer zehn hoch siebenundzwanzig sagen, was viel nützlicher ist.

    Und dann brauche ich noch die Energie (oder hier genauer die Enthalpie, normalerweise geschrieben als ΔH) die bei der Bildung eines Moleküls CO2 auch C und O₂ frei wird; konventionell geben die Leute das nicht für ein Molekül, sondern für ein ganzes Mol (ihr erinnert euch: ganz platt 6e23 Moleküle statt nur eins) an, und die Wikipedia verrät, dass das 394 kJ/mol sind.

    Jetzt baue ich das zusammen, nämlich die Erzeugungsrate von CO2 in physikalischen Einheiten (statt in ppm/s), δV ⁄ Vm, auf der einen Seite, und mein ΔH auf der anderen Seite. Es ergibt sich für meine Leistung:

    P = ΔHδV ⁄ Vm

    Wenn mensch da die Einheiten glattzieht und bedenkt, dass ppm/s eigentlich 1e-6/s ist, muss mensch was rechnen wie:

    P = 394⋅103  J ⁄ mol⋅0.07⋅10 − 6 ⁄  s⋅40  m3 ⁄ (0.0224  m3 ⁄  mol)

    (ich schreibe das so ausführlich, weil ich mich beim schnellen Hinschreiben prompt verrechnet habe), was rund 50 J/s (also 50 W) ergibt.

    Ich habe von irgendwoher im Kopf, dass ein …

Seite 1 / 2 »

Letzte Ergänzungen