Tag Metriken

In der Mathematik ist eine Metrik eigentlich etwas durchaus Vernünftiges und Nützliches. In den Händen von MacherInnen und Marktradikalen ist es eine Form entmündigender Zahlenmagie geworden. Der Gedanke dort ist, dass Menschen Zahlen selten widersprechen, selbst wenn offensichtlich ist, dass „Lesekompetenz 3429 plusminus 34“ nicht nur nichts bedeutet; es kann gar nichts bedeuten, weil „Lesen“, wenn da überhaupt irgendwo Zahlen eine Rolle spielen, zumindest viele Dimensionen hat. Das auf eine Zahl zu reduzieren, ist deutlich unsinniger als die Angabe, der Gipfel der Zugspitze sei bei 213.3.

Und dennoch werden überall Politiken und allerlei anderes durch Metriken rechtfertigt; von der Unsitte, auf Webservern die BenutzerInnen auf alle möglichen und unmöglichen Arten auszuspähen, um dann nutzlose und ohnehin ignorierte Metriken zu erzeugen, will ich hier gar nicht anfangen.

Unter diesem Tag, jedenfalls, ärgere ich mich über Beispiele für den ganzen Phänomenbereich.

  • 75 Jahre ohne Militär: Costa Rica

    Rechts im Bild ein Bahnsteig, links ein endloser Güterzug.  Auf jedem Wagen stehen zwei Panzer.

    Was ist der Unterschied zwischen der badischen Stadt Bruchsal und San José, der Hauptstadt von Costa Rica? Nun: Im Bahnhof von San José würde nicht plötzlich – wie hier im Juni 2013 – ein Güterzug voller Panzer stehen.

    Bevor deren 75. Jubiläumsjahr vorbei ist, möchte ich an eine der ganz großen zivilisatorischen Errungenschaften des 20. Jahrhunderts erinnern: 1948 löste der damalige Präsident José Figueres Ferrer das Militär in Costa Rica auf, und es hat kein Rezidiv gegeben, obwohl die Nachbarstaaten diesen, ach ja, Fort-Schritt nicht hinbekommen haben – vom Rest der Welt ganz zu schweigen.

    Ich brauchte auch erst eine Erinnerung daran und bekam die im Deutschlandfunk-Kalenderblatt am 1.12.2023. Der 1. Dezember ist der Jahrestag von Ferrers Inititative und ist seit 2020 in Costa Rica ein Feiertag („abolió el ejército“ – take that, „Volkstrauertag“). Peter B. Schumann erwähnte in seinem kleinen Beitrag gute Gründe zum Feiern:

    Die Kaserne wurde zum Nationalmuseum und der Wehretat zum Entwicklungsbudget. Damit konnten das Bildungssystem, das Gesundheitswesen und die Infrastruktur ausgebaut […] werden. […] Costa Rica hat es auch nie bereut. Während die hochgerüsteten Nachbarländer von einem autoritären Regime ins andere und von einer Krise in die nächste taumelten, konnte das kleine Land sich jahrzehntelang zu einer stabilen, prosperierenden Demokratie entwickeln.

    Sehr bemerkenswert fand ich auch die Analyse des Autors zu den Bedingungen für den Erfolg der Abrüstung in Mittelamerika:

    [Costa Rica] war viel kleiner [als seine Nachbarn], weniger kapitalkräftig, die Elite relativ arm […] Die Regierungen hatten [die Armee] allerdings oft vernachlässigt, so dass sie schlecht ausgebildet und schlecht bewaffnet war, eine schwache Institution.

    Also: geringe soziale Stratifikation, wenig physische Basis der Regierung, anderen Regierungen etwas aufzwingen zu können und eine schlecht finanzierte Armee haben in dieser (m.E. glaubwürdigen) Erzählung geholfen, das Militär loszuwerden. Praktischerweise sind das Politiklinien, die wenigstens mir auch unabhängig von Friedenspolitik im engeren Sinn attraktiv erscheinen – angefangen vom Ende der Kriegskredite (Verzeihung, „Sondervermögen“; soll keineR sagen, es habe sich gar nichts getan in Berlin über die letzten 110 Jahre hinweg).

    Kopfportrait eines etwa 60-jährigen Mannes im Anzug mit hoher Stirn, dunklen Haaren und einem ernsten Blick.

    Der Held der Auflösung des Militärs in Costa Rica: José Figueres Ferrer, hier im September 1973 (Bildquelle).

    Nun will ich gerne eingestehen, dass mein traditionell zuversichtlicher Blick in eine militärfreie Zukunft ohne Strammstehen, Tschingdarassabum, bunte Kappen und Orden in nur wenigen Momenten meines Lebens nicht bei vielen ZeitgenossInnenen auf ungläubige bis schnappatmende Einwände gestoßen wäre: anfangs „aber… die Russen?!“, dann rasch „aber… die Moslems?!“ und jetzt wieder (meist) „aber… die Russen?!“

    Ganz unabhängig davon, ob Tschingdarassabum und Menschentotschießen geeignet, notwendig und angemessen sind, um Konflikte zwischen den Entietäten zu lösen, denen sich die verschiedenen ZeitgenossInnen zugehörig fühlten: Costa Rica ist tatsächlich gut ohne ausgekommen, und das, obwohl sich recht schnell ein deutliches Wohlstandsgefälle zu den militärbesetzten Nachbarstaaten einstellte[1].

    Zu den qualitativen Effekten der Auflösung des Militärs lohnt ein Blick in die (vermutlich für Mittelamerika stark unvollständige) Liste der Putschversuche in der englischen Wikipedia[2]. Wie der DLF-Autor Schumann schon andeutet, fanden in den Nachbarstaaten – wenn nicht wie in Nicaragua ohnehin über Jahrzehnte das Militär faktisch an der Macht war – alle paar Jahre mal Militärputsche statt (für Honduras verzeichnet: 1956, 1963, 1972, 1975, 1978 und 2009).

    Für Costa Rica hingegen ist nach dem 1.12.1948 nur ein Putschversuch notiert, und der ist gescheitert. De facto war das sieben Jahre nach der Auflösung der Armee ein Versuch der alten Garde, sich wieder die Lizenz zum Schießen und Töten sowie die Alimentierung für dieses Treiben zu verschaffen. Es handelte sich nämlich um eine vom Somoza-Regime in Nicaragua gestützte Rebellion, in der „Calderonistas“, Ex-Soldaten aus der Zeit des vorherigen Potentaten Rafael Calderón, versuchten, wieder einen „normalen“ Staat zu bekommen. Das ist durchaus auch eine Erinnerung daran, dass, wer jetzt Militär macht, eben auch ein schweres Erbe für später schafft.

    Los gings Anfang Januar 1955, als diese Truppen mit Ölgeld aus dem damals ebenfalls erzreaktionär regierten Venezuela vom Herrschaftsgebiet des später in der sandinistischen Revolution untergegangenen Somoza-Clans aus in die costaricanische Kleinstadt Ciudad Quesada einfielen; venezuelanische Militärflugzeuge beschossen derweil verschiedene Städte in Costa Rica. SpielerInnen des Klassikers Junta kennen das Szenario.

    Die Regierung in San José rief daraufhin die OAS an, die (eingestandenermaßen überraschenderweise) Druck auf Nicaragua ausübte; dazu mobilisierte die Regierung in San José ihre Polizei, stellte Milizen auf und widmete vorübergehend Zivilflugzeuge um, was angesichts hinreichender Popularität der Regierung genug war, um die Invasion zusammenbrechen zu lassen.

    Klar wärs schöner gewesen, wenn der versuchte Putsch etwa durch einen zünftigen Generalstreik beendet worden wäre statt durch doch ziemlich paramilitärisches Gedöns. Klar ist aber auch, dass erstens Militärquatsch deutlich weniger Schaden anrichtet, wenn es insgesamt weniger davon gibt, und zweitens, dass auch ohne Militär Grobiane von außen nicht einfach tun und lassen können, was sie wollen.

    Es wird nur für die Grobiane von innen schwieriger, sich richtig grob zu benehmen und bei ihren Streitigkeiten mit den Grobianen von außen halbe Regionen zu verwüsten. Und vielleicht ist entsprechend radikale Abrüstung ja auch mal von unten statt wie in Costa Rica von oben zu bewerkstelligen? Das wäre besser, denn auf eine Figur wie Ferrer werden wir im Land von Clausewitz wahrscheinlich noch lang warten müssen.

    [1]Wie immer ist es schwierig, „Wohlstand” zu definieren und noch mehr zu quantifizieren. Wer an Metriken wie den HDI glaubt, wird Costa Rica 2018 bei 0.78 finden, gegenüber Nachbarstaaten wie El Salvador bei 0.68 oder Honduras bei 0.62 (zum Vergleich sieht das UNDP die BRD bei 0.94); aber dass der Billigflaggen-Staat Panama bei 0.79 und damit gleichauf mit Costa Rica steht, sagt wohl mehr über die Metrik als über reale Verhältnisse im Hinblick auf gutes Leben aus.
    [2]In der Liste der Putsche in der deutschen Wikipedia hat sich noch niemand den beängstigend großen Schuh angezogen, solche Aktivitäten in Mittelamerika zu sammeln.
  • Vom Verlust des schlanken, effizienten Beamtenapparats

    Verwitterte Pfosten, ein verwittertes Sportfeld, ein verwitterter Unterstand mit einem alten Autoreifen davor, alles überzogen von rotem Staub.

    Bahnprivatisierung nicht als Symbolbild: So sah es 2015 in Cook, Southern Australia aus. Verfallen ist das Nest in der Nullarborebene, weil der Staat die Eisenbahn aufgegeben hat. Gut: vielleicht wäre es auch verfallen, wenn noch was anderes als Tourizüge fahren würde, weil die wartungsaufwändigeren Dampfloks verschwunden sind. Das Bild ist trotzdem eine gute Illustration des Konzepts „Privatisierung“.

    Heute stand in einem (offenbar noch nicht anderweitig veröffentlichen) Mailing des Bündnisses Bahn für Alle folgende bedenkenswerte Passage:

    Bundesbahn und Reichsbahn hatten von 30 Jahren zusammen 6.000 Bahndirektoren, bei insgesamt fast doppelt so vielen Beschäftigten wie heute. Aktuell haben wir 20.000 Bahnmanager, die im Durchschnitt geschätzt pro Kopf 100.000 Euro im Jahr kosten. […] Macht zusammen allein zwei Milliarden Euro jedes Jahr.

    Ich würde auch in diesem Fall nicht viel auf die konkreten Zahlen geben; die Flügel'sche Regel: „Wenn du genug weißt, um Metriken richtig zu interpretieren, brauchst du die Metriken nicht mehr“ gilt sicher auch hier, wo schon mal unklar ist, ob „Direktor“ bei der Bundesbahn irgendwas mit einem modernen „Manager“ zu tun hatte.

    Weiter wäre zu prüfen, ob nicht auch die alten DirektorInnen wie ihre modernen NachfolgerInnen in der Mehrheit für den Bahnbetrieb eher schädlich als nützlich gewesen sein werden. Und kommen zu den 20'000 hier berichteten ManagerInnen noch welche von all den anderen Unternehmen, die die öffentliche Hand für den Betrieb des ÖPNV bezahlt? Oder sind die schon drin?

    Auf all das kommt es jedoch gar nicht so sehr an, denn qualitativ ist sicher, dass durch Maßnahmen im weiteren Privatisierungsbereich eigentlich immer eine im Vergleich schlanke und billige öffentliche Verwaltung ersetzt wird durch einen Apparat von GeschäftsführerInnen, JustiziarInnen und ihren Stäben, die sich mit komplizierten Firmengeflechten beschäftigen („S-Bahn Rhein-Neckar“ vs. „DB Regio Oberbayern“ vs. „DB Station und Service“), deren Zweck wiederum selten übers Steuersparen, Lohndrücken und Aushebeln von Betriebsratsrechten hinausgeht. Reporting, Compliance und Investor Relationships beschäftigen weitere Menschen, die sich durch die höhere Handelsschule (Mikro und Makro) gekämpft haben. Na gut: immerhin die Investor Relationships haben sie bei der Deutschen Bahn inzwischen hoffentlich wieder rückgebaut.

    Nachtrag (2023-10-17)

    Als ich letztes Wochenende in Bad Friedrichshall aus einem überfüllten Zug in einen etwa genauso überfüllten anderen Zug umgestiegen bin, ist mir zum Thema bizarre Sub-Subunternehmen der Deutschen Bahn noch das hier untergekommen:

    Eine rostfarbene Strebe eines Güterwagens mit aufgesprühten weißen Buchstaben „DB Schenker Rail Automotive GmbH [...] Mail: dispo@dbschenker-atg.com“

    Der Twist an der Sache:

    $ dig +short dbschenker-atg.com
    $
    

    Mit anderen Worten: die merkwürdige „Automotive“ GmbH, die da irgendwer mit viel juristischer Beratung hat gründen lassen, ist schon so lange tot, dass nicht mal mehr wer die Domain anmeldet, auf die das längst für irgendeine andere Briefkastenfirma rollende Material noch verweist.

    Da wundert mich eigentlich auch nicht mehr, dass die Wayback-Maschine für eine hypothetisch zum Unternehmen gehörende Webseite nur einmal ein Signal hatte. Im Juni 2019 war da: „Hier entsteht in Kürze eine neue Internetpräsenz.“ Mergers and Aquisitions im Endstadium.

    Nachtrag (2023-10-22)

    Und gleich noch ein DB-Subunternehmen, für dessen Existenz ich mir keine gutartige Erklärung vorstellen kann: DB Training („Ihr Anbieter im Bereich Corporate Learning & Development“). Allerdings: Das Impressum der Webseite redet nur von der Deutschen Bahn AG. Vielleicht tut das Ding ja nur so, als sei es ein eigenes Unternehmen und ist in Wahrheit „nur“ eine Abteilung (wie es ja auch nur vernünftig wäre)? Potjomkinsche Unternehmen als Verneigung vor dem immer noch herrschenden Zeitgeist?

    Wer weiß? Gehört habe ich von der… nun, Entietät jedenfalls in einem mich ebenfalls zum intensiven Kopfschütteln anregenden Hintergrund Politik im Deutschlandfunk, nämlich dem vom 9.10.2023, „Wie die Schiene gemeinwohlorientiert werden soll“. Hauptgrund des Kopfschüttelns: Zwar zählt der Beitrag durchaus zutreffend ein paar der Kritikpunkte an der Bahnprivatisierung seit den 1990ern (jenseits der mutwilligen Zerstörung eines vergleichsweise effizienten BeamtInnenapparats) auf – aber er fragt weder, warum diese Kritik nur für die Schienen und nicht auch für den Verkehr darauf gelten soll, noch fragt er, wozu mensch wohl den ganzen Unternehmensfirlefanz braucht, wenn das doch ohnehin „gemeinwohlorientiert“ sein soll.

    Vor allem aber stellt er nicht all den Dampfplauderern, die im Beitrag streiten, ob die „Infrastrukturgesellschaft“ der DB gehören soll oder sonstwem anders, die an sich naheliegende Frage: „Wir hatten doch schon mal eine doch ganz gut funktionierende Bahn. Sollten wir für den Anfang nicht erstmal dahin zurückgehen, wo wir offensichtlich falsch abgebogen sind und dann von dort sehen, wo ein besserer Weg langführt?“

    Mithin ist praktisch unvermeidlich, dass bei einer Privatisierung das Verhältnis von denen, die nützliche Arbeit tun (Züge warten, Verspätungsdurchsagen machen) zu denen, die diese nützliche Arbeit verwalten („Management”) schrumpfen wird. Das Ergebnis ist vielerorts sichtbar: die kaputte Bahn, die teueren, verrottenden ex-Sozialwohnungen, ein Geschäftsgebaren von Telefonunternehmen, das von offenem Betrug nur mit Mühe zu unterscheiden ist – und Systemlotto dort, wo einst ein Postamt war. Oh, na gut; manche Orte (hier: Dossenheim) haben im Vergleich auch Glück gehabt:

    An einer Arkade eines 70er-Jahre-Baus hängt ein Schild „Postfiliale und Restpostenshop“, davor ein Gelber Postkasten.

    Unverständlich bei all dem ist nur: Wie kommt das Major Consensus Narrative[1] eigentlich mit der Vorannahme durch, mit Privatisierungen und Wettbewerb gingen „Effizienzgewinne“ einher? Klar, Privatisierung führt in der Regel zu zum Teil drastischer Lohndrückerei, aber selbst wenn mensch die sozialen Kosten dieser Lohndrückerei externalisiert, dürfte das Reibungsverluste in der eingangs zitierten Größenordnung kaum ausgleichen können.

    Leider sorgen all die Management-Jobs umgekehrt für eine weitgehende Unumkehrbarkeit der Privatisierungen außerhalb von katastrophalen Ereignissen: Zu viele gut bezahlte Jobs als Frühstücksdirektor oder Chief Information Officer der Privatbahn Hintertupfing AG würden verschwinden. Die Leute, die jetzt darauf sitzen, haben ein fast schon existenzielles Interesse daran, dass eine Rückkehr zu einer schlanken, tarifgebundenen öffentlichen Verwaltung nicht passiert.

    Nun: Ein Grund mehr fürs bedingungslose und nicht ehrenrührige Grundeinkommen.

    [1]Das ist schöne postmoderne Diktion für die weitgehend unhinterfragten Vorannahmen, von denen aus alles argumentiert, was, na ja, sagen wir Regierungsfähigkeit behauptet oder ernsthaft Auflage haben will.
  • Antisprache: Arbeitsplätze

    Unter all den eigenartigen Ritualen des politischen Diskurses verwundert mich so ziemlich am meisten, dass „gefährdet Arbeitsplätze“ fast universell als Argument gegen eine Maßnahme, als ultimativer Warnruf gilt. Lasst mich einige der befremdlicheren Zitate den DLF-Presseschauen des vergangenen Jahres anführen:

    …ganze Branchen wegen ihres hohen Gasverbrauchs in Existenznot, tausende Arbeitsplätze stehen auf dem Spiel.

    —Rheinische Post (2022-10-11)

    In diesem Sinne ist es ein Ansporn, schnell gute, neue Produkte zu entwickeln, die den großen Teil der Arbeitsplätze sichern.

    —Badische Zeitung (2023-02-15)

    Die Politik muss aufpassen, dass sie nicht deutsche Arbeitsplätze opfert…

    —Reutlinger General-Anzeiger (2023-02-15)

    …wie einst bei der Solarbranche der Ausverkauf der deutschen Wärmepumpenindustrie bevorsteht und Arbeitsplätze sowie hoch spezialisiertes Wissen abwandern.

    —Rhein-Zeitung (2023-04-27)

    Was da in einen negativen Kontext gestellt wird, ist nüchtern betrachtet: Leute müssten weniger arbeiten, und das meist ohne erkennbar negative Folgen. Ist das nicht ganz offensichtlich eine gute Sache?

    Es schimpfen doch fast alle Menschen mehr oder weniger deutlich über ihre Lohnarbeit, oder? Obendrauf habe ich schon zu oft gehört, Leute würden ja den Rest der Welt schon gerne vor ihrem Auto verschonen, aber die Lohnarbeit zwinge sie, sich jeden Morgen in ihren Blechkäfig zu setzen. Und das muss dringend geschützt und gehegt werden?

    Obendrauf gibts allerlei Wunder, die Arbeit sparen: Staubsaug- und Rasenmähroboter, Lieferdienste und vielleicht irgendwelche Apps. Die wiederum gelten als „Innovation“ und damit irgendwie gut (mehr Antisprache dahingestellt). Wie geht es zusammen, dass einerseits Leute weniger arbeiten möchten, andererseits aber Möglichkeiten, wie sie weniger arbeiten könnten, an Bedrohlichkeit über dem Weltuntergang stehen („Klimaschutz darf keine Arbeitsplätze kosten”, „Vereinbarkeit von Ökonomie und Ökologie“)?

    Ein Minimum an Lohnarbeit

    Die Antwort: Gar nicht. „Arbeitsplatz“ ist ein klassischer Fall von Antisprache, also Wörtern und Phrasen, die Information nicht übertragen, sondern annihilieren. Der Antisprache von den Arbeitsplätzen gelingt es, die Information zu annihilieren, dass wir längst die Technologie und wahrscheinlich auch die soziale Reife hätten, um allen Menschen mit einem Minimum an Lohnarbeit[1] ein ökologisch vertretbares Leben ohne Existenzsorgen zu ermöglichen. Dass der Lebensunterhalt an „Arbeitsplätze“ gebunden ist, ist mithin eine überflüssige, grausame und gefährliche Konvention, die durch ehrlichere Wortwahl sichtbar gemacht werden könnte.

    Ein „Minimum an Lohnarbeit“ hat übrigens fast nichts mit der drei- oder vier-Tage-Woche zu tun, die die taz gestern mal wieder erwähnt hat, denn diese bleibt dem alten Mechanismus des Kapitalismus verhaftet. Dabei werden Waren produziert oder Dienstleistungen erbracht, weil manche Leute („Unternehmer“) reich werden wollen und nicht etwa, weil Menschen sie brauchen und das Zeug nicht allzu schädlich ist. So kommt es, dass wir schockierende Mengen von Arbeitskraft und Natur verschwenden auf jedenfalls gesamtgesellschaftlich schädliche Dinge wie Autos, andere Waffen, Einfamilienhäuser, fast fashion, Zwangsbeflimmerung und das rasende Umherdüsen in überengen fliegenden Röhren.

    Es ist die Konvention, Menschen durch Drohung mit dem Entzug ihres Lebensunterhalts[2] dazu zu zwingen, all den unsinnigen Krempel herzustellen, die auch dafür sorgt, dass „wir“ uns eine überflüssige Lohnarbeit nach der anderen einfallen lassen. Meist sind das „Dienstleistungen“ (auch so ein schlimmes Wort), was dann immerhin manchmal nicht ganz so schädlich ist wie der ganze überflüssige Quatsch (Autobahnen, Konferenzzentren, Ultra-HD-Glotzen) auf der Produktionsseite[3].

    Ein eher harmloser Nebeneffekt des Ganzen beschäftigte übrigens Casper Dohmen und Hans-Günther Kellner im Deutschlandfunk-Hintergrund vom 23.6., der sich ebenfalls an weniger Arbeit trotz Kapitalismus abarbeitete:

    In den neunziger Jahren betrug die Produktivitätssteigerung in Deutschland im Schnitt noch mehr als zwei Prozent jährlich, seitdem weniger als ein Prozent. Die Entwicklung ist typisch für hoch entwickelte Industriestaaten. Das liegt daran, dass es schon länger keine wesentlichen Innovationen gab, mit denen sich die Produktivität erhöhen ließe.

    Schon die Antisprache von den „Innovationen“ lässt ahnen, dass das in der ganz falschen Richtung sucht – auch wenn das Rationalisierungspotenzial durch Rechner im Bürobereich tatsächlich drastisch überschätzt ist (Bob Solow: „You can see computers everywhere except in the productivity statistics“).

    Aber den eigentlich notwendigen Kram kriegen wir mit wirklich beeindruckend wenig menschlichem Aufwand und also atemberaubender Produktivität hergestellt. Letztes Wochenende etwa hat ein Mensch das Getreidefeld neben meinem Gärtchen (grob „ein Morgen“ oder ein halber Hektar) in der Zeit abgeerntet, in der ich fünf Codezeilen geschrieben habe. Natürlich muss mensch noch die Arbeitszeit dazurechnen, die im Mähdrescher und dessen Sprit steckt, aber auch die wird sich, auf die Flächen umgelegt, die mit der Maschine bearbeitet werden, zwanglos in Minuten messen lassen.

    Nein, der Grund für die mehr oder minder stagnierende Produktivität der Gesamtgesellschaft (kurzerhand definiert als Bruttoinlandsprodukt pro Arbeitsstunde) ist die Ausweitung des Niedriglohn-Sektors, sind Jobs wie Lieferdienste, „Juicer“ (dass Menschen für sowas Lebenszeit opfern müssen, beschämt mich zutiefst), Wachdienste, also das gesamte Jobwunder im Gefolge von Hartz IV: Wer für eine Handvoll Euro viele Stunden arbeiten muss, senkt natürlich den Durchschnitt von BIP/Zeit, und wenn das erschreckend viele sind, wird das auch nicht mehr von den paar Leuten mit Salären im 104 Euro/Stunde-Bereich ausgeglichen[4]. So erklärt sich übrigens das „neunziger Jahre“ versus „seitdem“ aus dem DLF-Beitrag ganz natürlich: Die Schröder-Regierung hat die Hartzerei zwischen 2002 und 2005 eingephast.

    Es sind also gerade all die „Innovationen“ vom Schlage zu juicender Elektroroller, die die Produktivität drücken. Natürlich wird das nichts mit BIP/Arbeitsstunde, wenn ein wesentlicher Teil der Menschen in privatwirtschaftlichen Arbeitsbeschaffungsmaßnahmen stecken, für die jetzt wirklich niemand viel Geld bezahlen will.

    In Klarsprache übersetzt

    Wozu also führen wir die Tragikomödie mit dem Lohnarbeitszwang auf? Sachlich, damit sich ein paar Grobiane gut fühlen, weil das Bruttoinlandsprodukt ihres Landes steigt, und ein paar andere, weil ihr Kontostand wieder ein paar Milliarden ihrer bevorzugten Währung mehr zeigt.

    Letzteres ist wiederum besonders verdreht, denn so viel Geld könnten diese Leute nie für tatsächliche Waren ausgeben, schon, weil es gar nicht so viel zu kaufen gibt außerhalb von mondbepreisten Kunstwerken, Aktien und Immobilien, deren Kosten in überhaupt keinem Verhältnis mehr stehen zur in ihnen vergegenständlichten Arbeit.

    Die Antisprache von den Arbeitsplätzen wirft in Summe einen dicken Nebel rund um etwas, das schlicht ein hässliches Erbe der trüben Verangenheit ist. Wie so oft bei Antisprache lichtet sich der Nebel um groteske Sachverhalte schon, wenn mensch einfach die Antisprache ersetzt durch Wörter mit der jeweils zutreffenden Bedeutung. Ich habe das mal mit ein paar der Presseschau-Texte gemacht:

    In diesem Sinne ist es ein Ansporn, schnell gute, neue Produkte zu entwickeln, die viel Arbeit machen.

    —nicht Badische Zeitung (2023-02-15)

    …wie einst bei der Solarbranche der Ausverkauf der deutschen Wärmepumpenindustrie bevorsteht und sich danach andere Menschen als wir plagen müssen sowie hoch spezialisiertes Wissen abwandert.

    —nicht Rhein-Zeitung (2023-04-27)

    Die beiden Zitate könnt ihr im Original oben nachlesen. Vergleicht mal. Und dann ratet, wie die folgenden Zitate wohl wirklich ausgesehen haben werden:

    Kein Wunder, dass die Bevölkerung allmählich Existenzängste bekommt, wenn Heizen unbezahlbar zu werden droht und sie dann auch noch frei bekommen könnten.

    —nicht Dithmarscher Landeszeitung (2022-09-02)

    Entscheidend ist, alles zu tun, dass alle arbeitsfähigen Menschen auch arbeiten müssen und es sich lohnt zu arbeiten.

    —nicht Mediengruppe Bayern (2022-11-23)

    Vielleicht bietet der jetzige Kahlschlag [bei Karstadt], der erneut Tausende Mitarbeiter von stupider Arbeit an der Kasse und im Lager erlöst und daher äußerst bitter ist, die Chance auf ein Gesundschrumpfen.

    —nicht Badische Zeitung (2023-03-14)

    Menschlich ist es verständlich, dass auch Politiker eine möglichst angenehme Atmosphäre schätzen, wenn sie sich schon plagen müssen.

    —nicht Schwäbische Zeitung (2023-05-04)

    Nur, falls sich wer schlimm ärgert über diese Klarstellungen: Ja, mir ist klar, dass es unter den Bedingungen des Lohnarbeitszwangs jedenfalls sozial und möglicherweise auch materiell wirklich bitter ist, gefeuert zu werden.

    Aber es hilft ja nichts: wir müssen uns so oder so um den Übergang in eine Gesellschaft kümmern, die maximale Existenzsicherheit mit minimaler Belastung für Menschen (also vor allem: Arbeit) und Umwelt (also vor allem: Dreck) zusammenbringt, und das bei maximaler Partizipation bei der Aushandlung dessen, was „Existenz” eigentlich bedeutet. Das Gerede von Arbeitsplätzen steht dem klar im Weg, schon, weil es den Betroffenen Willen und Möglichkeit raubt, zu diesem Übergang beizutragen.

    Unterdessen verspreche ich, gelegentlich Constanze Kurz' Beitrag zu dieser Debatte zu lesen. Dass der jetzt auch schon zehn Jahre alt ist und die Presseschau immer noch voll ist mit Arbeitsplatzprosa, illustriert mal wieder, dass mensch bei der Verbesserung der Gesellschaft langen Atem braucht.

    [1]Gleich vorneweg: In vernünftigen Szenarien ist „Lohnarbeit“ kein sehr nützlicher Begriff. Die bessere Rede von „gesellschaftlich notwendiger Arbeit“ würde aber sicher auch Kram umfassen, der im Augenblick massiv nicht durch Lohnarbeit abgedeckt wird, ganz vorneweg Reproduktion oder etwas moderner Care-Arbeit. Insofern ist die Schätzung der Fünf-Stunden-Woche (die im aktuell lohnarbeitigen Sektor über die Lebenszeit integriert und für eine global vertretbare Produktion wohl schon realistisch wäre) so irreführend, dass ich sie im Haupttext nicht erwähne.
    [2]Ich kann nicht anders: Auch das ist ein Beispiel dafür, wie unsere Vorfahren einer autoritären Versuchung nachgegeben haben: Statt Menschen zu überzeugen, dass eine Arbeit gemacht werden soll oder muss, haben sie diese durch Drohung mit Hunger oder Erfrieren zur Arbeit gezwungen. Einfach, aber mit schlimmen Konsequenzen, wie wir nicht nur auf unseren Straßen sehen.
    [3]Es gibt aber auch Beispiele für extrem schädliche Arbeitsplätze im Dienstleistungssektor. Beispielsweise hat die Finanzbranche ganz verheerende reale Auswirkungen (ein hübsches Stück Mainstream-Literatur dazu ist “Eine Billion Dollar“ von Andreas Eschbach …
  • Fiese Metriken: Das Beispiel Tarifbindung

    Gerade als Physiker habe ich vor allem Skepsis übrig für Metriken aller Art, fast egal ob Web-Analytik, Human Development Index oder Mensa-Ranking. Ich behaupte nämlich mit einer Familienportion Dünkel, dass es außerhalb meiner Disziplin und ihrer Randbereiche (mit Verlaub: von Astronomie bis Zoologie) meist schon unmöglich ist, interessante Gegenstände – „unserer Anschauung oder unseres Denkens“ – zu finden, die auch nur im Prinzip durch eine oder wenige Zahlen zu charakterisieren wären. Über die Existenz zuverlässiger und ethisch passabler Messverfahren wäre dann noch in einem zweiten Schritt zu reden.

    Etwas weniger fundamental gesprochen: Wenn du genug weißt, um eine Metrik korrekt interpretieren zu können, brauchst du die Metrik nicht mehr.

    Ein, wie ich finde, schlagendes Beispiel dafür findet sich im höchst hörenswerten DLF-Hintergrund Politik vom 30.5.2023, wo berichtet wird, die Tarifbindung[1] liege im Bereich der Sklav^WLeiharbeit bei nachgerade unglaublichen 98%. Ich darf das kurz mit Tabelle 62361-0501 vom Statistischen Bundesamt für 2018 kombinieren:

    Histogramm mit allen möglichen Branchen und ihrer Tarifbindung. Leiharbeit und der öffentliche Dienst sind bei rund 100%, alles andere eher zwischen 5 und 50%, im Mittel bei 25%.

    Die Daten vom statistischen Bundesamt waren etwas sperrig in der Handhabung. Ich habe deshalb ein kleines Python-Skript geschrieben, um diesen Plot zu erzeugen.

    Selbst ich als radikaler Metrikskeptiker hätte, bevor ich die Sendung gehört habe, die Tarifbindung ziemlich blind als einen brauchbaren Indikator für die mittlere Erträglichkeit der Arbeit in einer Branche akzeptiert.

    Aber nein, wer die die DLF-Sendung hört, wird die Einschätzung, dass Leiharbeit trotz aller freundlich aussehenden Metriken eine ganz besonders unerfreuliche Erscheinung des marktradikalen Wirtschaftens[2] darstellt, nicht revidieren müssen. Die hohe Tarifbindung liegt einfach nur daran… ach, hört selbst. Dann wisst ihr genug, um die Metrik richtig zu interpretieren. Und braucht sie, wie versprochen, für eine informierte Beurteilung auch nicht mehr.

    Da der Deutschlandfunk leider nur noch selten Transkripte veröffentlicht (ich vermute den VZBV dahinter) und Lesen schneller ist als Hören, habe ich die Radiosendung mal durch whisper gejagt. Ich behaupte jetzt einfach mal, dass ich für den DLF (und die Leute, die zu faul zum Hören sind) handele, wenn ich ein ungefähres und weitgehend unkorrigiertes Transkript ihrer Sendung hier anhänge. Die Rechte liegen jedenfalls beim DLF bzw. vielleicht bei der Autorin; das folgende Zitat verteile ich nicht unter CC0 (aber es wäre schön, wenn der DLF endlich CC-BY machen würde…).

    Deutschlandfunk Hintergrund: „Gleiche Arbeit, weniger Lohn – Das System Leiharbeit vor Gericht“

    von Ann-Kathrin Jeske

    Ich habe damit angefangen Ende 2015, ich war die meiste Zeit in Logistik betrieben, in der Lagerwirtschaft, damals ein völlig neues Fach für mich.

    Thomas B. erinnert sich daran, wie sie anfing, seine Zeit als Leiharbeiter. Er praktikisten, das, was Kunden online bestellten, sortierte er in einem Lager in Pakete, machte die Waren für den Transport fertig, die am Ende bunt aufgereit in den regalen großer Kaufhäuser standen.

    Und es waren alles Angelehrte Tätigkeit nicht vermeistens als Hilfe eingesetzt und damit in der untersten Entgeltgruppe.

    B. erzählt, dass während er auf einer Parkbank in Köln sitzt. Thomas B. ist allerdings nicht sein echter Name, er muss aufpassen, welche Informationen er über sich preisgibt. Denn B. ist aktuell auf Jobsuche, mit Anfang sechzig ohnehin nicht so leicht und das, was er über seine Zeit als Leiharbeiter erzählt, könnte bei Arbeitgebern schlecht ankommen.

    Anfangs fand es ganz interessant, ständig neue Sachen kennenzulernen, aber irgendwann stresst es einen Schuhen, dass man sich ständig ein neues Umfeld gewinnen muss und vor allem merkt man halt immer wieder, ich verdiene deutlich weniger als die Stammkollegen.

    Insgesamt fünf und einhalb Jahre arbeitete Thomas B. als Leiharbeiter, davon gibt es in Deutschland derzeit mehr als achthunderttausend. Je länger er das machte, desto mehr störte ihn eine Sache, obwohl er Hand in Hand mit der Stammbelekschaft arbeitete und die gleiche Arbeit machte, landete auf seinem Konto am Ende des Monats weniger Geld.

    Ein Problem, das sich in Zahlen fassen lässt, neunzehn Prozent weniger als die Stammbelekschaft, bekommen Leihbeschäftigte laut der Bundesagentur für Arbeit in der Regel für die gleiche Arbeit. Bei Thomas B. waren es mal zwei- bis drei Euro die Stunde weniger, in dem Metallbetrieb, für den er zum Schluss arbeitete, ging er mit zehn Euro pro Stunde nach Hause, die Stammbeschäftigten mit sechzehn. Diesen Lohnunterschied klagt er nun vor dem Arbeitsgericht in Köln ein.

    Das wollte ich mir nicht gefallen lassen, obwohl ich einfach gedacht habe, das ist ungerechtes Stinkt, und Vorteil von den Leiharbeitern hat der Einsatzbetrieb, der die Leute schnell wieder loswerden kann, der die als Rückmittel einsetzen kann, den Vorteil hat die Leihfirma, die daran verdient und der einzige, der in dem Spiel verliert, ist der Leiharbeiter. Und der muss auch zu den Gewinnern gehören.

    So kann man auch ein Richtungsweisen des Urteil des Europäischen Gerichtshofs zusammenfassen, zumindest zu den Verlierern sollen Leiharbeiter nicht mehr gehören. Werden Leiharbeiter im Vergleich zur Stammbelekschaft schlechter bezahlt, müssen sie dafür einen gleichwertigen Ausgleich bekommen, etwa durch deutlich mehr Urlaub oder Ähnliches.

    Dem Urteil liegt ein ganz ähnlicher Fall wie der von Thomas B. Eine Leiharbeiterin aus Bayern hatte sich bis zum Bundesarbeitsgericht hochgeklagt. Sie prangerte an, dass sie, als Leiharbeiterin nur gut neun Euro die Stunde verdient habe, während ihre stammbeschäftigten Kolleginnen und Kollegen mehr als dreizehn Euro fünfzig bekommen hätten.

    Und das, obwohl eine EU-Richtlinie den Grundsatz Equipay in der Leiharbeit schon lange vorschreibt, also gleicher Lohn für gleiche Arbeit. Doch die entsprechende EU-Richtlinie bietet den Mitgliedstaaten ein Schlupfloch, das man sich in Deutschland zu Nutze macht.

    Ist der schlechtere Lohn in einem Tarifvertrag geregelt, darf in der Leiharbeit doch schlechter bezahlt werden als in den Stammbetrieben. So einfach geht das nicht mehr, urteilte im Dezember zw.z.z. der EUGH.

    Der EUGH hat gesagt, die Leiharbeitsrichtlinie lässt es zwar zu, dass man durch Tarifvertrag, besondere Regelung schafft, es muss aber der sogenannte Gesamtschutz des Leiharbeitnehmers erhalten bleiben und diesen Gesamtschutz haben sie in der Weise definiert, dass sie gesagt haben, es muss, wenn man vom Lohn nach unten abweicht, auf der anderen Seite eine Kompensation geben, zum Beispiel längeren Urlaub oder ähnliches.

    Also das Schutzniveau muss gleichwertig sein und das ist etwas Neues.

    Wolfgang Deupler ist emeritierter Professor für Deutsches und Europäisches Arbeitsrecht der Universität Bremen. Gesamtschutz, das heißt für den EUGH, wenn Leihbeschäftigte schlechter bezahlt werden als Stammbeschäftigte, müssen sie dafür einen wesentlichen Ausgleich bekommen, da genügt nicht ein Werbe geschenktes Leiharbeitsunternehmens wie der Generalanwalt des EUGH anmerkt.

    Sondern für deutlich weniger Lohn muss es beispielsweise deutlich mehr Urlaub geben. Allerdings hat der Europäische Gerichtshof in der Sache nicht das letzte Wort. Das liegt an der Arbeitsteilung der Gerichte. Der EUGH ist für die Auslegung des EU-Rechts zuständig, was genau die Entscheidung aber für das deutsche Rechtssystem bedeutet, muss das Bundesarbeitsgericht entscheiden, das den Fall nun wieder auf dem Tisch hat.

    Ich kann mir das eigentlich nicht anders vorstellen, als dass das Bundesarbeitsgericht sagen wird, Tarifverträge ohne Kompensation können den Equal Pay-Grundsatz nicht verdrängen, also gilt der gesetzliche Grundsatz von Equal Pay. Und das ist eine Aussage, die muss eigentlich in dieser Deutlichkeit kommen, dann können sich ja andere Leute darauf berufen und dann kann man daraus konsequenzen sie.

    Für den Fall der Leiharbeiterin aus Bayern würde das bedeuten, wenn sie beweisen kann, dass sie tatsächlich rund drei Euro fünfzig die Stunde weniger verdient hat, müsste das Leiharbeitsunternehmen ihr den Unterschied zahlen, denn im Tarifvertrag der Fürsigalt war ein Ausgleich für den schlechteren Lohn nicht vorgesehen.

    Genauso ist es auch beim ehemaligen Leiharbeiter Thomas B. Auch sein Fall ist bis zur Entscheidung des Bundesarbeitsgerichts ausgesetzt. Nicht nur Leihbeschäftigte, auch Gewerkschaften, Leiharbeitsunternehmen und die Bundespolitik schauen deshalb nun nach Erfurt zum Bundesarbeitsgericht, weil es die weitreichende Grundsatzfrage gleicher Lohn für gleicher Arbeit geht.

    Egal wie das Bundesarbeitsgericht entscheidet, es dürfte eine Entscheidung darüber werden, ob das System der Zweiklassenbezahlung von Leiharbeitern und Stammbeschäftigten ein Ende findet oder weitergeht. Mehr als achthunderttausend Beschäftigte arbeiten in Deutschland in der Leiharbeit.

    In wohl keinem anderen Bereich ist die Tarifbindung so hoch, nämlich achtundneunzig Prozent. Das klingt gut, aber wie gesagt, erst die Tarifverträge ermöglichen die schlechtere Bezahlung, sie sind das Schlupfloch der europäischen Richtlinie, das in Deutschland genutzt wird.

    Diese Tarifverträge könnten neu verhandelt werden müssen, wenn das Bundesarbeitsgericht die Rechte von Leiharbeitern stärken sollte. Beim Interessenverband der deutschen Zeitarbeitsunternehmen EGZ mag man sich dieses Szenario noch nicht ausmalen und schätzt auch die juristische Ausgangslage anders ein.

    Unseresachtens war das deutsche Recht den Gesamtschutz der Zeitarbeitskräfte, wir bieten gute Arbeitsbedingungen in unseren Tarifverträgen, wir haben jetzt im Januar noch einmal ein Tarifabschluss gemacht mit Lohnsteigerung von bis zu dreizehn Prozent in einer Laufzeit von einem Jahr, also da müssen wir uns nicht verstecken, wenn man das vergleicht mit den Abschlüssen in anderen Branchen.

    So Martin Dreyer vom Arbeitgeberverband EGZ, er argumentiert, dass Leiharbeiterinnen und Leiharbeiter in Deutschland gleich doppelt geschützt seien. Erstens durch die Tarifverträge und zweitens durch das sogenannte Arbeitnehmer-Überlassungsgesetz, das Gesetz also, das in Deutschland die EU-Richtlinie zur Leiharbeit umsetzt. Darin steht, wenn ein leihbeschäftigter Unbefristet angestellt ist, muss das Leiharbeitsunternehmen ihn auch in der Zeit zwischen zwei Einsätzen bezahlen.

    Ein Einsatz bei einem Einsatzunternehmen ist zu Ende gegangen, man hat keinen unmittelbaren Anschluss-Einsatz und dann ist der Mitarbeiter im Gründe genommen, er kann zu Hause sein, er muss nicht arbeiten und …

  • Rekordverdächtig: 98.5% der Fingerabdrücke beim BKA waren rechtswidrig gespeichert

    Ich wollte schon lange eine Top Ten der radikalsten Übergriffe durch Polizeidatenbanken (ist das dann eigentlich ein „Cyberangriff“?) führen, vielleicht mit der Metrik: Wie viele der gespeicherten Datensätze haben eine rechtliche Überprüfung nicht überlebt (vulgo: waren offensichtlich rechtswidrig gespeichert)?

    Mit drin wäre sicher die „Arbeitsdatei politisch motivierte Kriminalität“ des LKA Baden-Württemberg, die 2005 im Ländle 40'000 politisch motivierte Kriminelle (bzw. ihre FreundInnen) sah. Wer das Bundesland kennt, versteht den Witz.

    Nach ein paar Begehungen durch zwei aufeinanderfolgende Landesbeauftragte für Datenschutz (von Informationsfreiheit war hier damals noch weniger Rede als jetzt) war die AD PMK im Oktober 2011 auf rund 10'000 Datenshätze geschrumpft. Unter Annahme konstanter politischer Kriminalität übersetzt sich das in zu 75% auch in der Einschätzung der Polizei selbst illegal gespeicherte Daten: Das ist schon mal eine Ansage[1].

    Ausweislich des aktuellen 31. Tätigkeitsberichts des BfDI (also des Bundesbeauftragten für Datenschutz und Informationsfreiheit) hat das BKA in einem noch viel heikleren Bereich den Stuttgarter Staatsschutz völlig deklassiert: bei ihm stellten sich maximal 1.5% der fürs Amt gespeicherten Fingerabdrücke als nicht völlig offensichtlich rechtswidrig gespeichert heraus.

    Wenn es keine schlechten Menschen wären…

    Kurz der Hintergrund: Das BKA betreibt „Verbunddatenbanken“, in die alle Polizeien der BRD Daten für alle Polizeien der BRD (und noch ein paar andere Behörden) speichern. Auch wenn die Daten physisch beim BKA liegen, bleiben die einspeichernden Behörden verantwortlich für die Speicherung, haben also insbesondere zu entscheiden, wann die Daten wieder gelöscht werden (müssen).

    Wie alles beim BKA sollen eigentlich auch die Verbunddatenbanken nur für Kriminalität von „länderübergreifender, internationaler oder erheblicher Bedeutung“ genutzt werden. Tatsächlich reicht auch schon mangelnde Kooperation, wenn mensch polizeiliches Pfefferspray ins Gesicht bekommt.

    …wären sie auch nicht in der Datei.

    Wenn nun wer so richtig gar nicht kooperiert hat, unterzieht ihn/sie die Polizei einer erkennungsdienstlichen (oder: ED) Behandlung, wobei die bekannten Verbrecherkartei-Fotos und Fingerabdrücke genommen werden; speziell letztere sind wirklich ernsthaft, denn diese wird die Polizei dauernd gegen Spuren von allen möglichen „Tatorten“ (insbesondere: Gaffer bei Bannerdrops, Flaschen aus Baumhäusern, Werbevitrinen mit Adbusting usf ad nauseam) abgleichen.

    Da ED-Behandlungen per definitionem aedilorum nur stattfinden, wenn „es erheblich“ ist, landen diese Daten auf jeden Fall als „E-Gruppe“ im INPOL-Z-System des BKA. Sie hängen aber am Vorwurf in dem spezifischen Verfahren, in dem sie genommen wurden[2], also im Beispiel von oben etwa Bullenschu…, ähh, „Tätlicher Angriff“ und an dessen Speicherung im KAN des BKA.

    Wenn nun das Land diesen Eintrag löscht – und ja, das findet statt –, müsste eigentlich auch die daran hängende E-Gruppe gelöscht werden. Ihre Speicherung hatte ja einen Zweck, nämlich die Aufklärung und/oder Verhinderung künftigen Schubsens. Wenn sich dieser Zweck erledigt hat – deshalb wird ja rechtslogisch der Haupt-Eintrag gelöscht–, müssen natürlich auch die Fingerabdrücke weg.

    Über 11 Jahre hinweg 4.5 Millionen Fingerabdrücke löschen…

    Das BKA mit seiner Tradition großer Fingerabdruck-Karteien konnte sich dazu aber in der Regel nicht durchringen. Wenn wir schon die schönen Fingerabdrücke haben! Wer weiß, wofür sie nochmal gut sein werden! Und wenn das keine schlechten Menschen wären, wären sie ja erst gar nicht ED-behandelt worden!

    Und so hat das BKA über einige Jahrzehnte hinweg viele dieser verwaisten Einträge in ihrer Datei Erkennungsdienst – heute eben die E-Gruppen – adoptiert, hat also gesagt: „jaja, die Landespolizei braucht diese Daten vielleicht nicht mehr zur Aufklärung und Verhinderung von Straftaten, aber wir, wir brauchen die noch.“

    …macht jede Minute einen illegalen Datensatz weniger.

    So ging das, bis sich im Jahr 2011 der BfDI das Ganze ansah und das BKA darüber aufklärte, dass das so nicht geht. „Das werden schon schlechte Menschen sein“ ist schon rein menschenrechtlich kein „Grund zur Annahme“ (so §484 StPO), dass die Daten mal für Verfolgung oder Verhütung taugen könnten. Es reicht sogar datenschutzrechtlich[3] nicht, jedenfalls nicht für einen so tiefen Eingriff in die Grundrechte der Opfer der amtlichen Speicherfreude. Technisch braucht es zu dessen Rechtfertigung eine Negativprognose, also eine Ansage, warum genau und wie die gespeicherte Person demnächst straffällig werden wird (oder würde, wäre da nicht die Speicherung).

    Die konnte das BKA nicht beibringen. Und so hat das Amt in der Zeit seit 2011 atemberaubende 4.5 Millionen der so adoptierten Fingerabdrucksätze gelöscht. Das Fazit des 31. Tätigkeitsberichts des BfDI (S. 92) ist:

    Die im BKA noch verbleibenden 70.000 E-Gruppen werden derzeit geprüft. Ich habe das BKA gebeten, den Altbestand bis zum 31. Dezember [2022] zu bereinigen.

    Nehmen wir mit maximalen Wohlwollen gegenüber dem BKA mal an, dass sie für all die 70'000 verbleibenden E-Gruppen noch irgendwelche Negativprognosen zusammengezimmert bekommen (haben), so waren doch satte

    1 − (70000)/(4500000 + 70000) = 98.4%

    der Fingerabdrücke rechtswidrig – sagen wir, wie es ist: illegal – in BKA-Computern.

    Das ist, auch nach Maßstäben der deutschen Polizei und bei Einrechnung mildernder Umstände (z.B. verstorbene Verdächtige, vielleicht auch ohne BfDI-Intervention verjährte Datensätze), schon sehr beachtlich. Übrigens nicht nur als eher für Unterhaltungszwecke taugende Metrik, sondern auch in Wirklichkeit: Praktisch sicher sind aus diesen Daten z.B. obszöne (also: als präjustizielle Bestrafung eingesetzte) Hausdurchsuchungen generiert worden.

    Es wäre eigentlich schon schön, wenn das hoffentlich schlechte Gewissen einiger Beamter in Wiesbaden (dort hat das BKA seinen Hauptsitz) diese wenigstens ein paar Mal um sechs Uhr morgens aufschrecken ließe – denn das ist so die klassische Zeit für diese Sorte Hausdurchsuchung.

    [1]Ich will damit natürlich nichts über die restlichen 25% sagen; dass ihre Daten in windigen Staatsschutz-Datenbanken verarbeitet werden, hat jetzt gewiss auch nicht viel mit Rechtsstaat und Menschenrechten zu tun. Aber immerhin war das nicht mehr so offensichtlich rechtswidrig, dass der LfD viel tun konnte oder wollte.
    [2]Okok, das stimmt so nicht, denn in diesem freien Land gibt es durchaus auch zu „Präventionszwecken“ genommene ED-Daten. Aber auch die müssen an anderen Datensätzen dranhängen, die begründen, was da eigentlich präventiert werden soll. Also: das sollten sie.
    [3]Das ist bewusst ein wenig dem „menschenrechtlich“ gegenübergestellt, denn ich werde immer etwas skeptisch wenn ich „datenschutzrechtlich“ lese. Das tut ein wenig so, als sei das halt eine Frage für ParagraphenreiterInnen. Aber das ist es in der Regel nicht. Datenschutz ist vor allem ein Menschenrecht, und wer ihn zu einer quasi bürokratischen Frage zu degradieren scheint, kriegt zumindest meine hochgezogenen Augenbrauen.
  • Eine neue Metrik für Webseiten: Crapicity

    Screenshot einer Webseite mit großem Banner "Crapicity" über einer Eingabezeile und einer Balkengrafik, die nach Lognormal-Verteilung aussieht.

    Die Krapizität der Webseiten, auf die ich hier so verlinkt habe (und noch ein paar mehr): works with netsurf!

    Kurz nachdem das Web seine akademische Unschuld verloren hat, Ende der 1990er, habe ich den UNiMUT Schwobifying Proxy geschrieben, ein kleines Skript, das das ganze Web in Schwäbisch, hust, erlebbar machte. Tatsächlich hat mir das gegen 2002 meine 15 Minuten des Ruhms verschafft, inklusive 200'000 Zugriffen pro Tag (fürs damalige Netz rasend viel), Besprechungen auf heise.de, spiegel.de und, für mich offen gestanden am schmeichelndsten, in Forschung aktuell (also gut: Computer und Kommunikation) im Deutschlandfunk.

    Ein heimlich verwandtes Web-Experiment war dass Dummschwätzranking von 1998, das – nicht völlig albern – die Dichte von (damals gerade modernen) Heißdampfworten in Webseiten beurteilt hat – dafür interessieren[1] sich bis heute Leute.

    Beide Spielereien sind praktisch abgestellt, teils, weil das kommerzielle Internet und SEO solche Sachen rechtlich oder praktisch sprengen. Teils aber auch, weil sie darauf bauen, dass das, was Leute im Browser sehen, auch in etwa das ist, was im HTML drinsteht, das so ein Programm von den Webservern bekommt. Das aber ist leider im Zuge der Javascriptisierung des Web immer weniger der Fall.

    Nun ist sicherlich die Habituierung der Menschen an „lass einfach mal alle Leute, von denen du was lesen willst, Code auf deiner Maschine ausführen“ die deutlich giftigere Folge des Post-Web-1-Megatrends. Aber schade ist es trotzdem, dass zumindest im kommerziellen Web kein Mensch mehr in die Seiten schreibt, was nachher in den dicken Javascript-Browsern angezeigt werden wird.

    Und weil das schade ist, habe ich einen postmodernen Nachfolger des Dummschwätzrankings geschrieben: Die Crapicity-Maschine (sorry, nicht lokalisiert, aber sprachlich sowieso eher arm). Ihre Metrik, namentlich die Crapicity oder kurz c7y: das Verhältnis der Länge lesbaren Textes (das, was ohne Javascript an Zeichen auf den Bildschirm zu lesen ist) zur Gesamtlänge der Seite mit allem eingebetteten Markup, Javascript und CSS (also: externes Javascript, CSS usf nicht gerechnet). In Python mit dem wunderbaren BeautifulSoup-Modul ist das schnell berechnet:

    def compute_crapicity(doc):
      """returns the crapicity of html in doc.
    
      doc really should be a str -- but if len() and BeautifulSoup() return
      something sensible with it, you can get away with something else, too.
      """
      parsed = BeautifulSoup(doc, "html.parser")
      content_length = max(len(parsed.text), 1)
      return len(doc)/content_length
    

    Um diese knappe Funktion herum habe fast 700 Zeilen herumgeklöppelt, die Ergebnisse in einer SQLite-Datenbank festhalten und ein Webinterface bereitstellen. Als Debian-und-eine-Datei-Programm sollte das recht einfach an vielen Stellen laufen können – wer mag, bekommt die Software bei codeberg.

    Die Web-Schnittstelle bei https://blog.tfiu.de/c7y hat aber den Vorteil, dass sich die Scores sammeln. Spielt gerne damit rum und empfiehlt es weiter – ich fände es putzig, da vielleicht 10'000 Seiten vertreten zu haben. Ich habe selbst schon knapp 200 Web-Ressourcen durchgepfiffen, meistenteils Links aus dem Blog hier.

    Im Groben kommt raus, was wohl jedeR erwartet hat: Das kommerzielle Netz stinkt, alter Kram und Techno-Seiten sind meist ganz ok. Allerdings habe ich den aktuellen Spitzenreiter, eine Reddit-Seite mit einem c7y von über 17'000, noch nicht ganz debuggt: Erstaunlicherweise ist die Seite auch im netsurf und ohne Javascript lesbar. Wie sie das macht: nun, das habe ich in 800 kB Wirrnis noch nicht rausgefunden, und der Quellcode der Seite sieht so schrecklich aus, dass der Score sicherlich verdient ist.

    Ich nehme mal an, dass derzeit alle youtube-Seiten bei c7y=8222 liegen; dort ist ja durchweg ohne Javascript nichts zu sehen, und so haut auch dieser Score prima hin. Bei taz.de (gerade 892) geht es vielleicht nicht so gerecht zu, denn die Seite funktioniert in der Tat auch ohne Javascript ganz gut. Eventuell ist hier BeautifulSoup schuld. Hochverdient hingegen sind die 682 von nina.no – das ist ohne Javascript leer. Eine Twitter-Seite liegt bei 413, Bandcamp bei 247.

    Vernüftige Seiten liegen dagegen zwischen etwas über eins (minimales Markup) und zehn (z.B. wenig Text mit viel CSS). Dishonorable Mention: uni-heidelberg.de liegt trotz Akademia bei 177. Tatsächlich ist die Seite auch in normalen Browsern[2] halbwegs lesbar. Der schlechte Score liegt vor allem an eingebetten SVGs, ist also schon ein ganz klein wenig unfair. Aber ehrlich: wer für ein bisschen Glitz ein paar hundert Zeichen Text auf satte 680k aufbläht, hat eine große crapicity verdient, auch wenn die Seite selbst nicht richtig kaputt ist. Wer unbedingt so viel Glitz haben will, soll externe Bilder verwenden – die muss ich nicht runterladen, wenn ich nicht will.

    Wer interessante Krapizitäten findet: Die Kommentarbox wartet auf euch.

    [1]Na gut, viel von dem Interesse kam aus erkennbar aus SEO-Kreisen; das war dann auch einer der Gründe, warum ich das eintragen von Links beim Dummschwätzranking abgestellt habe.
    [2]Definiert als: Alles außer den Monstren Firefox, Chrome, Webkit und ihren Derivaten.
  • Von Verblindung und fachbedinger Blindheit

    Foto eines Notebookdeckels mit Aufkleber „Elsevirus“ und einem vertrockneten Baum (ein Spoof des Elsevier-Logos)

    Nur ein Symptom, nicht die Ursache: das wissenschaftliche Publikationswesen und seine unsympathischen Profiteure.

    Angesichts meiner fundamentalen Skepsis im Hinblick auf die epistemologischen Meriten der Wirtschaftswissenschaften an und für sich (ahem) bin ich selbst etwas überrascht, wie viele Wiwi-Arbeiten auf diesem Blog vorkommen. Immerhin: dieses Mal geht es eigentlich gar nicht um die Publikation selbst.

    Die Aussage des Artikels „Nobel and Novice: Author Prominence Affects Peer Review“ von Jürgen Huber und Kollegen aus Innsbruck, Graz und Los Angeles, doi:10.2139/ssrn.4190976, ist nämlich ein Gemeinplatz: Das Begutachtungsverfahren wissenschaftlicher Arbeiten ist kaputt. In diesem speziellen Fall: Ein Artikel wird oft vollständig zurückgewiesen, wenn er von wem eingereicht wird, dessen oder deren Name afrikanisch klingt, und oft ohne Korrekturwünsche angenommen, wenn auf der AutorInnenliste eine anerkannte Kapazität hinreichend weit vorne steht. Hier hat das halt mal wer ausprobiert, zwecks der Demo mit jeweils dem (ansonsten) gleichen Artikel.

    Aber wenns doch klar war?

    Nun gut, die Größe des im Paper gefundenen Effekts überrascht auch mich. Ich hatte eigentlich erwartet, dass es ein paar mehr Leute gibt, die Papers von DoktorandInnen aus Weichherzgründen eher mal durchwinken, weil diese die Publikation ja viel nötiger haben als die, die in Rente sind oder auf einer Professur sitzen. Aber diese Überraschung hätte mich jetzt nicht an die Tastatur gerufen.

    Wirklich kommentarbedürftig fand ich stattdessen die Aussage des Hauptautors in DLF Forschung aktuell vom 14.12.2022 (ab Minute 1:30):

    Die Begutachtung von wissenschaftlichen Arbeiten durch andere Wissenschaftler ist ja für Publikationen wichtig, für Forschungsgelder, dafür, wer Jobs bekommt, wer Professor wird und so weiter. Also, das ist ganz wichtig, dass wir diesen Prozess so objektiv, so fair wie möglich gestalten, damit auch die Gelder, die ja oft von der öffentlichen Hand kommen, bestmöglich verwendet werden, damit wir Fortschritte haben.

    Huber benennt den wesentlichen Grund dafür, dass das System wissenschaftlichen Publizierens disfunktional ist: Artikel und Zitate werden missbraucht als Metriken in dem Wettbewerb, in den WissenschaftlerInnen – also Menschen, die eigentlich lieber Zeug rausfinden wollen – geschickt werden, und der mit Zuckerbrot („Karriere“) und Peitsche (die meisten werden rausgekegelt) auf alarmierende Hitzegrade gebracht wird.

    Gut für „den Fortschritt“ oder gar die Wissenschaft ist dieser Zirkus natürlich nicht. Sein Fallout im Publikationswesen führt zudem dazu, dass Leute innerhalb von fünf Jahren fünfzehn verdünnte Paper raushauen statt nach fünf Jahren eine profunde Arbeit zu publizieren und dass jede Menge Zeit und Nerven draufgehen beim Schreiben und Begutachten dieser Artikel. Er bewirkt zudem, dass Zitate immer schlechter den Fluss von Ideen abbilden (was ja ihr eigentlicher Zweck ist) und immer mehr taktische Erwägungen (was schade ist).

    Gute und schlechte Fragen

    Aus der Diagnose, dass der Missbrauch von Publikationen als ökonomische Metrik der Wissenschaft schadet, würde logisch doch zumindest die Frage folgen: Lässt sich das auch wieder entkoppeln?

    Nicht so aber für Huber, der stattdessen fragt: können wir die Metrik fairer machen? Diese Frage halte ich für besonders falsch gestellt, denn klarerweise würde selbst ein guter Plan in dieser Richtung (vgl. unten) nichts ändern an taktischen Zitationen oder der Flut von Papern, die rundrum nur Zeit verschwenden; er würde sie vermutlich noch verschärfen.

    Ich frage mich ehrlich, warum der naheliegende Ansatz zur Lösung der Probleme Huber offenbar gar nicht in den Sinn kommt, nämlich: weniger Wettbewerb, und vor allem das Ende des Missbrauchs von Publikationen und Zitationen als Metriken in den diversen Wettbewerben.

    Wie die Allokation von Forschungsmitteln sonst funktionieren soll, fragt ihr? Nun, solange wir noch das System von universeller Lohnarbeit unter Existenzdrohung haben, werden flachere Hierarchien[1], die Abschaffung befristeter Beschäftigungsverhältnisse[2], die Rückverschiebung der Finanzierung durch „Drittmittel“ (die in Wahrheit ja in den nicht-gruseligen Fällen auch vom Staat kommen) auf die Grundfinanzierung, womit auch der Zugang zumindest kleinen und mittleren Instrumenten weniger kompetetiv würde; so Zeug halt, Wissenschaft als Beruf mit ganz normalen Beschäftigtenrechten. Und wo doch noch Anträge geschrieben werden: Würfelt aus, wer gefördert wird. Das wird in etwa genauso „gute“ Ergebnisse liefern wie die gegenwärtige Begutachtung, macht aber viel weniger Arbeit und vermeidet einige Fehlsteuerungen, allen voran die Selbstverstärkung von Moden und Hypes durch den Geldhebel.

    Klar: Vielleicht arbeiten dann ein paar der Beschäftigten weniger. Aber erstens würde der Wegfall der ganzen Wettbewerbs-Reibungsverluste das garantiert mehr als kompensieren. Und zweitens hat Wissenschaft den großen Vorteil, dass sie sehr nah am Spielen ist und so Leute in aller Regel keine Motivation durch Existenzdrohung oder auch Karriere-Zuckerbrot brauchen[3].

    Das war jetzt die reformistische Version. Etwas langfristiger gedacht werden Menschen in einer Gesellschaft, die ihre Produktion rational (was produzieren wir so, dass Mensch und Natur minimal belastet werden?) organisiert, also in einer Gesellschaft, in der die Menschen grundsätzlich weit weniger erpressbar sind, auch weit weniger durchgeknallte Systeme ersinnen, ihre Erkenntnisse zu verbreiten als unsere derzeitigen Journals.

    Die Allokation von Produktionsmitteln oder Umweltressourcen auf die Forschungsfragen wäre dann ein ganz normales Thema gesellschaftlicher Debatte, ganz wie die Frage, ob mensch, sagen wir mal, dünne und kurzlebige Fahrradketten für Zehnfach-Ritzel in gesellschaftlicher Arbeit herstellen will oder nicht. Fragen dieses Typs müsste so eine Gesellschaft ziemlich regelmäßig erörtern, da kommt es auf ein paar Debatten mit Wissenschafts-Hintergrund auch nicht mehr an.

    Noch nicht mal Einfachverblindet

    Ich will noch ganz kurz anmerken, dass der Lösungsvorschlag aus dem DLF-Beitrag, die Begutachtung doch doppelt zu verblinden in den meisten Disziplinen eher zu „unmöglich“ als zur „schwierig“-Einschätzung von Anneke Meyer tendiert. Zumeist sind die Felder doch so übersichtlich, dass, wer genügend Überblick für ein qualifiziertes Review hat, sich auch denken kann, wer da schreibt – genau wie zumindest in der Astronomie die meisten Leute, die eine Weile in ihren Feldern sind, schon an den Reviews ahnen, wer wohl als GutachterIn gearbeitet hat.

    Selbst wo das – wie in ausgesprochenen Trendfächern – nicht der Fall ist, wären Methoden, Instrumente, Vorarbeiten und Kontext einer Arbeit so charakteristisch, dass Papers zur Verblindung komplett zerschrieben werden müssten. Damit würde nicht nur der Wettbewerb, zu dessen Austragung die Publikationsmetriken missbraucht werden, die Wissenschaft massiv schädigen – wie bereits jetzt bei den Zitationen würde schon die Erhebung der Metrik der Wissenschaft schaden, weil die Paper notwendig unklar und wirr würden.

    Wieder kann ich zum Ende einer Klugscheißerei nicht widerstehen: Wenn der DLF-Moderator behauptet, Vernon Smith habe 2002 den Nobelpreis erhalten, ist dem im Sinne von Alfred Nobel zu widersprechen – Smith hat den „Preis für Wirtschaftswissenschaften der schwedischen Reichsbank in Gedenken an Alfred Nobel“ bekommen, der seit 1969 verliehen wird (richtige Nobelpreise: seit 1901). Aber dann: die Aufregung um die Groß- und Kleinpreise („Preis der Bäckerinnung Berlin-Brandenburg für engagierte Berichterstattung zur Tortenkultur“) gehört natürlich auch zu den Dingen, die demnächst im Zuge des Wettbewerbsabbaus wegkönnen.

    [1]Dazu gehört insbesondere die Abschaffung des archaischen Lehrstuhlprinzips – Menschen außerhalb das Uni-Systems können sich das meist gar nicht vorstellen, aber an Universitäten sind MitarbeiterInnen tatsächlich ihren Profen zugeordnet, und es ist üblich, die Beschäftigten eines Lehrstuhls komplett auszutauschen, wenn einE neueR ProfIn „berufen“ (ja, so heißt eine Einstellung wirklich noch) wird. in der Praxis wird auf so etwas schon Jahre im Vorhinein geplant. Profi-Tipp: wenn ihr an einer deutschen Uni verdauert werden wollt (und es gibt gute Gründe, das derzeit lieber nicht zu wollen), sorgt dafür in den ersten drei Jahren eures Profs. Danach nämlich plant die Uni schon für die Berufung seines_r Nachfolger_in und wird alles tun, um entsprechende Stellen für Berufungsverhandlungen „verfügbar“ zu halten…
    [2]Oder jedenfalls: nicht mehr 80% befristete Beschäftigte im aktiven Wissenschaftsbetrieb, wie gegenwärtig an den Unis (Profen zähle ich dabei vielleicht etwas übertriebenermaßen zur Verwaltung).
    [3]Um nicht missverstanden zu werden: die intrinsiche Motivation gibts natürlich in vielen anderen Jobs auch, aber verglichen mit, sagen wir, Immobilienmakelei oder internationalem Wirtschaftsrecht ist Wissenschaft doch eine ganz andere Liga in Sachen erreichbarer Zufriedenheit im Beruf.
  • Begeht die Erdüberlastungssekunde: 1.1.2023, 00:00:10

    Balkengrafik mit Balken gleicher Höhe, die von 1971 bis 2022 einen immer größeren Anteil von Rot (also Überlastung) bekommen.

    In Grün der Teil der jeweiligen Jahre, die das GFN (siehe Text) für „nachhaltig“ bewirtschaftet (siehe Text) hält.[1] Rechte: GFN 2022

    Alljährlich verkündet das Global Footprint Network (GFN) den „Erdüberlastungstag“ oder Earth Overshoot Day, definiert als der Tag, an dem der jährliche „ökologische Fußabdruck“ (der Erfinder dieses Begriffs ist Teil des GFN) der Menschheit gerade die Größe der Erde erreicht hat. Klingt ein wenig komisch, ist aber ein ziemlich konventionelles ökonomisches Modell, in dem der Konsum von Menschen – ob nun Autos, Steaks, Eigentumswohnungen, Flugreisen oder Fernsehserien – mit grob plausibilisierten Modellen als Maß mit der Einheit einer Fläche ausgedrückt wird. Die Behauptung ist, dass dieses Maß einer realen Fläche entspricht, deren Ertrag diesen Konsum dauerhaft, also ohne Raubbau an nicht-erneuernden Ressourcen, decken könnte.

    Das ist eine große Zahlenschlacht („15'000 data points per country per year“) mit vielen freien Parametern. Wenn dabei herauskommt, dass wir innerhalb eines Faktors zwei von dem sind, was wir „nachhaltig“ machen können, werde ich ehrlich gesagt etwas skeptisch. Tatsächlich sollen wir (als ganze Welt) laut GFN im Augenblick einen Fußabdruck von 1.75 Erden haben[2], was den Erdüberlastungstag im vergangenen Jahr auf Tag 365/1.75 = 209 oder –

    >>> import datetime
    >>> datetime.date(2022, 7, 28).strftime("%j")
    '209'
    

    – den 28. Juli legen würde.

    Zweifel regen sich

    Offen gestanden: Ich halte das für ökonomistischen Unfug, der, wenn es überhaupt einen Sinn hat, Konsum in Fläche zu messen, garantiert um Faktoren von erheblich mehr als zwei beliebig ist. Gewiss, die frohe Botschaft „wir müssen eigentlich nur wieder so wirtschaften wie 1970, und schon sind wir nachhaltig“ ist heiterer und vielleicht auch politisch leichter zu verkaufen als: „Leute, wir müssen alle mal weniger arbeiten und uns überlegen, was wir wirklich verbrauchen wollen und wie wir das dann mit minimaler Belastung für Pflanzen, Menschen und andere Tiere produziert kriegen“.

    Nachtrag (2023-01-14)

    Zum Thema, wie „nachhaltig“ der menschliche Fußabdruck ca. 1970 wohl gewesen sein mag, lohnt sich ein Blick aufs DLF-Kalenderblatt vom 15.12.2022. Erinnert wurde an die Gründung des UN-Umweltprogramms 1972, zu dessen Vorgeschichte der Beitrag ausführt:

    Die Luftverschmutzung hatte Anfang der 1970er Jahre enorme Ausmaße angenommen. Blei, Cadmium und Quecksilber fanden sich in Tieren und Böden. Der massive Einsatz von Insektenvernichtungsmitteln wie DDT ließ ganze Ökosysteme kollabieren.

    Es ist auch – und das mag fast unausweichlich folgen aus dem Betrieb des GFN als NGO mit Menschen, deren wirtschaftliche Existenz am Funding der Organisation hängt – eine Nachricht, die der Logik von Wettbewerb und Wachstum verhaftet bleibt, einer Logik, die uns immer wieder in die Erdüberlastung zurückführen würde, selbst wenn wir den aktuellen Mist noch irgendwie hingebogen kriegten.

    Vor allem aber ist dieser „Fußabdruck” eine Metrik, was im modernen WiWi-Jargon so viel heißt wie: Wir sammeln viele Zahlen, so viele, dass es am Schluss ordentlich überzeugend aussieht, und suchen uns dann eine Methode, die so zusammenzumischen, dass etwas herauskommt, das mit unseren Interessen (oder mit denen derer, die existenzsichernde Gutachten in Auftrag geben können) verträglich ist. Letztlich ist das fast immer Zahlenmystik, denn im Umfeld von Politik und Gesellschaft ist „Messbarkeit“ die Ausnahme und nicht, wie der orthodoxe WiWi-Diskurs suggerieren möchte, die Regel. Wer in dem Bereich Streit und qualitative Argumentation ersetzen will durch Großpackungen von Zahlen, verdient jedes Misstrauen.

    Ein besserer Termin

    Lasst mich dagegen kurz und nur semiquantitativ argumentieren, warum wir statt des 28.7. besser den 1.1. als Erdüberlastungstag begehen sollten, genauer: die Erdüberlastungssekunde, noch bevor das Silvesterfeuerwerk richtig losgelegt hat. Mit meinen Daten ergibt sich im oberflächlich nachgestellten Stil der GFN-Grafik von oben folgendes Bild:

    Balkengrafik mit gleich hohen, durchweg roten Balken.

    Full disclosure: Gemacht mit schlechtem matplotlib-Code ohne echte Daten. Aber dafür auch ohne Photoshop.

    Die Basisdaten dazu kommen aus dem World Energy Outlook der International Energy Agency, einer Kooperationsveranstaltung von Regierungen des globalen Nordens, die sich tiefe Gedanken darüber macht, wie das Wettbewerbs- und Wachstums-Regime zumindest so lang mit Energie versorgt werden kann, dass die Dinge schon aus anderen Gründen Klump sind, bevor sie ohne Sprit liegen bleiben.

    Die Tabelle B.3 in der 2022er Ausgabe enthält „Ressourcen“ und „Reserven“ diverser fossiler Energieträger. Ich schaue mir hier mal das Öl an, da aus meiner Sicht Autos – die einen Großteil des Öls schlucken – eigentlich das größte Ärgernis der ganzen Show sind: Wir verpulvern endlos Ressourcen mit grob dem einzigen Effekt, dass wir in Blechkäfigen sitzen und den anderen das Leben schwer machen. Ich persönlich finde Heizung oder Computer bauen doch erheblich nachvollziehbarer als Grund, Fußabdrücke auf der Erde zu hinterlassen. Die Rechnung wäre für Kohle oder Gas aber nur geringfügig anders.

    Die Ölressourcen, Öl also, von dem wir wissen und das wir mit unbegrenztem Materialeinsatz fördern könnten, wird da auf 6000 Gb beziffert, die realistischen Reserven, also Öl, das wir im Augenblick gewinnbringend fördern können, auf 1800 Gb. Das „Gb“ steht hier für Gigabarrel, also Millarden Standard-Fässer zu 0.16 m³. In solchen verfluchten Einheiten rechnen die Öl-Leute leider, und so kommt es ja auch immer in den Nachrichten, weshalb mensch sich wahrscheinlich die Kopfzahl 6 barrel auf den Kubikmeter merken sollte.

    Für meine Zwecke hier ist das aber egal, denn ich will nur vergleichen mit den in ähnlich karmaschädlichen Einheiten gegebenen Verbrauchswerten in Tabelle A.7. Der globale Ölverbrauch wird dort als 100 Mb/d gegeben; für eine Überschlagsrechnung darf das Jahr 400 Tage haben, womit sich für den Ölverbrauch 40 Gb/yr ergeben.

    Ressourcen oder Reserven geteilt durch diesen Verbrauch führt auf die augenblickliche Reichweite in Jahren. Für Rechnungen zum „Fußabdruck“ ist das das, was ich haben will, im Gegensatz zur tatsächlichen Reichweite, bei der ich mir Sorgen ums Wachstum machen müsste. Für die Reserven sind das 1800/40 oder rund 50 Jahre (das grässliche Gb kürzt sich zum Glück raus). Analog käme für die Ressourcen 150 Jahre raus. Sagen wir im Geiste von Fermi: Wir leben derzeit so, dass wir das Öl in der Erde in ungefähr 100 Jahren verbraucht haben werden. Das, was wir schon verbraucht haben, spielt für diese Rechnung übrigens keine große Rolle, das sind nur ein paar Jahrzehnte (oder unten: Sekunden) hin oder her.

    Geologische Zeiträume

    In der Fußabdruck-Logik müssen wir jetzt schätzen, wie viel von diesem Öl in jedem Jahr nachwächst. Das ist wirklich schwer zu sagen, schon weil die Entstehung von Öl ein sich mindestens über Jahrtausende hinziehender Prozess mit vermutlich je nach Globalklima und -Hydrologie stark schwankenden Raten ist, und dabei ist die Konzentration zu Ölfeldern noch gar nicht eingerechnet. Einfacher ist es, die Frage umzudrehen: Wie lange hat die Erde gebraucht, um das Öl heranzubrüten, das wir jetzt gerade fördern?

    Werft zur Antwort einen Blick die geologische Zeitskala. Das Karbon (Anfang ca. 350 Myr vor heute) heißt nicht ganz umsonst Karbon: auch wenn uns die Biologie schon seit der kambrischen Artenexplosion (ca. -550 Myr) allmählich bekannt vorkommen würde[3], ging es erst im Karbon so richtig los mit der Bildung großer Kohlenstoff-Lagerstätten. Sagen wir also: die gegenwärtigen Ölressourcen haben sich innerhalb der letzten 400 Millionen Jahre gebildet.

    Wir bringen dann in 100 Jahren das Öl durch, das die Biologie auf der Erde innerhalb von 400 Millionen Jahren in den Boden verfrachtet hat. Anders gesagt: unser augenblicklicher Fußabdruck ist vier Millionen mal zu groß für diese Welt. Zusammen mit der Ur-Kopfzahl von 31 Millionen Sekunden auf ein Jahr (oder, wer das lieber hat, π⋅107  s) und etwas aufgerundet: wir überlasten die Erde ab Sekunde 10 des Jahres.

    Ich gestehe gerne ein, dass der genaue Zeitpunkt mit guten Argumenten etwas nach vorne oder hinten geschoben werden kann. Nach vorne etwa, weil doch eher unwahrscheinlich ist, dass all die Ressourcen ausbeutbar sind. Nach hinten vielleicht, weil sich die Mehrheit der gegenwärtig genutzten Öl-Lagerstätten doch eher in den letzten 100 Millionen Jahren gebildet haben werden, oder weil wir ja auch noch die 20'000 Gt Kohle verfeuern können oder die Methanhydrate von den Kontinentalschelfs oder was immer, oder weil ja vielleicht noch ganz viele neue Ressourcen entdeckt werden könnten (allerdings wird schon seit Jahrzehnten weniger entdeckt als verbraucht). Wer so rechnet, muss sich übrigens auch keine Sorgen wegen des CO₂ machen, denn bei so viel Techno-Optimismus kriegen wir das Zeug auch ganz locker wegsequestriert.

    Aber auch mit dem größten Techo-Optimismus kann ich valide Szenarien, in denen der Erdüberlastungsmoment im Kohlenstoffbereich hinter die erste Minuten rutschen könnte, praktisch ausschließen. Wegen leicht zu merken und hinreichend plausibel bleibe ich also dabei: der Erdüberlastungsmoment ist Sonntag, 1.1.2023, 00:00:10. Verglichen mit irgendwelchen Tagen im Juli aus den GFN-Schätzungen ist das ganz sicher ein robustes und reproduzierbares Ergebnis.

    Noch eine Umrechnung

    Ach ja: Im IEA-Paper steht noch, dass ein Exajoule 23.88 Mtoe (Megatonnen Öläquivalent) entspricht. Das EJ ist eine ganz bequeme Einheit für den Energieumsatz von Staaten; in der BRD sind laut Grünbuch Energieeffizienz im Jahr 2014 13'132 PJ Primärenergie in 8'648 PJ nutzbare Energie überführt worden. Dabei sind 1000 Petajoule ein Exajoule, so dass wir bei rund 15 Exajoule Primärenergieumsatz in der BRD rauskommen.

    Für wenn ich sowas mal in Vorstellbareres wandeln will, möchte ich mir die IEA-Zahl in der Form 1 EJ = 25 Mtoe merken. Damit kann ich den jährlichen …

  • Machen Straßen auch nach 2000 Jahren noch Dreck?

    Foto: Straße mit braunem Tourismus-Hinweis: Limes

    Zumindest die Kolonnenwege am Limes sind heute meist grüne Wiese (oder Maisfeld oder Wald). Aber wie ist es mit Spuren größerer Römerstraßen?

    Neulich habe ich die DLF-Wissenschaftsmeldungen vom 23.11. gehört. Ab Minute 2:30 ging es römisch zu:

    Römerstraßen prägen noch immer den Wohlstand in Europa [...] Die anhand von Lichtspuren erkennbare heutige Verteilung von Siedlungen, Populationsdichte und Wirtschaftsleistung in Europa folgt noch immer den gleichen Mustern [wie das römische Straßennetz].

    Ich will nun gar nicht darüber schimpfen, dass ausgerechnet Licht- und damit Umweltverschmutzung als Maß für „Wohlstand“ (im Original etwas zweideutiger „prosperity“) genommen wird. Nein, meine spontane Reaktion war: „Boah, was für ein Wiwi[1]-Bullshit. Natürlich sind die römischen Straßen da, wo die damals ihre Städte gebaut haben, und natürlich haben sie ihre Städte im Groben da gebaut, wo wir das immer noch tun: dort, wo Schiffe gut hinkommen, wo das Wetter nicht zu garstig ist, wo nicht zu viele Berge sind, wo der Boden Ertrag bringt.”

    Damalige und heutige Produktions- und Bevölkerungsdichte werden also in jedem Fall stark korreliert sein, und das nicht, weil das eine das andere bedingen würde – immerhin trennt ein recht weitgehender und mithin kausal entkoppelnder Zusammenbruch[2] die beiden Sorten von Metriken –, sondern weil sie beide von ungefähr gleichen zugrundeliegenden Variablen wie „Verkehrsgunst“ oder meinetwegen „ökonomisches Potenzial des Bodens“ abhängen.

    Aber ich habe erstens einen Römerfimmel und will mich zweitens nicht unverdient des Natwi-Chauvinismus zeihen lassen. Deshalb habe ich das Paper herausgesucht. Es handelt sich um „Roman roads to prosperity: Persistence and non-persistence of public infrastructure“ von Carl-Johan Dalgaard und KollegInnen, erschienen leider bei Elsevier im Journal of Comparative Economics. Ich linke da nicht gerne drauf, zumal es nicht open access ist und selbst Leute mit Zugang derzeit durch ein dämliches Javascript-Fegefeuer müssen, um ein ordentliches PDF zu bekommen. Aber es hilft alles nichts: doi:10.1016/j.jce.2022.05.003.

    Korrelation oder Kausation?

    Die dänischen WirtschaftswissenschaftlerInnen – es hat offenbar niemand mit akademisch verbürgten Antike-Hintergrund mitgeschrieben – um Dalgaard prüfen in der Tat die Hypothese, dass sich Investitionen in die öffentliche Infrastruktur (also, ähh: Straßen) noch nach 2000 Jahren lohnen können, und die DLF-Zusammenfassung kommt auch insoweit hin, als sie diese Hypothese für den europäischen Teil des römischen Reichs bejahen.

    Natürlich war Dalgaard et al der Einwand der gemeinsamen Ursache der Korrelation durchaus bewusst, und so bieten sie bereits in der Einleitung an:

    Roman road construction did not follow the rules of infrastructure planning in the contemporary era. The Roman roads were built mainly with a military purpose in mind, and geographic obstacles in the landscape were often surmounted rather than evaded.

    Zum Beleg führen die AutorInnen den Prototyp der römischen Straße an, die Via Appia, die ohne viel Federlesens schnurgerade quer durch die Pontischen Sümpfe gelegt wurde. Aber schon ein schneller Blick auf die Abbildung A1 aus den Anhängen des Artikels stellt klar, dass die römischen PlanerInnen ihre Straßen sehr wohl den geographischen Gegebenheiten angepasst haben:

    Eine Landkarte des nördlichen Mittelitaliens, in die einige römische Straßen eingezeichnet sind; sie vermeiden ersichtlich bergige Gegenden.

    Straßen durch den Apennin gibt es, wenn überhaupt, nur in den Tälern, und wo niemand wohnt, ist auch keine Straße; ansonsten verbinden die Straßen halt Städte auf relativ direktem Weg und umgehen Unwegsamkeiten, wenn das ohne allzu große Umwege geht. Rechte: Dalgaard et al

    Richtig ist allerdings, dass die Römer durchaus auch größere Konstruktionen in Angriff genommen haben, wenn sie dadurch Strecke einsparen konnten. Schöne Beispiele dafür finden sich im Wikipedia-Artikel zur Via Claudia Augusta. Nebenbei zur Frage der Kontinuitäten: So sieht die Via Claudia Augusta heute bei Franzensfeste/Fortezza – wo das Tal übrigens so eng ist, dass es gar nicht so arg viele Alternativtrassen gibt – aus:

    Eine in den Felsen gegrabene Karrenspur, stark zugewachsen.

    Die Via Claudia Augusta belegt anonsten aber, dass römische Straßen den gleichen natürlichen Gegebenheiten unterworfen waren wie unsere heutigen Straßen auch. Damals wie heute sind Reschenpass und Fernpass halbwegs attraktiv, damals wie heute ging die Autobahn (oder damals halt die Via Raetia) schließlich über den bequemeren Brennerpass.

    Wer sich ein Bild zur Korrelation über die parallele Auswahl der Siedlungsräume machen will, möge eine Karte des obergermanischen Limes betrachten (zum Beispiel in den tollen Limes-Heften der Deutschen Limeskommission). Dort sind ein paar eigenartige Ausbuchungen zu sehen, insbesondere fürs Neuwieder Becken, für das die Provinzverwaltung den Limes extra noch ein Stück nach Norden gezogen hat, und die Wetterau, die insgesamt hübsch vom Limes eingeschlossen wird. Natürlich werden römische wie unsere Straßen mit solchen Gebieten korrelieren.[3]

    Oder ist da doch noch was?

    Damit könnte das Thema eigentlich erledigt sein, aber Dalgaard et al vermuten – so lege ich ihnen das mal in den Mund –, dass es da noch ein Extrasignal geben könnte, dass also der damalige Straßenbau heutige Umweltverschmutzung (in ihren Worten: wirtschaftliche Entwicklung) verursachen würde, die es bei sonst gleicher Geographie ohne den Straßenbau nicht gegeben hätte.

    Das Problem: wie findet mensch so einen Extra-Effekt? Die grundsätzliche Technik ist, in Analysen „für Confounder zu kontrollieren“, also im Groben zu versuchen, die (hier) störenden Einflüsse durch analoge Motivationen zum Straßenbau zu schätzen und dann herauszurechnen. Das ist tatsächlich kein völliger Hokuspokus, auch wenn es oft eine Familienpackung Modellierung und Annahmen braucht. Die englische Wikipedia deutet in controlling for a variable an, wie das gehen kann; wo sowas in der deutschen Wikipedia steht, weiß ich offen gestanden nicht.

    Die Achillesferse des Kontrollierens ist das Modell, was denn wohl (in diesem Fall) die möglichen gemeinsamen Einflüsse sein könnten. Dalgaard et al bieten dazu die Seehöhe an – auf den Bergen ist es kälter und unwirtlicher; etwas, das sie „Caloric Suitability“[4] nennen und das Boden, Wetter und Feuchtigkeit zusammenfasst zu einem Maß, wie viel Essen mensch aus dem Boden rausholen kann, getrennt nach vor-Kartoffel und nach-Kartoffel, so dass für die römische Zeit andere Kriterien gelten als für unsere; „agricultural suitability“, was so ähnlich funktioniert, aber andere AutorInnen hat; den Abstand zum nächsten größeren Fluss; den Abstand zum Meer; und antike Minen.

    Obendrauf meinen sie, moderne Systematiken rausrechnen zu müssen, vor allem den Einfluss von Sprache und Land auf die Wirtschaftsleistung, aber dann auch völlige Albernheiten wie die Entfernung zu Wittenberg als Proxy für Neigung zu Protestantismus – als sei dieser eine sich langsam ausbreitende Infektionskrankheit, die einfach noch nicht genug Zeit hatte, um sich, sagen wir, in Italien durchzusetzen – und inspiriert von Max Webers Theorie vom Protestantismus als Basisideologie des Kapitalismus. Wer schmunzeln will: die Arbeit sieht schwach signifikant, dass es mit wachsender Entfernung von Wittenberg im römischen Reich dunkler wird.

    Wie rechnet mensch die Verstraßung der Landschaft aus?

    Um ihre unabhängige Variable, die Straßendichte in römischer Zeit, auszurechnen, teilen Dalgaard et al das römische Reich in Zellen von ein Grad in Länge und ein Grad in Breite auf. Wenn ich das als Astronom mit Neigung zum Natwi-Chauvinismus sagen darf: In Zeiten von HEALPix ist das etwas fußgängerisch. Aber das römische Reich hat hinreichend wenig von der Kugelform der Erde mitbekommen, so dass zu Fuß laufen vermutlich keine nennenswerten Probleme einführt. Dann legen sie um die römischen Straßen aus dem Barrington-Atlas (ausleihbar in der Library Genesis) 5-km-Umgebungen – in der GIS-Szene „Buffer“ genannt – und rechnen das Verhältnis der so erzeugten Fläche zur Gesamtfläche in ihrer Zelle aus.

    Warum die das so machen, ist mir offen gestanden nicht klar, denn es benachteiligt ausgerechnet besonders gut vernetzte Orte, um die herum sich diese Buffer massiv überlagern werden. Als Zeichen für die Verbundenheit einer Zelle schiene mir jedenfalls die Gesamtlänge der Straßen in ihr als Metrik erheblich naheliegender. Wahrscheinlich ist das römische Straßennetz so grobmaschig, dass die Überlagerung allenfalls in ausgesprochenen Knotenpunkten wie Rouen überhaupt eine Rolle spielt. Aber etwas seltsam ist die Bufferflächen-Metrik doch.

    Damit fangen Dalgaard et al an zu rechnen. Sie fitten eine Unzahl linearer Zusammenhänge zwischen den Logarithmen aller möglicher dieser Metriken. Sachlich also unterstellen sie Potenzgesetze, a ∝ bγ, wobei sie endlose Tabellen dieser γ für alle möglichen Parameter ausrechnen, während sie für alles Mögliche kontrollieren.

    Ihr zentrales Ergebnis (aus der Tabelle 3, Spalte 7 im Paper) ließe sich etwa formulieren als: Die moderne Lichtverschmutzung geht ungefähr mit der Wurzel der antiken Straßendichte, also: 25 Mal mehr Straßen damals macht fünf Mal mehr Lichtverschmutzung heute[5].

    Zentral^WZahlenfriedhof

    Um ein Gefühl dafür zu kriegen, wie empfindlich dieses Ergebnis auf die diversen Kontrollen für Land, Leute, Höhe und Breite reagiert, kann mensch auf die anderen Spalten der erwähnten Tabelle spitzen: Das γ kann statt ungefähr 1/2 auch mal eher 3/2 sein (nämlich ganz ohne Kontrollen), was dann auf 125 Mal mehr Lichtverschmutzung für das 25-mal dichtere Straßennetz führen würde, oder auch mal 1 (wenn sie für die Zeit seit der lokalen neolithischen Revolution kontrollieren, wenn ich die etwas hemdsärmelige Beschreibug der Tabelle richtig lese), was einfach auf 25-fache Lichtverschmutzung führen würde.

    Ergebnisse, die je nach Modellierung so wild schwanken, rufen nach einer Plausibilisierung der zugrundeliegenden Modelle. Ich glaube, dass die Zahlenfriedhöfe, die das Paper und seine Anhänge durchziehen, dieser Plausibilisierung dienen sollen, und ich habe eine ganze Weile auf Tabellen dieser Art gestarrt (nur zur Illustration; die Werte, die ich für meine Betrachtung als relevant erachte …

  • Dialektik der Ökonomie

    Ich bin bekennender Skeptiker bezüglich allem, was sich Wirtschaftswissenschaft nennt (wobei ich die Verdienste einiger ihrer VertreterInnen um die angewandte Mathematik nicht leugnen will). Und ich wundere mich, warum das nicht viel mehr Menschen sind, sind doch die Vorhersagen, die aus dieser Ecke kommen, eigentlich immer im Einzelnen falsch („Wachstumsprognose nach unten korrigiert“). Tatsächlich kommen aber schon die qualitativen Aussagen offensichtlich nicht annähernd hin.

    Zu den zentralen Glaubenssätzen jedenfalls marktradikaler Ökonomie gehört ja, dass niedrige Zinsen Wachstum und Inflation steigen lassen und hohe Zinsen die Inflation eindämmen, aber das Wachstum abwürgen. Dieser Glaube ist sogar in vielen Geschichtsbüchern reflektiert, wenn etwa die Hochzinspolitik der späten Carter- und frühen Reagan-Jahre für die Überwindung der „Stagflation“ verantwortlich gemacht wird; glücklicherweise ist die (gegenwärtige) Wikipedia da etwas realistischer und benennt, was die eigentlichen Gründe der Inflation in den 1970er Jahren waren (nämlich die Stärke der OPEC; dazu wären noch Bankenspiele und starke Gewerkschaften zu nennen).

    Der Glaube an die Kraft des Zinssatzes ist offenbar durch keinerlei Tatsachen zu erschüttern, nicht einmal die Folgen der Nullzinspolitik der letzten zehn Jahre. Außer im schattigen Bereich von Immobilien, Aktien, Derivaten, Großkunst und Kryptogeld fanden diese nämlich nicht statt. Es gab weder nennenswerte Inflation noch nennenswertes Wachstum (allen Gottheiten sei dank – Zukunft hätte das eh nicht).

    Um so unverständlicher ist, dass Klemens Kindermann aus der Deutschlandfunk-Wirtschaftsredaktion (nun: vorher Handelsblatt) vorhin die EZB schalt, weil sie die Zinsen so lange niedrig ließ und deshalb Schuld habe an den hohen Inflationsraten im Euro-Raum. Wörtlich:

    Fehler Nummer 2: Allerspätestens seit Beginn des Angriffs Russlands auf die Ukraine hätte das Ruder herumgerissen werden müssen. In den USA hat das die Zentralbank erkannt und massiv gegengesteuert.

    Damit meint er: sie haben die Leitzinsen erhöht. Nun: wenn das so ist, was war die Wirkung? Sehen wir bei aller Reserviertheit gegenüber der Kennzahl Inflationsrate mal auf Zahlen meinethalben von irgendeinem Datensammler: Inflationsrate USA 8.5%, Inflationsrate BRD 8.5% (für Juli).

    Wer erklären kann, warum HandelsblättlerInnen und ihre Adpeten diese Zinsgeschichte so unbeirrt auspacken, wenn doch ganz offensichtlich ist, woher die Preisentwicklung kommt – derzeit: diverse Schwierigkeiten im Chinageschäft und ein Stellvertreterkrieg von fast vietnamösen Ausmaßen[1] –: Für mich wäre der oder die einE heißeR KandidatIn für den Wirtschafts-„Nobelpreis”.

    [1]Der Vietnamkrieg ist in diesem Zusammenhang vor allem deshalb zu erwähnen, weil seine Kosten wesentlich zur Aufgabe des an sich halbwegs vernünftigen Bretton-Woods-Systems geführt haben. Die daraus resultierenden „freien“ Wechselkurse wiederum haben der Freihandelspolitik und dem ganzen Elend, das mit ihr einherging, nochmal einigen Extraschwung gebracht. Nun sind die tatsächlichen Kriegskosten in der Ukraine im Vergleich zu Vietnam ziemlich klein – es sind ja nicht unsere Jungs, die „den Russen“ da bekämpfen, und auch in Tonnage von Bomben und Entlaubungsmittel ist das noch eine andere Liga –, aber es wird trotzdem spannend, ob der patriotische Rückenwind noch für ein paar komforable neue Umverteilungprogramme reichen wird…
  • Das BESTE Bildungssystem in Deutschland

    Transparent der INSM im Berliner Hauptbahnhof: Deutschland fährt besser.

    Berlin Hauptbahnhof, August 2021: Würden Sie von Leuten, die Menschen an öffentlichen Orten mit solcher Werbung belästigen, Bildungsstudien kaufen?

    In den DLF-Nachrichten vom 17.8. war in der 16:30-Ausgabe folgende Nachricht zu hören:

    Sachsen hat laut einer aktuellen Erhebung das beste Bildungssystem in Deutschland. Das ergab eine Vergleichsstudie des Instituts der Deutschen Wirtschaft, das dieses [sic] im Auftrag der Initiative neue Soziale Marktwirtschaft erstellt [sic]. Bayern und Thüringen liegen auf den Plätzen zwei und drei. Schlusslicht ist hinter Nordrhein-Westfalen und Sachsen-Anhalt der Stadtstaat Bremen.

    Als ich eben einen Mitschnitt davon beim Radfahren gehört habe, musste ich in aller Öffentlichkeit hysterisch lachen. In Momenten wie diesen bin ich froh, dass die Gesellschaft längst an unpassende Interaktionen zwischen Menschen und ihren technischen Gerätschaften, auch und gerade mitten auf der Straße, gewöhnt ist.

    Sowohl das zugrundeliegende Ereignis als auch das Framing durch die DLF-Redaktion werfen mal wieder die Frage auf, was Satire eigentlich alles darf. Lieber DLF, was wäre verkehrt gewesen an neutraler Berichterstattung, sagen wir:

    Die Abteilung INSM der Werbeagentur Scholz & Friends versucht, mit der Behauptung, ausgerechnet das immer wieder durch die Prävalenz sehr eigenartiger Ansichten auffällige Sachsen habe das – im Sinne von der INSM geeignet definierter Kriterien – beste Bildungssystem, Einfluss auf die Bildungspolitik zu nehmen; die rechtsgerichteten Unternehmer*innen, die Scholz & Friends bezahlen, fordern: a, b und c.

    —Nicht der DLF

    Full disclosure: Ich habe nicht versucht, die Studie zu lokalisieren oder gar rauszukriegen, was a, b und c in diesem speziellen Fall sein mögen, also auf welche Ideologeme hin die Metriken gestaltet wurden. Ich habe seit den 90er Jahren zu viele von Papieren dieses Genres gelesen, um noch im Geringsten auf dieses neugierig zu sein. Am Ende wird es halt wie üblich auf Privatisierung, mehr Industrieplunder in den Schulen, bevorzugt noch mit Staatsknete finanziert, und eine Brandmauer zwischen Schülis und fortschrittlichen Ideen rauslaufen.

    Nur ein Datenpunkt zu „bestes“ und Sachsen: Die AfD hat bei der dortigen Landtagswahl 2019 28,4% der Stimmen bekommen, bei den gerade dem INSM-zertifiziert „besten“ Bildungssystem Deutschlands entwachsenen 18-24jährigen nach Aussage des MDR immer noch 19% (knapp hinter den Grünen mit 21%). Wenn das das Ergebnis des aus der Sicht reaktionärer UnternehmerInnen besten Bildungssystems ist, fällt es schwer, keine unangemessenen Parallelen zu ziehen.

    Und wo ich schon von der INSM rede: Dass sich diese Leute nicht gelegentlich einen neuen Namen einfallen lassen, wundert mich sehr. Nachdem gerade die, die die INSM wohl am dringendsten beeinflussen möchte – junge Leute mit zumindest rudimentärem politischen Interesse – fast flächendeckend in Marc-Uwe Klings Känguru-Chroniken gelesen haben:

    Initiative neue soziale Marktwirtschaft – Propagandanetzwerk des Schweinesystems. Vgl. dazu auch: Du bist Deutschland, Freundeskreis der Kernkraft, Anbeter des Arbeitsplatzes, Gläubige der Gleichschaltung,

    würde ich an deren Stelle doch mal über eine, hust, Weiterentwicklung des, hust, Markenkerns nachdenken. Aber vielleicht verstehe ich auch nur nicht genug von Marketing.

  • Und nochmal Postwachstum: Von Friedrichstadt zu Isnogud

    Als ich vor gut einem Monat Friedrichstadt als Modell für eine gemütliche und hübsche Postwachstumsgesellschaft gelobt habe, habe ich auf eine wirklich augenfällige Besonderheit des Ortes nicht hingewiesen: Vor fast allen Häusern wachsen auf kleinstem Raum sorgfältig gepflegte Blumen, zumeist Rosen. Hier drei keineswegs untypische Beispiele:

    Montage aus drei spektakulären Szenen mit Blumen vor Haustüren

    Nun glaube ich nicht, dass der Mensch zum Wettbewerb geboren ist – dass es spätestens auf Schulhöfen so aussehen mag, lässt sich zwanglos als Herausforderung im Prozess der Zivilisation auffassen. Solange aber die soziale Praxis ist, wie sie ist, finde ich die Friedrichstädter Ableitung von Wettbewerbstrieb in eine dekorative und weitgehend unschädliche Richtung eine großartige Strategie zur, hust, Nachhaltigkeit (Übersetzung aus dem Blablaesischen: Das können sie auch noch 1000 Jahre so treiben, ohne dass es ihnen um die Ohren fliegt).

    Wenn die Menschen hingegen darum wettbewerben, wer das größere Auto hat oder, noch viel schlimmer, wessen Unternehmen mehr produziert, hat das ganz offensichtlich dramatische Konsequenzen; in einer Art individualpsychologischer Kapitalismusanalyse würde es sogar taugen, die ganze Wachstumskatastrophe zu erklären.

    Allerdings machen manche der Friedrichstädter Blumen durchaus den Eindruck, als hätten sie Dünger auf Mineralölbasis bekommen oder auch fiese Pestizide, so dass bei so einem Herumdoktorn an Symptomen des Wettbewerbswahnsinns jedenfalls Vorsicht nötig ist. Sobald die Leute nämlich in ihrer Wettbewerberei immer größere Flächen düngen oder begiften können, ist es schon wieder vorbei mit der, hust, Nachhaltigkeit. Ich denke, das ist meine Chance, das neueste der wunderbaren Worte, die wir der Nuklearlobby zu verdanken haben, in meinen aktiven Wortschatz aufzunehmen:

    Wir sollten Rosenzucht wie in Friedrichstadt als Streckbetrieb der Wettbewerbsgesellschaft denken.

    —Anselm Flügel (2022)

    Die Friedrichstadt-Thematik ist aber eigentlich nur Vorgeplänkel, denn wirklich verweisen wollte ich auf den Artikel „Bevölkerungswachstum – Wie viele werden wir noch?“ von David Adam im Spektrum der Wissenschaft 2/2022 (S. 26; Original in Nature 597 (2021), S. 462), der mir vorhin in die Hände gefallen ist.

    Diesen Artikel fand ich schon deshalb bemerkenswert, weil er recht klar benennt, dass ein Ende des Wachstums (in diesem Fall der Bevölkerung) wünschenswert und zudem auch fast unvemeidlich ist, sobald Frauen über ihre Fortpflanzung hinreichend frei entscheiden können und sich Religion oder Patriotismus oder Rassismus nicht zu stark verdichten. Vor allem aber wird dort eine große Herausforderung für fortschrittliche Menschen angekündigt:

    In 23 Ländern könnte sich die Bevölkerung laut dieser Vorhersage bis Ende des Jahrhunderts sogar halbiert haben, unter anderem in Japan, Thailand, Italien und Spanien.

    Ich bin überzeugt, dass sich die wenigsten MachthaberInnen mit so einer Entwicklung abfinden werden, so willkommen sie gerade in diesen dicht besiedelten Staaten (gut: Spanien und Thailand spielen mit um die 100 Ew/km² schon in einer harmloseren Liga als Japan oder Baden-Württemberg mit um die 300) auch sind. Menschen mit Vernunft und ohne Patriotismus werden dann sehr aufdringlich argumentieren müssen, dass Bevölkerungsdichten von 50 oder auch nur 10 Menschen auf dem Quadratkilometer das genaue Gegenteil vom Ende der Welt sind und jedenfalls für ein paar Halbierungszeiten überhaupt kein Anlass besteht, darüber nachzudenken, wie Frauen, die keine Lust haben auf Schwangerschaft und Kinderbetreuung, umgestimmt werden könnten.

    Wie würde ich argumentieren? Nun, zunächst mal in etwa so:

    Die kulturelle Blüte unter Hārūn ar-Raschīd (um mal eine recht beeindruckende Hochkultur zu nennen; siehe auch: Isnogud) fand in einer Welt mit höchstens 300 Millionen Menschen statt, also rund einem sechzehntel oder 2 − 4 der aktuellen Bevölkerung. Angesichts der damaligen Gelehrsamkeit dürfte als sicher gelten, dass mit so relativ wenigen Menschen immer noch eine interessante (technische) Ziviliation zu betreiben ist. Demnach haben wir mindestens vier Halbierungszeiten Zeit, ohne dass unsere Fähigkeit, in der Breite angenehm zu leben, aus demographischen Gründen in Frage steht.

    Wenn unsere modernen Gesellschaften von Natur aus um 1% im Jahr schrumpfen würden, wäre eine Halbierungszeit etwa 75 Jahre, und die vier Halbierungszeiten würden zu 300 Jahren, in denen wir uns wirklich in aller Ruhe überlegen könnten, wie wir unsere Reproduktion so organisieren, dass Frauen im Schnitt auch wirklich die 2.1 Kinder bekommen wollen, die es für eine stabile Bevölkerungszahl bräuchte (oder wie wir die Bevölkerungszahl anders stabilisiert kriegen; soweit es mich betrifft, ist ja auch die ganze Sterberei deutlich überbewertet).

    Allerdings ist das wahrscheinlich ohnehin alles müßig. Zu den bedrückendsten Papern der letzten 20 Jahre gehört für mich A comparison of The Limits to Growth with 30 years of reality von Graham Turner, erschienen in (leider Elsevier) Global Environmental Change 18 (2008), 397 (doi:10.1016/j.gloenvcha.2008.05.001; bei libgen). Darin findet sich folgende Abbildung:

    Vergleich verschiedener Modelle mit der Realität in einem Plot, ein Modell, das in den 2030er Jahren kippt, passt am besten

    Copyright 2008 Elsevier (Seufz! Das Mindeste wäre ja, dass die Rechte bei denen liegen, die die Forschung bezahlt haben, in diesem Fall also der CSIRO)

    Was ist da zu sehen? Die Kuven in grün und rot geben jeweils die Umweltverschmutzungs-Metrik der Modelle, die Dennis Meadows et al um die 1970 herum gerechnet haben und die zur Publikation der Grenzen des Wachstums geführt haben. Rot ist dabei das Modell, in dem es glaubhafte technische Bemühungen um Umweltschutz gibt, ansonsten aber weiter Wachstumskurs herrscht. Die grüne Kurve zeigt das Modell, in dem Leute allenfalls so tun als ob.

    Dass mit „Grünem Wachtum“ (in einem Wort: Elektroautos) die totale Umweltverschmutzung einen viel höheren Peak nimmt (wenn auch später), ist schon mal eine Einsicht, an die sich nicht mehr viele erinnern wollen; Meadows et al teilen jedenfalls meine Einschätzung, dass es keine technische Lösung für das Problem der Endlichkeit des Planeten gibt. Wer sowas dennoch versucht, sollte wissen, worum es geht: Die Umweltverschmutzung geht in den Modellen nach den Gipfeln zurück, weil die Umweltverschmutzenden (a.k.a. die Menschen) in großer Zahl (zu mehr als 2/3) verhungert, an Seuchen oder sonst irgendwie vor ihrer Zeit gestorben sind.

    So viel war schon vor Turners schlimmem Paper klar. Turners Beitrag war nun, reale Messgrößen auf Meadows' Metriken abzubilden – darüber ließe sich, wie immer bei Metriken, sehr trefflich streiten. Akzeptiert mensch diese Abbildung jedoch, ist die reale Entwicklung durch die schwarzen Punkte knapp unter der grünen Kurve repräsentiert. Das würde heißen: für die 30 Jahre zwischen 1970 und 2000 kommt eines von Meadows Modellen ziemlich genau hin: Das Modell, das in den 2030er Jahren kippt.

    Und nochmal: „Kippen“ ist hier ein terminus technicus dafür, dass etwas wie zwei von drei Menschen innerhalb von grob einem Jahrzehnt sterben.

    Wenn sich Meadows und Turner nicht ordentlich verrechnet haben – und ja, ich hätte an beiden Arbeiten reichlich zu meckern, nur wohl leider nicht genug, um die grundsätzlichen Ergebnisse ernsthaft zu bestreiten –, wird in gut zehn Jahren die Frage eines düsteren 80er Jahre-Graffitos in einer Erlanger Unterführung brandaktuell:

    Who will survive? And what will be left of them?

    Ungefähr hier

  • Wird Bolsonaro Schuld sein an der nächsten großen Seuche?

    Diagramm mit Einflussfaktoren wie Wald-Dichte, Artenvielfalt, Stadtnähe und ihren Korrelationen untereinander und mit der Inzidenz von Zoonosen

    Wie verschiedene Metriken die Häufigkeit von Zoonosen beeinflussen: Abbildung zwei aus doi:10.1126/sciadv.abo5774. CC-BY-NC Winck et al.

    Auch wenn (oder gerade weil) in China ein SARS-Erreger schon mal aus enem Labor entkommen ist, glaube ich ja immer noch ziemlich fest daran, dass SARS-2 aus (zu) engem Kontakt von Menschen und Wildtieren entstanden ist. Wo es viele Tiere gibt, sind solche Krankheiten mit tierischer Beteiligung, Zoonosen, Regel eher als Ausnahme, und wo es viele verschiedene Tiere gibt, ist entsprechend mit vielen Überraschungen zu rechnen. So erscheint Brasilien als ideales Land, um quantitative Schätzungen zu bekommen zur Frage, wie insbesondere neuartige Krankheitserreger Artgrenzen überwinden können und was dann passiert.

    Das war das Projekt von Gisele R. Winck und Ciclilia Andreazzi vom Institiuto Oswaldo Cruz in Rio de Janeiro sowie KollegInnen von verschiedenen anderen brasilianischen Instituten, über das sie in „Socioecological vulnerability and the risk of zoonotic disease emergence in Brazil”, Science Advances 8 (2022), doi:10.1126/sciadv.abo5774, berichten – und auch gleich anmerken, dass Brasilien vielleicht doch kein ganz ideales Land ist, ist doch ein Großteil der derzeit in Brasilien grassierenden Zoonosen gar nicht in Amerika entstanden: Malaria, Dengue, Zika oder Gelbfieber kommen alle aus der alten Welt.

    Aber es gibt auch Beispiele für Zoonosen aus Südamerika, so etwa Chagas, ein von Trypanosomen – das sind einzellige Eukaryoten, also in gewissem Sinn einfache Tiere – hervorgerufenes Syndrom, das zu tödlichen Verdauungsstörungen führen kann, sich aber nur gemeinsam mit relativ memmigen Wanzen weiterverbreiten kann.

    Pfadanalyse

    Winck et al versuchen, der Frage nach künftigen Zoonose-Risiken mit einer Pfadanalyse auf den Grund zu gehen, einer statistischen Methode zur Aufklärung von Netzwerken einander beeinflussender Größen, von der der ich, soweit ich mich erinnere, zuvor noch nie gehört habe. Diese Lücke dürfte wohl damit zusammenhängen, dass die Methode in der Biologie entwickelt wurde (ihr Erfinder war Populationsgenetiker) und im Bereich von Physik und Astronomie wenige etwas damit anzufangen wussten.

    Eine entsprechende ADS-Anfrage (und das ADS hat eigentlich alles, was es in der Astronomie gibt) liefert dann auch vor allem Kram aus Randbereichen, darunter eine Studie in den Geophysical Review Letters, die fast in das aktuelle Thema passt: „Urban Vegetation Slows Down the Spread of Coronavirus Disease (COVID-19) in the United States“. Da allerdings wette ich ungelesen, dass von dem Effekt wenig übrigbleibt, wenn mensch die Korrelation zwischen graueren Vierteln und Armut auf der einen und SARS-2 und Armut auf der anderen Seite rausrechnet.

    Wie dem auch sei: Bei einer Pfadanalyse braucht es eine Zielgröße (also das, dessen Verhalten erklärt werden soll) und „Kausalfaktoren“ (also Größen, das Verhalten der Zielgröße erklären sollen). Die Zielgröße im Paper ist die Fallzahl von einigen Zoonosen[1] in den verschiedenen brasilianischen Bundesstaaten.

    Das grobe Modell, das der Arbeit zugrundeliegt, ist nun, dass enge Kontakte zwischen Menschen und Tieren, gerade wenn wie beim Verzehr von Bushmeat Blut im Spiel ist, die Zoonosen nach oben treibt. Es könnte auch indirekte Effekte geben, wenn es etwa Wildtieren schlechter geht, weil die Menschen gerade ihr Habitat zerstören, und daher Pathogene, die vorher selten und harmlos waren, genau dann durch die geschwächte Population rauschen, wenn Menschen und Wildtiere während der Rodungen und vor der Etablierung funktionierender Landwirtschaft besonders wahrscheinlich interagieren. Mit solchen Motivationen betrachtet die Arbeit folgende Kausalfaktoren (vgl. Tabelle 1 im Paper):

    • Exposition gegenüber Zoonosen (Wie viele wilde Tiere gibt es? Wie gut ist die medizinische Versorgung der Nutztiere? Wie viel Boden ist (artenarme und in der Hinsicht wahrscheinlich eher sichere) landwirtschaftliche Fläche? Wie ist der Anteil der im Wesentlichen unberührten Fläche? Wie schnell gehen unberührte Flächen verloren?)
    • Empfindlichkeit gegenüber Zoonosen (Bäume in Städten als Proxy für die Art der Besiedlung; Kontakt mit Hausmüll als Proxy für die Dichte des Kontakts zu Vektoren wie Ratten und Mücken; Zustand der Abwassererfassung; Bruttoinlandsprodukt pro EinwohnerIn als Proxy für die Armutsrate)
    • Resilienz (Wie viel Gesundheitspersonal gibt es? In wie vielen Einrichtungen? Wie weit ist es in die nächste Stadt, in der spezialisierte Kliniken verfügbar sein werden?)

    Ich muss an der Stelle ein wenig die Nase rümpfen, denn an sich kann dieses Modell nicht so richtig das, was die AutorInnen zu versprechen scheinen: Aufklären, was mensch tun könnte, um neue Zoonosen im Zaum zu halten. Die Zielgröße ist ja die Ausbreitung längst an den Menschen gewöhnter Erreger. Zudem wird die Mehrheit der untersuchten Zoonosen von einzelligen Tieren verursacht und nicht von Viren oder Bakterien, deren pandemisches Potenzial ich weit höher einschätze, zumal, wenn sie anders als die meisten Einzeller keine Zwischenwirte brauchen.

    Aber seis drum: Ganz unplausibel ist ja nicht, dass, wo bekannte Erreger besonders intensiv zwischen Menschen und Tieren ausgetauscht werden, sich auch unbekannte Erreger allmählich an Menschen gewöhnen können.

    BIP ist wurst

    Angesichts des betrachteten Reichtums an Faktoren ist schon erstaunlich, dass die Mathematik der Pfadanalyse mit den Daten von Winck et al das Bild am Anfang des Posts ergibt (nicht signifikante Kausalfaktoren sind dort nicht gezeigt), also etwa das Bruttoinlandsprodukt pro EinwohnerIn keinen signifikanten Einfluss auf die Zoonoserate hat (was aus meiner Sicht nur heißen kann, dass es in Brasilien kein nützliches Maß für den Wohlstand mehr ist). In den Worten des Artikels:

    Zoonotic epidemic risks, as inferred from the observed mean number of ZD cases, are positively associated with vegetation loss (path analysis coefficient = 0.30), mammalian richness (0.47), and remoteness (0.72) and negatively related to urban afforestation (−0.33) and vegetation cover (−0.82).

    Also: Bäume in der Stadt (hätte ich erstmal nicht als einen wichtigen Faktor geraten, aber siehe das oben erwähnte GeoRL-Paper) und vor allem intakte Wildnis sind gut gegen Zoonosen. Eine hohe Dichte wilder Säugetiere, mit denen Menschen im Zuge von Entwaldung eifrig interagieren und, noch stärker, die Entfernung von größeren menschlichen Ansiedlungen befördern demgegegenüber solche Krankheiten.

    Besonders stark ist dabei der Effekt der Bewaldung (bzw. Besteppung oder Bemoorung, wenn das die lokal vorherrschenden Ökosysteme sind): Sie fördert zwar sehr stark die Artenvielfalt von Säugetieren, doch hemmt sie dennoch Zoonosen insgesamt. Das passt erstaunlich gut zur Beobachtung von Jared Diamond in seinem lesenswerten Buch „Collapse: How societies choose to fail or succeed“[2], dass Entwaldung wohl der allerwichtigste Faktor für den Zusammenbruch von Zivilisationen ist.

    Und dann die Schurken

    Ich bin auf das Paper wie üblich über einen Beitrag in der DLF-Sendung Forschung aktuell gegekommen, in dem Fall vom 30.6. Darin wurde vor allem abgehoben auf den Schluss der AutorInnen, die aktuelle Herrschaft in Brasilien beeinflusse die Kausalfaktoren mit ihrer marktradikalen, reaktionären und teils auch anderweitig dummen Politik stark in Richtung Zoonose:

    Ein weiterer wichtiger Aspekt, dessen Relevanz sich gerade erst erwiesen hat, ist die Empfindlichkeit gegenüber fehlgeleiteten politischen Maßnahmen, wie sie von den augenblicklichen Regierungen veranlasst wurden.

    Besonders gut hat mir dabei gefallen die Rede von einer „increasing socioecological degradation“, also einem zunehmenden sozio-ökologischen Verfall, zumal ich dabei an meine eigene brasilianische Geschichte denken musste.

    Foto eines Schildes aus Portugiesisch: Vorsicht, Waldtiere auf der Straße

    Im Parco de Tijuca auf dem Stadtgebiet von Rio de Janeiro: Warnung vor den „Waldtieren“, die auf der Straße rumlaufen. Tatsächlich turnen Affen sogar durch die Telefonleitungen, die zum Nationalobservatorium führen.

    Im Jahr 2014 habe ich rund eine Woche am Nationalobservatorium in Rio de Janeiro gearbeitet. Ich denke, es ist nicht verkehrt, so etwa in dieser Zeit den Höhepunkt der Wirkungen der Sozialpolitik von Lula da Silva zu verorten, der speziell mit seiner bolsa familia Dutzenden Millionen Menschen ein halbwegs menschenwürdiges Leben ermöglicht hat.

    Das hatte sehr profunde Konsequenzen auch für Menschen aus der Mittelschicht. Mein Gastgeber etwa erzählte, er sei vor Lulas Sozialpolitik „Opfer ungefähr jedes Verbrechens gewesen, das es gibt“, und das sei eine recht typische Erfahrung der Cariocas gewesen. Demgegenüber sei in den vieleicht fünf Jahren vor meinem Besuch eigentlich nichts mehr in der Richtung passiert. Ein weiterer Kollege ergänzte, er sei in dieser Zeit nur einmal ausgeraubt worden, und zwar mit chirurgischer Präzision (seine Worte), als er in den frühen Morgenstunden schon ziemlich beschickert unterwegs gewesen sei und die Räuber die Nettigkeit hatten, ihm seinen Geldbeutel wieder zurückzugeben, zwar ohne Bargeld, aber mit allem Plastikwahnsinn, dessen Wiederbeschaffung wirklich viel Stress gewesen wäre.

    Diese Zeiten sind lange vorbei. Nach dem (rückblickend ist diese Charakterisierung wohl nicht zu bestreiten) Putsch gegen Dilma ging die Politik zurück zur Umverteilung von unten nach oben, mit den erwartbaren Konsequenzen für das Leben in einer Stadt wie Rio – und den weniger offensichlichen Konsequenzen für das Heranbrüten der nächsten großen zoonotischen Pandemie.

    Ich frage mich ja bei solchen Betrachtungen immer, wie Leute wie Bolsonaro eigentlich ruhig schlafen können. Aber dann: Die Frage stellt sich ja ganz analog für Scholz, Steinmeier, für Fischer und Schröder, die mit Hartz IV oder der versuchten Rentenprivatisierung ganz ähnliche Dinge, wenn auch vielleicht auf kleinerer Flamme, angerichtet haben. Und ich vermute, ich habe den Kern der Antwort schon berechnet: Allein der Umstand, dass diese Menschen Macht haben, macht es sehr wahrscheinlich, dass sie über erhebliche moralische Flexibilität verfügen.

    [1]Im einzelnen Bilharziose, Leishmaniose (innere und Haut-; wird im Rahmen des Klimawandels auch in der BRD häufiger), Leptospirose (letzter großer Ausbruch in der …
  • Der Oliv-Index

    Filmszene: Revue-Bühne mit Tänzerinnen und Sänger in Uniform und Monokel

    Die Staudte-Verfilmung von Klaus Manns Untertan (DDR 1951) illustriert die militarisierte Gesellschaft durch eine Revuenummer, in der Frauen mit Pickelhauben zu uniformiertem Gesang von der „Elite der Nation“ halb tanzen, halb marschieren. Olivindex: 1. (Rechte bei… na ja, wer immer den DEFA-Kram halt gekauft hat.)

    Wer in den frühen 1990er Jahren Filme wie Der Untertan oder, etwas leichtherziger, den Hauptmann von Köpenick gesehen hat, wird die Verehrung des Militärischen, die dort gezeigt wurde, für eine unfassbare historische Verirrung gehalten haben, eine Art kollektive Psychose, lächerlich und zugleich gruselig, aber jedenfalls vom anderen Ende der Geschichte.

    Dann kam die Zeitenwende; nicht etwa jetzt, sondern im Laufe der 1990er, in denen sich die Bundeswehr zurückrobbte an diverse Plätze an der Sonne, angefangen mit Jagdbombern, die im Januar 1991 US-Jets in der Türkei ersetzten, damit diese für die Wiedereinsetzung des Emirs von Kuwait töten konnten. Es folgten die ersten Truppen außerhalb des NATO-Gebiets in Kambodscha im Mai 1992, wo im Oktober 1993 auch der erste Held anfiel (for the record: Alexander Arndt), dann mit AWACS-Flügen über Jugoslawien und so weiter und so fort. Langsam, aber bestimmt überschritt das Militär immer wieder zuvor sicher geglaubte Grenzen. Der große Zusammenbruch, oder wegen mir die Zeitenwende, kam aber erst ganz am Ende der 1990er Jahre: Militärminister Rühe hatte noch 1997 verkündet, nie wieder dürfe ein Stiefel eines deutschen Soldaten in Jugoslawien auftreten. 1999 griff die Bundeswehr Serbien an und marschierte im Kosovo ein, geschmackloserweise gerade unter Verweis auf die Verbrechen der deutschen Großväter (die damals ja noch in großer Zahl lebten).

    Nach diesem Tabubruch schlichen sich Reden von Helden, Tapferkeit und Vaterland in immer mehr Salons, kehrte der Glaube zurück, Militär an sich und schon gar deutsches Militär könne irgendwo und schon gar im Ausland Zustände verbessern. Mit der schon aus fünf Schritt Entfernung offensichtlich dystopischen Erzählung vom R2P wurde ab 2005 aus dem „Können“ allmählich ein „Müssen“ – also: dort, wo es bequem war und gegen die richtigen Feinde ging.

    „Rohrkrepierer“ ist eine Diagnose – von Sprache

    Die Militarisierung des Diskurses fand nicht nur nach außen statt. Eines der exteremen Beispiele: 2005 sollte die Bundeswehr für die Polizei Zivilflugzeuge abschießen dürfen – was das Verfassungsgericht 2006 zum Glück nochmal einfangen konnte (vgl. Luftsicherheitsgesetz in der Wikipedia). Dass der Corona-Krisenstab einen General als Vorsitzenden bekam, war kurzfristig ein neuer Höhepunkt der Preußen-Renaissance. Wieder half das Glück der Zivilgesellschaft, denn dieses Gremium stellte sich schnell als Rohrkrepierer (um mich auch kurz an Militärsprache zu versuchen) heraus.

    Nach dem Umschlagen der jüngsten Aufrüstungsrunde (das verlinkte PDF ist von 2019; der Kram ist also nicht neu) in einen weiteren Krieg hat eine giftige Mischung aus Patriotismus und Militarismus wenigstens vorläufig die… unbestrittene Lufthoheit. Zeitweise waren und sind Kommentare, die sich positiv auf deutsche Eingriffe in Kriege bezogen, in der Presseschau im Deutschlandfunk in der breiten Mehrheit, während in der Tagesschau oft kaum ein Beitrag ohne Olivgrün daherkommt.

    Ein Thermometer fürs Kriegsfieber

    Auch ein erklärter Feind von Metriken wie ich kann an dieser Stelle nicht widerstehen. Es braucht eine Zahl zur Charakterisierung des gesellschaftlichen Kriegsfiebers[1]. Nun, hier ist meine Zahl: Der Oliv-Index. Der von heute ist 0.55, wobei 0 „alles zivil oder unpatriotisch“ und 1 „der Kaiser schickt seine Soldaten aus“ bedeutet. Etwas weniger blumig ist der Oliv-Index ist das Verhältnis der Zahl der patriotisch-militaristischen Kommentarauszüge zu allen, die an einem Tag in der Morgen-Presseschau des DLF zitiert werden.

    Balken in verschiedenen Schattierungen von oliv

    Der Olivgrün-Index zwischen siebtem und 21. Mai: Je oliver, desto höher das patriotisch-militärische Fieber im Blätterwald der Republik.

    Nachtrag (2022-06-09)

    Ich führe den Olivindex tatsächlich fort, und für eine Weile ist die aktuelle Lage jeweils am Fuß der Blogseiten. Und, jeweils aktuell, solange ich das Elend auswerte, hier:

    Viel mehr Balken in verschiedenen Schattierungen von oliv

    Ich habe das in den vergangenen zwei Wochen ausprobiert, schon, um zu sehen wie viele Zweifelsfälle es geben würde. Tatsächlich war es beispielsweise nicht immer einfach, die Kommentare zur Entthronung von Gerhard Schröder korrekt einzuordnen: Was davon war allgemeine patriotische Empörung, was davon Empörung über Vaterlandsverrat im Krieg? Und – nicht, dass das für den Oliv-Index eine Rolle spielen würde: Was war Abwiegelung aus Staatsraison, was Abwiegelung aus kühlem Kopf? Die naheliegende Position „wenn ihr ihn wegen Kosovo und Hartz IV, wegen Afghanistan und Riesterrente, wegen BamS und lupenreinen Demokraten nicht abgesägt habt, müsst ihr es jetzt auch nicht mehr machen“ kam leider nicht vor.

    Dennoch sind Zweifelsfälle nach meinem ersten Eindruck nicht furchtbar dramatisch. Ich würde vermuten, dass andere Menschen meine Scores innerhalb von vielleicht 10% reproduzieren würden.

    Wer das probieren will, ist herzlich eingeladen. Dazu könnt ihr meine codes.txt inspizieren und sehen, ob ihr meine Einschätzungen teilt, solange die Presseschauen nicht depubliziert sind (was derzeit leider sehr schnell geht). In so einem Code steht von links nach rechts jedes Zeichen für einen Kommentarauszug, von oben nach unten gelesen. Ein o steht für einen oliven, also patriotisch-militaristischen Artikel, ein Punkt für einen anderen.

    Ihr könnt auch das Programm, das die Plots macht, ziehen: olivin. Da dürfte sich in der nächsten Zeit noch das eine oder andere ändern, denn, das gebe ich gleich mal zu, ich hoffe, am Schluss etwas Ähnliches zu produzieren wie die längst zu Popkultur gewordenen Climate Stripes von Ed Hawkins. Nur eben, ich bin ja Optimist, als Illustration einer vielleicht wieder allmählich sinkenden Begeisterung für Militär und Vaterland.

    Nachtrag (2023-06-17)

    Nach über einem Jahr mit der DLF-Presseschau hat mich jetzt die Lust verlassen; die letzte Presseschau, die ich verdaut habe, ist die vom 20.5.2023. Hier sind die military stripes von damals:

    Viel mehr Balken in verschiedenen Schattierungen von oliv

    Verschiedene braune Bänder lassen sich den Ereignissen der Zeit zuordnen; so entspricht das starke Feature rechts von 2023-01-16 der Großaufregung für die Lieferung von Kampfpanzern aus der Produktion der Rüstungsschmieden Krupp^W Krauss-Maffei-Wegmann und Rheinmetall an die Regierung der Ukraine; die darauf folgende weiße Beruhigung illustriert, dass der militärisch-patriotische Komplex durchaus auch mal für ein paar Tage zufrieden sein kann.

    Aber erstens war die militärisch-patriotische Begeisterung schon im letzten Sommer insgesamt überschaubar, und zweitens artet das alles in Arbeit aus. Wenn aber wer mal mit inzwischen über einem Jahr DLF-Presseschauen spielen will (ich könnte mir z.B. vorstellen, dass ein darauf nachtrainiertes LLM ausgesprochen bizarre Sachen sagen würde), möge sich bei mir rühren.

    [1]Nun ja: Für die Leute, die die Metriken definieren, sind sie ja schon nützlich, denn natürlich wird mensch die so definieren, dass sie den eigenen Interessen dienlich sind. Insofern bin ich natürlich kein Feind von Metriken, die ich definiere.
  • Wes Brot ich ess…

    Ein schrumpeliger Apfel

    Würdest du diesen Apfel in einem Supermarkt kaufen? Geht nicht mehr. Ich habe ihn vorhin gegessen. Also: Das, was Wurm und Balkonlagerung davon übrig gelassen haben. Auf der anderen Seite dürfte das Ding einen Behandlungsindex um die Null gehabt haben – siehe unten.

    Neulich hat die Parteistiftung der Grünen, die Böll-Stiftung, einen Pestizidatlas herausgegeben, eine Sammlung von Infografiken und Karten über den Einsatz von Giften aller Art in der Landwirtschaft. Wie üblich bei diesen Atlanten, haben sie das dankenswerterweise unter CC-BY publiziert, und besser noch: Die Sachen sind auch ohne Javascript leicht zugänglich[1].

    Ich hatte mir davon einige Kopfzahlen erhofft, denn ich habe wirklich kein gutes Gefühl dafür, was so an Giften auf den Feldern (und Weinbergen!) in meiner Umgebung landet und was das bedeutet. In der Hinsicht hatte ich kein Glück. Im Atlas gibts zwar haufenweise Zahlen, aber wirklich überzeugen konnten mich nur wenige, oft genug, weil sie letztlich Metriken ohne Bedeutung sind. Ein gutes Beispiel für diese Kategorie ist die Masse der Agrochemikalen (verwendet z.B. auf S. 11, S. 15, S. 44), die wohl als Proxy für „Umfang des Gifteinsatzes“ stehen soll.

    Das halte ich für profund fehlerhaft. Neonikotinoide, Glyphosat und DDT (um mal ein paar Pole aufzumachen) sind in spezifischer Giftigkeit, Wirkprofilen, Umweltauswirkungen, Kinetik und eigentlich jeder anderen Hinsicht fast völlig verschieden voneinander. „Eine Tonne Pestizid“ sagt daher so gut wie nichts aus. Obendrauf kommt noch ein kleiner Faktor Unsicherheit, ob sich die Masse auf Wirkstoffe, fertige Rezepturen oder irgendwas dazwischen bezieht, aber das wird wohl in diesem Geschäft kaum mehr als einen kleinen Faktor ausmachen – verglichen mit dem Grundproblem (in dem wir vermutlich über Faktoren von einigen tausend sprechen) wohl vernachlässigbar.

    Ähnlich schwerwiegende Einwände hätte ich zur breiten Mehrheit der Zahlen in dem Atlas: Vage beeindruckend, aber immer ein gutes Stück unterhalb der Schwelle von Wohlfundiertheit und allgemeinen Anwendbarkeit, die ein paar Ziffern zu einer Orientierung gebenden Kopfzahl machen könnten.

    Es gibt jedoch auch ohne schlagende Zahlen von werkübergreifender Bedeutung einige Einsichten, die wertvoll sind, so etwa auf S. 33 die Bankrotterklärung der Idee, durch grüne Gentechnik den Pestizideinsatz zu reduzieren. In Brasilien, wo transgene Pflanzen die Landwirschaft vollständig dominieren, sind 2019 47% mehr Pestizide ausgebracht worden als 2009. Gut: Soja (darauf schaut der Rest der Grafik, und das wird wohl auch den Pestizidverbrauch dominieren) ist in diesem Zusammenhang ein schlechtes Beispiel, denn das populäre transgene Soja („Roundup ready“) ist ja gerade designt, um große Mengen Herbizide zu überleben. Dazu sind wieder blind Massen angegeben, und die angesichts galloppierender Rodungen in Brasilien vermutlich rasch wachsende Anbaufläche wäre eigentlich auch noch einzurechnen, wenn die Zahlen einen analytischen Blick erlauben wollten.

    Aussagekräftiger wären für die behandelte Frage Zahlen für Mais gewesen (nämlich den mit der Bt-Abwehr gegen den Maiszünsler) und folglich auch Insektizide beim Mais. Aber seis drum: Die Grafik zeigt auch ohne methodische Strenge, dass es so nicht weiter gehen kann.

    A propos Mais: Dass der mit recht wenig Chemie auskommt, hat mich schon verblüfft:

    Mit "Schlechte Nachrichten für Apfel-Fans" überschriebene Grafik

    Grafik von Seite 14 des Pestizidatlasses. Die Caption im Atlas deutet an, dass der „Behandlungsindex“ etwas wie die mittlere Anzahl von Anwendungen von Pflanzenschutzmitteln ist; ob das wirklich so ist: Wer weiß? CC-BY Pestizidatlas

    Dass Wein heftig pflanzengeschützt wird, ist hier in der Gegend unübersehbar. Bei Hopfen und Äpfeln überrascht es mich aber, denn hiesige Apfelbäume in Streulagen, um die sich im Wesentlichen niemand kümmert, liefern durchaus sehr essbare Äpfel; hinreichend viele und große, um mir den ganzen Winter über die Basis für mein Frühstücksmüsli zu liefern (das Foto oben zeigt den von heute).

    Klar haben fast alle Hautdefekte, und in vielen wohnte auch mal ein Wurm – aber das tut ihrer Essbarkeit wirklich keinen Abbruch. Aus dieser Erfahrung heraus hätte ich erwartet, dass schon mit recht moderaten Interventionen supermarktkompatible Äpfel erreichbar wären. Das stimmt offenbar so nicht. Die letzten 50% zum makellosen Produkt – und wahrscheinlich auch die Spalierzucht in Monokultur – scheinen Äpfel von einer ganz einfachen zu einer ganz heikelen Kultur zu verwandeln.

    Meine Lieblingsgrafik ist schließich auf Seite 39:

    Eine Kopfzahl gibt auch das nicht her. Als Beleg für das alte Motto „Wes Brot ich ess, des Lied ich sing“ kann das aber durchaus durchgehen. Und als Illustration dafür, wie problematisch es ist, Wissenschaft – wie wir das in unserer Drittmittelkultur nun mal tun – über Geld zu regulieren.

    [1]Na ja, blöderweise ist ohne Javascript so ein doofes animiertes GIF neben jedem Ding, das runtergeladen werden kann. Tipp an die WebseitenmacherInnen: Wenn ihr diese Sorte Gimmick schon braucht, stattet ihn doch wenigstens mit einem display: none im CSS aus. Per Javascript könnt ihr das display-Attribut dann nach Bedarf konfigurieren. Nettoeffekt: UAs ohne JS (aber mit elementarem CSS) sehen keine blinkenden Trümmer.
  • Variable Inflation

    Relativ parallel verlaufende Kurven

    Dieser Artikel hat nach langen Windungen leider keine Pointe. Und zwar im Wesentlichen wegen dieser Grafik, generiert vom Rechner für die persönliche Inflationsrate des statistischen Bundesamts. Siehe unten.

    Ich fletsche hier ja regelmäßig die Zähne in Richtung von allerlei Metriken, also Zahlen, die (meist) Unmessbares messen sollen und damit in aller Regel Politiken rechtfertigen, die schlecht sind für die, bei denen diese ankommen.

    Der ganz große Klassiker im Metrik-Geschäft ist das Bruttosozial- oder -inlandsprodukt (BSP bzw. BIP), dessen Wachstum im allgemeinen Bewusstsein als Synonym für wachsenden Wohlstand gilt, zumal in seiner Form als BIP pro Kopf. In Wirklichkeit versucht die Metrik zu messen, wie viele „Waren und Dienstleistungen“ (womit es schon losgeht: was ist das?) „hergestellt“ (realistisch: verkauft) werden, und zwar von StaatsbürgerInnen (BSP) oder innerhalb der Staatsgrenzen (BIP).

    Das Bruttosozialprodukt und der Krieg

    Dass das BIP wesentlich mit Wohlstand korreliert sei, ist offensichtlich falsch – selbst die Produktion von Wohlstandsvernichtern wie Autos und anderen Waffen erhöht das BIP –, und das wurde auch schon breit kritisiert. Der entsprechende Abschnitt in der Wikipedia ist nach Maßstäben diese Genres eher zahm.

    Diese Klarstellung im Hinblick auf Wohlstand ist wichtig, aber etwas unfair, denn, a propos Waffen: Historisch sollte das BSP das mit dem Wohlstand gar nicht machen. Besonders aufschlussreich in der Hinsicht fand ich einen Artikel in der taz vom 2.5.2015, der daran erinnerte, dass sich das BSP in seiner heutigen Form vom Gottseibeiuns der Marktradikalen, John Maynard Keynes, in einem Artikel mit dem sprechenden Namen How to Pay for the War ersonnen wurde und sich letztlich als Metrik der wirtschaftlichen Kriegsfähigkeit durchgesetzt hat. Die taz-Autorin Ulrike Herrmann implizierte 2015, dass das BSP dafür offenbar taugte, denn es hat ja die Keynes-Seite gewonnen – mehr kann mensch von einer Metrik nicht erwarten.

    Ich selbst glaube zwar nicht, dass BSP-Rechnungen auf Seiten der Nazis irgendwas am Kriegsverlauf geändert hätten, aber für meinen nächsten Gedanken will ich trotzdem mal annehmen, das BSP sei im zweiten Weltkrieg eine kriegsnützliche Metrik gewesen. Von dort aus möchte ich behaupten, dass es unter Bedingungen weitgehender reproduktiver Selbstbestimmung allenfalls noch sehr kurzfristig für die Bewertung der Kriegsfähigkeit taugt. Solange sich nämlich in Kriegen immer noch in erster Linie junge Leute (statt, sagen wir, Roboter) erschießen, braucht es für deren Führung hinreichend Nachwuchs. Den immer noch dominierenden Modus der Reproduktion, unbezahlte Arbeit von Müttern an ihren Kindern, erfasst das BIP jedoch nicht.

    Als das Konzept entstand, war die Vorstellung klarerweise, dass Frauen ganz von selbst Kinder kriegen und aufziehen. Das stimmt nicht mehr, und daher wäre mein Rat an die BIP-MacherInnen: Wenn euer BIP weiter wie gehabt funktionieren soll, müsst ihr auch die Herstellung von Kindern verrechnen.

    Tatsächlich wäre es überhaupt kein Stilbruch, sowas irgendwie ins BIP reinzufummeln. Denn natürlich weiß niemand, wie viel wirklich verkauft oder gar hergestellt (denkt an all die handgestrickten Babysachen, von denen keine Statistikbehörde je erfahren wird) wird, und die Grenze zwischen Ware und Nicht-Ware ist ziemlich beliebig. Gewiss, das Steueraufkommen ist ein brauchbarer Indikator, aber mehr eben nicht. Viele Variablen liegen zwischen dem und irgendwelchen Gesamtproduktions- oder Einkommensziffern. Auch auf der legalen Seite der Demarkationslinie zur Schwarzarbeit passiert viel Austausch, ohne dass davon irgendwer etwas mitbekommt.

    Mit solchen Gedanken im Kopf habe ich vor einiger Zeit GDP: A Brief but Affectionate History von Diane Coyle (Princeton 2014; gibts bei der Imperial Library of Trantor) mit viel Interesse gelesen. Darin geht es zum Beispiel um die Beliebigkeiten in den BIP-Berechnungen (englisch Gross Domestic Product oder GDP) – der Klappentext erwähnt Ausschläge von 60% über Nacht für Ghana –, ebenso wie über die historischen Diskussionen, was alles zum „Volkseinkommen“ gehören soll: Kriegsausgaben? Staatsausgaben überhaupt? Gesundheitsausgaben? Oder in dem Bereich vielleicht nur Pillen, nicht aber die Arbeit von ÄrztInnen? „Dienstleistungen“ (was immer das ist) an sich, und wenn ja, wie bewertet?

    Dennoch: Kopfzahlen

    Die tatsächlichen Regeln für die Berechnung von BIP-artigen Metriken sind also im Gegensatz zur munteren Betrachtung in der Wikipedia in weiten Bereichen biegsam. Zwar mag eine genaue und ehrliche Zweckbestimmung helfen, die eben aufgeworfenen Fragen, sagen wir, intersubjektiv zu beantworten, aber letztlich ist das Konvention, und selbst für das BIP in der Keynes-Definition ist da viel zu vereinbaren. Die international offenbar populärste Konvention stellt Coyle vor, namentlich das System of National Accounts, das sich in den vergangenen siebzig Jahren von fünfzig auf 722 Seiten aufgebläht hat.

    Das allerdings schafft schon wieder Beliebigkeit. Aus meiner Erfahrung mit 50-seitigen Standards, für die nach einer Weile Validator-Programme verfügbar wurden (und zeigten, dass notdürftig funktionsfähig aussehende Dienste voll mit Fehlern waren), kann ich zuversichtlich sagen: Solange es keinen rechnergestützten Validator gibt (und das ist hier bis zur Erfindung starker KI eigentlich undenkbar), sind 722 Seiten voll Regeln so gut wie überhaupt keine Regeln: Das System ist fast sicher in sich höchst widersprüchlich, und auch mit dem besten Willen (der nur bei wenigen Statistikbehörden und Ministerien vorausgesetzt werden darf) werden Menschen ständig Fehler machen.

    Wie auch immer: Als Kopfzahl ist es ja vielleicht trotzdem ganz nützlich zu wissen, dass das BIP der BRD laut IWF 2019 knapp 4 Billionen Dollar betrug, das der USA etwas über 20 Billionen Dollar und das eines ordentlichen und großen Trikontstaats wie z.B. Nigeria 500 Milliarden Dollar. Sicher sind diese verschiedenen Dollars nicht annähernd vergleichbar, aber die Zahlen taugen doch für schnelle Überschlagsrechnungen, wenn verkündet wird, der Börsenwert von Apple sei jetzt, was, zwei Billionen Dollar (etwa: die AktionärInnen von Apple könnten für ein halbes Jahr die BRD leerkaufen und Nigeria für vier Jahre), oder wenn die Frage ist, wie viel der Bund mit einem Bundeshaushalt von (außerhalb von Corona) 350 Milliarden Euro an „den Märkten“ reißen kann – natürlich immer mit der Maßgabe, dass über Messfehler, Umrechnungen, Inflationsanpassung und so fort da schnell ein Faktor zwei dabei ist.

    Persönliche Inflation

    Der größte Unsicherheitsfaktor innerhalb der Serie einer Behörde wird wahrscheinlich die Inflationsanpassung sein, angefangen dabei, ob sie vorgenommen wurde oder nicht. Erstens ist sie ein exponentieller Effekt. Nehmen wir mal an, dass die Inflationsrate im Schnitt bei den 2% pro Jahr liegt, die diverse Zentralbanken gerne hätten, und dass sie tatsächlich ein Maß ist, wie viel mensch so kaufen kann. Nach der Königsformel „Verdoppelungszeit ist 75 Zeiteinheiten[1] durch prozentuale Rate“, liegen inflationsbereinigte und rohe BIPs schon nach 37 Jahren um einen Faktor zwei auseinander.

    Nun liefert aber auch eine Bereinigung um Inflation und Währungseffekte kaum Zahlen, die mit Erfahrungen von Konsummöglichkeiten korrelieren. Seht etwa die nach PPP bereinigten historischen Vergleichswerte zum BIP an: Es ist abwegig, dass sich irgendeine Sorte von „gefühltem“ Konsum für der BRD zwischen 1990 und 2019 von 1437 auf 4672 Milliarden Äquivalent-Euro verdreifacht haben soll. Wer damals schon gelebt hat, wird sich erinnern, dass sich – abgesehen davon, dass es noch keine SUVs und nur wenig Mobiltelefone gab – das allgemeine Konsumniveau hier im Land nicht wesentlich geändert hat.

    Zweitens also ist die Inflation selbst eine wacklige Größe, womit ich endlich zum Link komme, der mich zur vorliegenden Diatribe inspiriert hat, weil ich ihn verkopfzahlen wollte: Labournet berichtet, dass rund die Hälfte der 8.4 Millionen MieterInnen in deutschen Großstädten mehr als 30% ihres Einkommens für Miete augeben müssen. Das fand ich schon für sich relevant, ich wollte aber vor allem den Punkt machen, dass solche Leute bei explodierenden Mietpreisen eine weit höhere Inflation haben werden als Menschen, die keine Miete zahlen müssen.

    Da VermieterInnen in der Regel eher reich und MieterInnen in der Regel eher arm sind, bedeuten Mieten, die stärker steigen als die Inflation, eine Art kalte Umverteilung von unten nach oben bei gegebenem BIP (ob pro Kopf oder anders). Die Inflationsschätzung basiert ja auf einem Warenkorb, den das statistische Bundesamt (Destatis) zusammenstellt, und wenn Leute viel mehr für Miete ausgeben als im Warenkorb repräsentiert und die Mieten viel stärker steigen als die Preise im Rest des Warenkorbs, ist ihre „persönliche Inflation“ viel höher als die Zahl aus den Nachrichten. Die BIP-pro-Kopf-Metrik nicht nur wegen ungleicher Einkommensverteilung zweifelhaft, sondern auch, weil sie obendrauf noch eine innere Kaufkraftkorrektur bräuchte.

    Das hatte ich nun auf der Basis der rasant steigenden Mieten illustrieren wollen und habe auf den Seiten des Statistischen Bundesamts herumgestöbert, um mein Gefühl zu erhärten, dass Mieten weit über der Inflation steigen. Das Gefühl hat seine Grundlage in meinem persönlichen WG-Zimmer-Index für Heidelberg. Ausweislich durchschnittlicher Aushänge würde ich für 1990 den mittleren Kurs etwa bei 150 Euro sehen, inzwischen eher bei 500 Euro (unter Annahme der DM-Euro-Konversion von 2001). Die Mieten hätten sich also in dreißig Jahren also gut verdreifacht, was einer Verdopplungszeit von 18 Jahren oder einer jährlichen Inflation von 75/18, also 4% entspricht; die berichtete Inflation lag in der Zeit von kurzen Phasen abgesehen jedoch deutlich unter 2 Prozent.

    Nun, es stellt sich raus: Das Konzept der je nach sozialer Schicht verschiedenen Inflationsrate illustriert das Amt selbst recht schön und bietet sogar einen Rechner für die persönliche Inflationsrate an – Kompliment an dieser Stelle dafür, dass da ein SVG-Download angeboten wird (wie überhaupt die Webseite den Eindruck hinterlässt, dass hier Leuten mit Verstand und Spaß bei der Sache relativ freie Hand gelassen …

  • Ach, Bahn, Teil 2: Maustracking ist Quatsch

    Screenshot: Blockiertes Javascript auf bahn.de

    F12 in den üblichen Browsern führt auf verschiedene Sorten von „Web-Inspektoren“. In deren „Network“-Tabs könnt ihr die Flügel'sche Metrik bestimmen: Wie viele Dateien von wie vielen Hosts zieht so eine Seite? Die Bahn-Seite schneidet dabei nicht gut ab, nicht zuletzt aufgrund des nutzerInnenfeindlichen Javascripts, das der Screenshot zeigt.

    Wieder mal habe ich auf bahn.de eine Fahrkarte gekauft, und wieder hakte es an vielen Ecken. Immer noch hat der Server darauf bestanden, ich sei eingeloggt (und hat mir nicht die Möglichkeit gegeben, mich einzuloggen), hat mir aber nicht meine Buchungs-Voreinstellungen („eine Person mit Bahncard 50“) angeboten, hat wieder ganze Seiten mit je nur einer einzelnen Frage ausgeliefert, hat kaputte Zahlungsoptionen angeboten, quittierte einen Browser-Reload mit hartem Ausloggen („fang einfach nochmal an“) und verlangte von mir ein Login beim Kartenkauf, obwohl es mich ja die ganze Zeit schon als eingeloggt geführt hat. Immerhin – niemand soll sagen, ich würde nur motzen – war das Captcha vom letzten Herbst endlich weg (eine Reaktion auf meine diesbezüglichen Mails aus dem Herbst-Blogpost habe ich natürlich nie bekommen).

    Jedenfalls reichen eigentlich ein, zwei Transaktionen auf bahn.de locker, um einige (modulo Ökonomie) leicht zu behebende Usability-Schwächen zu finden. Aber gut: Gerade bei Webseiten bin ich ja schon froh, wenn sie wenigestens ihre Quirks behalten und nicht alle paar Wochen wieder was anders (zumeist: anders kaputt) ist. Ich erwähne das alles überhaupt nur, weil bahn.de in meinem Browser mal wieder so hakelig war, dass ich nachgesehen habe, wessen Javascript mir die Bahn neben ihrem eigenen (das dürfen sie ausführen) noch andrehen will. Unter den geblockten Quellen befand sich ein Laden namens m-pathy.com. Dessen Homepage (kleines Lob am Rande: das geht, ohne Code von m-pathy.com auf der lokalen Maschine laufen zu lassen) radebrecht mit Deppen-Leerzeichen:

    m-pathy UX Insight G4 macht sichtbar, was Ihre Kunden erleben.

    Unsere Analyse Lösung ermöglicht die Auswertung tausender feingranularer Interaktionsdaten aus Mausspuren, Touch-Gesten, Klicks und Formularinteraktionen.

    Das Ergebnis sind belegbare und priorisierbare Handlungsempfehlungen für die Optimierung Ihrer klassischen oder mobilen Webseite.

    Also: Die Bahn sammelt und verarbeitet Daten über meine Mausbewegungen (na ja, natürlich nicht über meine, weil das Javascript dieser Leute bei mir nicht läuft, aber von fast allen anderen ihrer KundInnen), um so zu tun, als würde sie ihre Webseite „optimieren“.

    Da die Usability der Webseite zumindest in meinem „Erleben“ spürbar abgenommen hat – vor allem wohl wegen der Förderung von „Partnerangeboten“ und anderen Marktingkrams, aber seis drum –, würde ich schließen, dass „m-pathy UX Insight G4“ schlicht nicht funktioniert. Ok: Kann sein, dass die hautnahe Bespitzelung der NutzerInnen durch die Bahn funktioniert und sich eben nur niemand um „belegbare und priorisierbare Handlungsempfehlungen“ kümmert. Dann könnte die Bespitzelung aber auch unterbleiben, oder? Oder sind die Zwecke der Bahn ganz andere als die bei m-pathy angegebenen? Allein, mir würden da nicht viele einfallen. Was bitte soll aus meinen Mausbewegungen über der Bahn-Webseite für die Bahn schon folgen?

    Einfach mal offen (also: ohne Fragebogen) mit 10 oder 50 NutzerInnen der Webseite reden und ihnen zuhören wäre ganz klar gigantisch viel datensparsamer und, so bin ich sicher, auch erheblich wirksamer, wenn die Bahn die Seite wirklich verbessern wollte.

    Liebe Bahn, darf ich euch noch einen Neujahrsvorsatz vorschlagen? Es wäre: Buchen ohne Javascript, vielleicht sogar mit einem lokalen, Debian-paketierbaren Programm, das auf einer wohldokumentierten API aufsetzt.

  • Optimierte Inzidenz

    Mortalitätspunkte und eine Fit-Gerade in einem Logplot

    Abbildung 3 aus dem Paper von Levine et al, auf das ich unten ein wenig eingehe: das Risiko, an SARS-2 zu sterben, geht ziemlich genau exponentiell mit dem Alter (die Ordinate ist logarithmisch aufgeteilt). Diese Beobachtung führt ziemlich direkt zu einem Kult-Paper aus den wilden Jahres des Internet. CC-BY doi:10.1007/s10654-020-00698-1.

    Als das WWW noch jung war und das Internet jedenfalls nicht alt, im Dezember 1999 nämlich, haben Chris Gottbrath, Jeremy Bailin, Casey Meakin, Todd Thompson und J.J. Charfman vom Steward Observatory das bemerkenswerte Paper „The Effects of Moore's Law and Slacking on Large Computations“ auf astro-ph, der Astrophyik-Abteilung des Preprint-Servers arXiv, veröffentlicht. Obwohl das damals nach meiner Erinnerung hohe Wellen geschlagen hat (selbst slashdot, damals eine der wichtigsten Seiten im Netz, berichtete), haben sie es bis heute zu keiner Fachzeitschrift eingereicht. Keine Ahnung, warum nicht, denn ihr Punkt ist trotz ihres eher leichtfüßigen Stils[1] völlig korrekt und jedenfalls nicht ganz offensichtlich.

    Gottbrath und Freunde sagen nämlich, dass, wer eine riesige Rechenaufgabe und ein festes Budget hat, durch Warten schneller fertig werden kann. Das liegt daran, dass mensch nach 18 Monaten (das ist die konventionelle Zeitskala für Moore's Law) fürs gleiche Geld einen Rechner mit doppelt so vielen Transistoren kaufen kann und der wird mit etwas Glück doppelt so schnell sein wie der, den mensch heute kaufen würde. Sie berechnen auch, wie groß eine Rechnung sein muss, damit sich das Warten lohnt: mit dem 18-Monate-Gesetz ist die Grenze bei Aufgaben, die 26 Monate rechnen würden.

    Weil das Paper damals in meiner Blase intensiv herumgereicht worden ist, finde ich überraschend, dass es laut ADS nur sechs Mal zitiert (wenn auch von einer illustren Auswahl von Papern) worden ist und bei den üblichen Suchmaschinen bei Anfragen wie „Moore's Law optimal waiting“ nicht in Sicht kommt.

    Transistoren vs. SARS-2

    Gesucht hatte ich es wiederum, weil ich ja schon länger mit Niedriginzidenzsstrategien hadere. Ganz unabhängig davon, ob wir als Gesellschaft hohe Inzidenzen ohne Schrammen überstehen, dürfte inzwischen niemand mehr ernsthaft bestreiten, dass „am Ende“ alle SARS-2 gehabt haben werden – die Frage ist nur, wann („werden wir im Herbst 2022 wieder einen Lockdown brauchen?“) und auch, wie viele Menschen bis dahin wegen SARS-2 schwer krank geworden oder gar gestorben sein werden.

    An diesem Punkt ist mir das 1999er-Paper eingefallen, denn wir haben bei SARS-2 etwas ganz ähnliches wie Moore's Gesetz: Die Sterblichkeit nach einer Erstinfektion steigt exponentiell mit dem Alter. Das haben im September 2020 (also einige Monate, bevor Impfungen gegen SARS-2 epidemiologisch relevant wurden) Andrew Levin und Kollegen in ihrem Artikel „Assessing the age specificity of infection fatality rates for COVID-19: systematic review, meta-analysis, and public policy implications“ (doi:10.1007/s10654-020-00698-1) recht sorgfältig und beeindruckend gezeigt. Die Abbildung am oben im Post ist aus dieser Arbeit.

    Da hier das Risiko und nicht die Leistung zunimmt, ist jetzt allerdings die Frage nicht, ob mensch lieber etwas warten soll. Nein, je älter Leute werden, desto größer ist ihr Risiko, eine SARS-2-Infektion nicht zu überleben, und dieses Risiko wächst ziemlich steil. Der Gedanke, die Gesamtopferzahl könnte sinken, wenn sich Menschen anstecken, solange sie noch jünger sind und sie also die Infektion mit höherer Wahrscheinlichkeit überleben, liegt also nicht fern. Die zur Prüfung des Gedankens notwendige Mathematik läuft im Wesentlichen analog zu den Überlegungen von Gottbrath und Freunden.

    Ethisch ist es natürlich nicht analog, aber ich wollte dennoch wissen, wie viel das eigentlich ausmachen könnte. Deshalb habe ich mir folgendes Modell ausgedacht:

    1. Die Infection Fatality Rate, also die Wahrscheinlichkeit, an einer (erkannten oder unerkannten) SARS-2-Infektion zu sterben, ist inspiriert von der Abbildung oben

      IFR = exp((t − A1) ⁄ λ) ⁄ 100.

      Dabei ist t das Alter der erkrankten Person, A1 das Alter, in dem 1% der Infizierten versterben (das pro-cent ist auch der Grund für die Division durch Hundert), und λ so etwas wie die Steigung; nennt mensch das Alter, in dem die Todesrate auf 10% gestiegen ist, A10, so lässt sich leicht

      λ = (A10 − A1) ⁄ ln(10)

      ausrechnen.

    2. Eine ultrakompetente Regierung (oder Schwarmintelligenz auf Brillianzniveau cosmic) kriegt es hin, die Inzidenz konstant über viele Jahre auf i zu halten. In meiner Simulation bleibe bei der Interpretation als Wocheninzidenz und simuliere die Infektion von Woche zu Woche. Gegenüber den Inzidenzen in der realen Welt gibt es bei mir außerdem keine Dunkelziffer.

    3. Wer nicht an SARS-2 stribt, stirbt nach Gompertz (cf. Mortalität in der Wikpedia), es stirbt also jedes Jahr ein Anteil („General Fatality Rate”)

      GFR = S30⋅exp(G⋅(t − 30  a)).

      der t-jährigen. Dabei ist S30 die Sterberate für 30-jährige, die ich aus dem Wikipedia-Artikel als ungefähr 40/100000 pro Jahr ablese, und G der Gompertz-Sterbekoeffizient – ich bin nicht sicher, ob ich so eine Größe eigentlich nach mir benannt haben wollte -, den die Wikipedia als 0.08 ⁄  a gibt. Etwas jenseits von Gompertz lasse ich jede Woche 1/52 der fürs jeweilige Wochen-Alter berechneten Menschen sterben; das macht vor allem die Kurven von SARS-2-Opfern über der Zeit glatter.

    4. Wer eine SARS-2-Infektion überlebt hat, stirbt nicht mehr an SARS-2. Das ist sicher eine unrealistische Annahme, aber sie macht das Modell auch deutlich klarer.

    Bliebe noch die Schätzung der Parameter aus der Formel für die IFR. Aus der Abbildung am Artikelanfang lese ich per Auge A1 = 65  a und A10 = 83  a ab (wer von den a irritiert ist: das ist die Einheit, nämlich das Jahr).

    Hier liegt die zweite wesentliche Schwäche meines Modells: Nachdem inzwischen in den dabei mitspielenden Altersgruppen wirklich eine überwältigende Mehrheit geimpft ist, werden diese Zahlen heute garantiert anders aussehen als in der ersten Jahreshälfte 2020, als die Studien gemacht wurden, die Levine et al ausgewertet haben. Andererseits legen die immer noch recht erheblichen Sterbefallzahlen nahe, dass sich die Kurve wohl nur ein wenig nach rechts verschoben haben wird; ich komme gleich nochmal darauf zurück.

    Der Berg des Todes

    Habe ich dieses Modell, kann ich einer Gruppe von Menschen folgen, bis sich (fast) niemand mehr infizieren kann, weil alle entweder tot oder in meinem Sinne immun sind. Ohne es probiert zu haben, glaube ich, dass das Modell einfach genug ist, um es in eine geschlossen lösbare Differentialgleichung umschreiben zu können. Aber wer will denken, wenn es doch Computer gibt?

    Und so habe ich die Modellannahmen von oben einfach in ein paar Zeilen Python gepackt und folge dem Schicksal einer Kohorte von 100000 70-jährigen, bis alle tot oder genesen sind. Und das mache ich für einen Satz von Inzidenzen zwischen 20 und 2000. für Das Ergebnis:

    Eine Kurve mit einem deutlichen Maximum um die 100

    Ich gebe zu, dass ich mit dieser Kurvenform nicht gerechnet hatte. Dass ganz niedrige Inzidenzen die Todeszahlen drücken, ist zwar zunächst klar, denn bei, sagen wir, 20/100000/Woche würde es 100000 ⁄ 20 = 5000 Wochen oder fast 100 Jahre dauern, bis alle mal das Virus hätten haben können, und in der Zeit sind 70-jährige natürlich anderweitig gestorben.

    Das hohe und recht steile Maximum um die 100 herum hatte ich so aber nicht erwartet. Zu ihm tragen vor allem Leute bei, die erst nach einigen Jahren – und dann deutlich gebrechlicher – mit SARS-2 in Kontakt kommen. Bei einer 100er-Inzidenz sieht die Wochensterblichkeit über der Zeit (in Wochen) so aus (cf. make_hist_fig im Skript):

    Kurve mit einem Maximum zwischen 1000 und 1700 Wochen

    Diese Kurve wäre ziemlich zackig, wenn ich strikt nach Gompertz-Formel nur ein Mal im Jahr natürliche Tode hätte, statt die diese geeignet auf die Wochen zu verteilen.

    Die Menschen, die am Anfang der Pandemie 70 sind, sterben in diesem Modell also typischerweise nach 1000 Wochen oder fast 20 Jahren, wenn sie ihn ihren 90ern wären. Das mag etwas fantastisch klingen. Jedoch: Das RKI hat früher immer dienstags die Demographie der Verstorbenen veröffentlicht (z.B. Bericht vom 30.3.2021, siehe S. 12), und tatsächlich sind 20% der Coronatoten in der Altersgruppe 90-99.

    Aber klar: Das ist hypothetisch. Niemand kann die Inzidenzen konstant auf 100 halten, und niemand wird das vernünftigerweise wollen. Vor allem aber mag die Impfung die IFR-Kurve durchaus so weit nach rechts verschieben, dass der Sterblichkeitspeak, der hier noch bei 90-jährigen sitzt, jenseits der 100 rutscht, und dann betrifft das, bei heutigen Lebenswerwartungen, praktisch niemanden mehr.

    Zynische Metriken

    Als Gedankenexperiment jedoch finde ich das Ganze schon bemerkenswert: Wenn wir eine 1000er-Inzidenz aushalten können, würden wir nach diesem, eingestandenermaßen idealisierten, Modell 7% der 70-jährigen den Tod durch SARS-2 ersparen.

    Ein so starker Effekt muss eigentlich schon aufgefallen sein. Wenn das kein Fehler auf meiner Seite ist: steht das schon irgendwo in der epidemiologischen Literatur?

    Allerdings ist die, ach ja, Metrik „Wie viele Leute sterben an SARS-2?“ auch ziemlich nichtssagend. Weit üblicher zur Einschätzung der Frage, wie viel Geld (oder Nerven) mensch für Interventionen gegen Krankheiten ausgeben mag, sind die YLL, Years of Life Lost (cf. nochmal DALY in der Wikipedia). Diese Metrik ist zwar – ganz wie meine Rechnung hier – ein wenig zynisch, aber doch nachvollziebar genug, dass ich mir aus meinem Modell auch nochmal die Gesamtlebensjahre habe ausspucken lassen, die meine 100000er-Kohorte in den Läufen mit den verschiedenen Inzidenzen …

  • Trifft die Menschen hart

    Viele Kurven mit Lebenserwartungen

    Die SARS-2-Pandemie ist historisch: relative Änderungen der Lebenserwartungen nach Jahren für Männer, soweit doi:10.1016/S2214-109X(21)00386-7 brauchbare Daten hatte. In Blau ist die Veränderung 2020 (also vor allem durch SARS-2) markiert. Es lohnt sich, die Abbildung detailliert in einem eigenen Browserfenster anzusehen: Von den demographischen Folgen des Zusammenbruchs der alten Ordnung in vielen Ex-Ostblockstaaten über die Spanische Grippe und die verschiedenen Kriege bis hin zum Rauschen der kleinen Zahlen in Island ist viel zu entdecken. CC-BY Aburto et al.

    In den Informationen am Morgen im Deutschlandfunk hat der Moderator Rainer Brandes heute berichtet, dass die deutsche Regierung nun Einreisesperren für Menschen aus dem südlichen Afrika verhängt hat und fuhr fort mit dem Satz: „Das trifft die Menschen dort natürlich hart“.

    Wenn das ein Versuch von Empathie war, ist der ziemlich misslungen. Einerseits, weil „die Menschen“ in der Region im Schnitt sicher nicht gerade jetzt (es ist eiskalt!) dringend in die BRD wollen. Tatsächlich wäre ich überrascht, wenn das Land als Reise- oder Fluchtdestination überhaupt schon in vielen Köpfen aufgetaucht wäre, schon aus Sprachgründen.

    Weiter geht aus der Übersicht zur Visumspflicht des Auswärtigen Amts hervor, dass die BewohnerInnen aller Staaten des südlichen Afrikas (Südafrika/Azania, Eswatini, Lesotho, Simbabwe, Botsuana, Angola, Mosambik und sogar die unseres alten Schlachtfeldes Namibia) ohne Visum nicht reinkommen. Wie groß sind wohl die Chancen eines Durchschnittsmenschen aus, sagen wir, Namibia ohne bereits bestehende Kontakte hierher, so ein Visum zu bekommen?

    Der wirklich wesentliche Punkt in Sachen Empathie ist aber: Für fast die gesamte EinwohnerInnenschaft des südlichen Afrika stellt sich die Visafrage nicht, und auch nicht die coronabedingter Reisebeschränkungen: Die Leute sind schlicht zu arm, und bevor sie darüber nachdenken, wo sie nächste Woche hinfliegen könnten[1], müssen sie erstmal klarkriegen, was sie morgen zu beißen haben.

    Angesichts der oft wirklich schreienden Armut in der weiteren Region (und auch unserer eigenen Visapolitiken) ausgerechnet die coronabedinge Einreisesperre in die BRD als „hart“ zu bezeichnen – nun, das ist entweder verwegen oder ignorant.

    Etwas Ähnliches ist mir neulich beim Hören eines Interviews mit Arne Kroidl vom Tropeninstitut der GSU LMU München zu einer Corona-Seroprävalenzstudie in Äthiopien durch den Kopf gegangen. Hintergrund ist das Paper doi:10.1016/S2214-109X(21)00386-7, in dem berichtet wird, dass es zwischen August 2020 und und Februar 2021 im eher ländlich geprägten Jimma Inzidenzen im Bereich von im Schnitt 1600/100000/Woche gegeben haben muss, in Addis Abeba sogar über 4500; was das für Inzidenzen während der tatsächlichen Ausbrüche bedeutet, ist unschwer vorstellbar.

    Das ist dort offenbar nicht besonders aufgefallen, es hat ein Forschungsprojekt gebraucht, um es zu merken. In einer im Wesentlichen völlig ungeimpften Bevölkerung.

    Das ist kein Argument dafür, dass SARS-2 doch harmlos ist. Es ist ein Symptom der Nonchalance, mit der „wir“ Verhältnisse hinnehmen, in denen Menschen an einem Fleck recht normal finden, was woanders (zu recht) als wirklich ganz schlimme Gesundheitskrise empfunden würde. Bei aller Reserviertheit gegenüber Metriken und Zweifeln am Meldewesen: Laut CIA World Factbook ist die Lebenserwartung in Äthiopien 68 Jahre. Die Vergleichszahl für die BRD sind 81 Jahre.

    Aburto et al, doi:10.1093/ije/dyab207, schätzen, dass Corona, wo es wirklich schlimm durchgelaufen ist (Spanien, Belgien), etwa anderthalb Jahre Lebenserwartung gekostet hat (in der BRD: ca. 6 Monate). Wie viel schlimmer das ohne Lockdown geworden wäre, ist natürlich Spekulation, aber da es gerade die besonders verwundbaren Bevölkerungsgruppen ohnehin besonders schlimm erwischt hat, dürfte ein Faktor fünf zwischen dem realen Verlauf und dem schlimmsten Szenario eine sehr plausible Obergrenze geben, oder etwa eine um acht Jahre reduzierte Lebenserwartung. Auch damit wäre die BRD immer noch fünf Jahre über den offiziösen Zehlen in Äthiopien.

    Was in dieser Metrik[2] hier im Land ein unvorstellbares Gemetzel ist (denn fünf Mal Belgien wäre hier bundesweit Bergamo), ist dort Normalzustand, und zwar zu guten Stücken aus völlig vermeidbaren Gründen, wie beispielsweise unserer Völlerei; vgl. dazu How food and water are driving a 21st-century African land grab aus dem Guardian von 2010. Oder den IWF-Strukturanpassungsmaßnahmen, die, wo immer sie zuschlugen, das öffentliche Gesundheitswesen ruinierten und die Menschen Evangelikalen und anderen Hexendoktoren in die Arme trieben. Am Beispiel Peru illustriert zwangen „wir“ mit unseren marktradikalen Zivilreligion zwischen 1981 und 1990 die dortige Regierung zur Senkung der Gesundheitsausgaben um 75%.

    Verglichen mit solchen Totalabrissen sind unsere Gesundheitsreformen kaum mehr als das Niederlegen einer Hälfte der Doppelgarage vor der Villa. Dass „wir“ bei sowas dezent in die andere Richtung schauen, das ist ein noch größeres Empathieversagen als das vom Anfang dieses Posts.

    Nachtrag (2022-03-28)

    Der Hintergrund Politik vom 11. März wirft weitere Blicke auf die SARS-2-Situation in Afrika. In der Sendung berichtet Kondwani Jambo beispielsweise, dass BlutspenderInnen in Malawi im Februar 2022 bereits zu 80% SARS-2-positiv waren; auch in einem Land mit einem – laut Angaben der Sendung – Durchschnittsalter von knapp 18 hätte eine derart hohe Welle eigentlich stark auffallen müssen. Die Vermutung, Kreuzimmunitäten mit lokal verbreiteten anderen Coronavieren könnten geholfen haben, findet Jambo nicht bestätigt. Seine in der Sendung unverbindlich angebotene Erklärung über „schnellere“ Monozyten in Malawi gegenüber einer britischen Vergleichsgruppe finde ich allerdings spontan auch nicht allzu überzeugend.

    [1]Wie der BUND nicht ganz unplausibel behauptet: 90 Prozent der Weltbevölkerung haben noch nie ein Flugzeug von innen gesehen.
    [2]Wie immer sollte die Metrik nicht überbewertet werden; metriktheoretisch lesenswert ist in diesem Zusammenhang das Methoden-Kapitel der Aburto-Arbeit. Mensch sollte insbesondere klar haben, dass sich ein Tod weniger junger Menschen in der Lebenserwartung bei Geburt nicht von einem Tod vieler alter Menschen (wie bei SARS-2, wo der Verlust von Lebenserwartung bei Männern bei Aburto et al fast überall durch Tode in der Altersgruppe 60-79 dominiert ist) unterscheiden lässt. Mensch muss nicht Boris Palmer sein, um zwischen diesen Situationen unterscheiden zu wollen. Aber schon meine Erfahrungen mit Notaufnahmen in den USA (näher bin ich, eingestandenermaßen, Krankenhäusern im globalen Süden nie gekommen) sagen mir, dass die Lebenserwartungs-Zahlen eben doch oft sehr konkrete Not beim Zugang zu medizinischer Versorgung spiegeln.
  • Wieder falsch vorhergesagt

    Also gut. Ich sehe es ein. Und gebe es auf. Vor neun Tagen hatte ich vorhergesagt, heute müssten so in etwa 4700 Intensivbetten mit SARS-2-PatientInnen belegt sein. In Wahrheit liegt die DIVI-Zahl im RKI-Bericht von heute bei 3987, also gut 15% darunter. Das wäre bei meinen sonstigen Handwerks-Abschätzungen kein Drama. Hier aber sagt es klar: Meine Methode taugt (erstmal) nicht (mehr).

    Hintergrund war mein Artikel von vor 18 Tagen, in dem ich (für Verhältnisse dieses Blogs sorgfältig) die Verzögerung zwischen steigenden Inzidenzen und in der Folge steigender Intensivbelegung abgeschätzt habe. Das Ergebnis für die vierte Welle waren neun Tage. Doch schon die daraus folgende Abschätzung der Intensivbelegung vor neun Tagen lag weit daneben.

    Und nun liege ich eine weitere Verzögerungsperiode später wieder falsch. Das ist also ganz offenbar alles Quatsch. Während ich mich bei der letzten falschen Vorhersage noch mit einer Fehlanwendung des heuristischen Modells herausreden konnte, ist das bei zwei falschen Vorhersagen nicht mehr drin. Nein. Die Prämisse ist falsch. Die Instensivbelegung folgt nicht mehr, wie noch in den zweiten und dritten Wellen, ganz brauchbar der Inzidenz. Die beiden Kurven haben sich inzwischen sehr deutlich entkoppelt:

    Graph: Entkoppelte Entwicklungen

    Meldezahlen des RKI vs. DIVI-Zahlen (Quellen vgl. Halbwegs gute Nachrichten). Auf der Zeitachse Sekunden seit 1.1.2020; 5⋅107 entspricht dabei dem 1.8.2021. Die Intensivbelegung ist um neun Tage nach vorne gezogen, um den wahrscheinlichsten Verzug auszugleichen und die Kurven übereinanderzubringen. Die y-Achse ist wie immer bei solchen Wachstumsplots von mir logarithmisch (also: exponentielles Wachstum ist eine Gerade). Die Skalierung der Intensivbelegung ist frei Auge, aber egal, wie mensch das macht: die Kurven passen nicht übereinander.

    Ganz offensichtlich reagiert die Intensivbelegung „weicher“ als die Inzidenz, und zwar nicht nur, wie aufgrund längerer Liegezeiten zu erwarten, nach unten, sondern auch nach oben. Es ist eben derzeit nicht so, dass aus einer gegebenen Zahl von Infizierten eine leicht vorhersehbare Zahl von IntensivpatientInnen wird. Daher ist vorläufig jede Vorhersage, die von einem konstanten Verhältnis von Intensivbelegung zu Inzidenz ausgeht, eine schlechte und ziemlich sicher falsche Vorhersage.

    Das richtige Vorgehen wäre jetzt, nachzusehen, was eigentlich diese Annahme kaputt macht (wobei: wie ich im September herausgefunden habe, war sie so ganz richtig ohnehin nie). Leider gibt es eine große Zahl möglicher Gründe, allen voran ist das natürlich die Demographie. Solange sie nicht ihre Eltern und Großeltern anstecken, können sich sehr viele Kinder mit SARS-2 infizieren, bevor das irgendwo in Intensivstatistiken sichtbar wird, während umgekehrt ein einziger Ausbruch in einem Pflegeheim mit gebrechlichen Menschen einige dutzend Intensivbetten belegen mag, was auch bundesweit schon eine Veränderung im einstelligen Prozentbereich ausmachen würde.

    Dazu kommen dann regional und nach Altersgruppen recht deutlich schwankende Impfquoten: Rasant steigende Inzidenzen in Bremen mit einer relativ stark durchimpften Bevölkerung geben ziemlich sicher ein deutlich schwächeres Signal auf Intensiv als eine rollende Welle in Sachsen, wo immer noch viele Menschen im mittleren Altersbereich ungeimpft sind und damit weit eher langwierige und kritische Verläufe nehmen werden

    Nachtrag (2021-11-25)

    Zum Thema Sachsen ist in der taz vom 25.11. zu lesen, von den dortigen 14000 PolizistInnen seien derzeit 519 SARS-2-positiv. Das ist eine 100000er-Wocheninzidenz zwischen 1500 und 4000, je nach dem, wie die zählen, und damit selbst für sächsische Verhältnisse (RKI-Inzidenz heute 1075) ziemlich sportlich.

    Mein int/inc-Maß (IntensivpatientInnen pro Inzidenzpunkt) ist aber auch empfindlich für Auswahleffekte. So wird es immer dann stark sinken, wenn systematisch getestet wird: Wenn die Dunkelziffer unerkannt Infizierter runtergeht, geht die Inzidenz im Hellfeld und damit mein Nenner hoch, ohne dass sich an der im Zähler reflektierten Realität etwas ändert. Besonders verzerrend werden sich solche Effekte auswirken, wenn systematische Tests nur demographisch oder impfstatistisch sehr auffällige Teile der Bevölkerung erreichen (sagen wir: SchülerInnen).

    In Summe: Wer derzeit aus der Inzidenzkurve Vorhersagen über die Intensivbelegung machen will, musss Impfquoten und Demographie, und damit auch die geographische Verteilung der Inzidenz, berücksichtigen, wenn das irgendwie hinkommen soll. Und das mutiert zu mehr Arbeit als ich in der Kategorie handwerk tun will.

    Bestimmt macht das irgendwer auch richtig. Aber dann: die Zahlenspielereien ändern nichts daran, dass wir Inzidenzen um 5000 haben müssten, wenn wir im nächsten Frühling durch sein wollen (100000/(5000 pro Woche) entspricht 20 Wochen oder einem knappen halben Jahr, mit Dunkelziffer also vielleicht einem Vierteljahr oder so), und auch nicht daran, dass das mit unseren augenblicklichen Techniken und Politiken ein furchtbares Gemetzel werden würde. Seufz.

  • Der hundertste Post

    Vor 10 Monaten habe ich den ersten Artikel für dieses Blog geschrieben, und siehe da: Mit diesem sind es jetzt 100 Posts geworden.

    Das wäre ein guter Vorwand für ein paar Statistiken, aber da ich ja generell ein Feind von Metriken bin, die mensch ohne konkrete Fragestellung sammelt (das ist ein wenig wie beim statistischen Testen: Wenn du nicht von vorneherein weißt, worauf du testest, machst du es falsch), bestätige ich mir nur, dass meine Posts viel länger sind als ich das eigentlich will. Insgesamt nämlich habe ich nach Zählung von wc -l auf den Quelldateien fast 93000 Wörter in diesen Artikeln. Zur Fehlerabschätzung: xapian (vgl. unten) zählt nur 89000.

    Die Länge der Artikel ist nach wc-Wörtern so verteilt:

    Histogramm mit einem Klumpen zwischen 200 und 1000 und einem Outlier bei 3000

    Ich weiß auch nicht recht, warum ich mich nicht kürzer fassen kann. Oder will. Der überlange Post mit 3244 Wörtern ist übrigens der über die Konfiguration eines Mailservers – und das ist wieder ein gutes Beispiel für die Fragwürdigkeit von Metriken, denn erstens hat Englisch fast keine Komposita und ist von daher im Nachteil beim Wörterzählen und zweitens ist in dem Artikel ziemlich viel Material, das in Wirklichkeit Rechner lesen, und das sollte wirklich anders zählen als natürlichsprachiger Text.

    Na gut, und einem Weiteren kann ich nicht widerstehen: Wie viele verschiedene Wörter („Paradigmata“) kommen da eigentlich vor? Das ist natürlich auch Mumpitz, denn die Definition, wann zwei Wörter verschieden sind („die Token verschiedenen Paradigmata angehören“), ist alles andere als tivial. So würde ich beispielsweise behaupten, dass die Wörter Worte und Wörter praktisch nichts miteinander zu tun haben, während im Deuschen z.B. auf, schaute und aufschauen besser alle zusammen ein einziges Paradigma bilden sollten (zusammen mit allerlei anderem).

    Aber ist ja egal, sind ja nur Metriken, ist also eh Quatsch. Und es gibt die Daten auch schon, was für die Nutzung von und die Liebe zu Kennzahlen immer ein Vorteil ist. Ich habe nämlich den xapian-Index über dem Blog, und mit dem kann ich einfach ein paar Zeilen Python schreiben:

    import xapian
    db = xapian.Database("output/.xapian_db")
    print(sum(1 for w in db.allterms()))
    

    (Beachtet die elegante Längenbestimmung mit konstantem Speicherbedarf – db.allterms() ist nämlich ein Iterator).

    Damit bekomme ich – ich stemme nach wie vor nicht – 16540 raus. Klar, diese 16540 für die Zahl der verschiedenen Wörter ist selbst nach den lockeren Maßstäben von Metriken ganz besonders sinnlos, weil es ja eine wilde Mischung von Deutsch und Englisch ist.

    Um so mehr Spaß macht es, das mit den 100'000 Wörtern zu vergleichen, die schließlich mal im Goethe-Wörterbuch sein sollen, wenn es fertig ist. Eine schnelle Webrecherche hat leider nichts zur Frage ergeben, wie entsprechende Schätzungen für Thomas Mann aussehen. Einmal, wenn ich gerne Kennzahlen vergleichen würde…

  • Halbwegs gute Nachrichten

    Eine Kurve mit einem breitem Minimum um die 8.5

    Aus dieser Kurve lässt sich ablesen, dass wir in acht Tagen knapp 3500 SARS-2-Fälle auf Intensivstationen haben werden. Wie, verrate ich in diesem Artikel.

    In meinen Corona-Überlegungen gestern habe ich mich mal wieder gefragt, wie lange wohl die „Intensiv-Antwort“ dem Inzidenzsignal nachläuft, wie viele Tage es also dauert, bis sich ein Anstieg in den Inzidenzen in der Intensivbelegung reflektiert. Diese Frage ist, wie ich unten ausführe, derzeit ziemlich relevant im Hinblick auf Überlegungen, wie lange wir eigentlich noch Zeit haben, um massenhafte Triage in (oder vor) unseren Intensivstationen abzuwenden.

    Meine Null-Annahme für diese Verzögerung war seit Mai 2020 – nach einer entsprechenden Ansage eines befreundeten Anästhesisten – „eher so drei Wochen“. Bei nährem Nachdenken ist mir gestern aber aufgefallen, dass er wohl eher „von Infektion bis Intensiv“ gemeint haben wird, und dann ist die Antwort sicher schneller, denn von Infektion bis Meldung vergeht normalerweise wohl mindestens eine Woche. Aber: Ich muss nicht raten. Wir spielen hier mit Kennzahlen, die vielleicht in der Realität nicht immer viel bedeuten, aber zumindest klar definiert sind. Daher lässt sich der Verzug auf der Basis von RKI- und DIVI-Zahlen nachrechnen.

    Ich verrate gleich mal das Ergebnis: ich komme für die zweite Welle auf gut fünf Tage Verzug der Intensiv-Antwort, für die dritte auf etwa sieben Tage, für die vierte Welle auf acht bis neun Tage. Wie ich unten ausführe, sind das relativ gute Nachrichten.

    Zeitreihen

    Wie habe ich das gerechnet? Nun, die Korrelation von Zeitreihen ist ein ganzer Satz von Wissenschaften, bei denen es meist darum geht, ungleiche Abdeckungen, unregelmäßig gesetzte Messpunkte sowie allerlei Rauschen und Schmutz weggefummelt zu kriegen, ohne allzu viele Informationen zu verlieren oder, vielleicht schlimmer, damit Artefakte einzubauen.

    Die so gereinigten Daten lassen sich dann zum Beispiel geeignet skaliert und verschoben übereinanderlegen. Tatsächlich sind die Parameter dieser Transformationen im Regelfall (und gewissermaßen auch hier) viel interessanter als die Zeitreihen selbst[1]. Es gibt daher zahlreiche mathematische Verfahren, die das von einer Augenmaß-Übung in etwas verwandeln, das reproduzierbar und auch quantifizierbar ist. Vorsicht: ich bin da kein Experte und gehe hier nur mit nicht allzu schwer erkranktem Menschenverstand ran, verwende also (zumindest in Summe) gerade kein wirklich wohldurchdachtes Verfahren. Wer sowas wie das hier für Hausaufgaben oder Hausarbeiten verwendet, tut das auf eigene Gefahr.

    Andererseits bin ich recht zuversichtlich, dass der Kram insgesamt schon stimmt.

    Ausgangsdaten sind meine aus RKI-Berichten gescrapten Intensivbelegungen und ein RKI-Sheet (in, ach weh, „Office Open XML“ a.k.a. XSLX – muss das sein?) mit den Inzidenzen. Dabei ist das erste Problem, dass ich aus verschiedenen Gründen nicht für jeden Tag Belegungszahlen habe, und so ist mein erster Schritt, fehlende Punkte zu interpolieren. Das Scipy-Paket macht es leicht, aus einem Satz von Zeit/Wert-Paaren (die Zeit wird in den Lesefunktionen auf Sekunden seit einer Epoche gewandelt) ein handliches Array zu rechnen:

    grid_points = numpy.arange(
      raw_crits[0][0],
      raw_crits[-1][0],
      86400)  # ein Tag in Sekunden
    critnums = interpolate.griddata(
      raw_crits[:,0], raw_crits[:,1], grid_points)
    

    Ich wollte diese Interpolation eigentlich visualisieren, habe aber keine gute Stelle gefunden, an der sie einen sichtbaren Unterschied gemacht hätte, und entscheidend ist eigentlich nur, dass ich ab diesem Schritt blind mit Arrays arbeiten kann; deren Index ist zunächst die Zahl der Tage seit dem ersten Tag mit Daten, hier speziell dem 11.8.2020, denn damals habe ich mit dem Screenscrapen der DIVI-Daten angefangen.

    Übergeplottete Kurven

    Wenn ich diese interpolierten Kurven übereinanderlege, kommt das hier heraus:

    Zwei nicht so arg gut aufeinanderpassende Kurven

    Weil das, wie gesagt, erst im August 2020 anfängt, fehlt die erste Welle.

    Das bloße Auge reicht für die Bestätigung der Erwartung, dass die Intensivbelegung der Inzidenzkurve meist etwas hinterherläuft, wenn auch nicht so, dass mensch hoffen könnte, die beiden durch etwas Schieben global übereinanderzubekommen. Die großen Zacken in den Inzidenzen durch Weihnachten und Ostern finden sich in der Intensivbelegung gar nicht wieder, was ein klares Zeichen ist, dass sie weitgehend Erfassungsartefakte sind. In der Hinsicht wären die „großen“ RKI-Zahlen mit Referenzdaten (vgl. die Film-Geschichte) bestimmt besser, aber ich wollte für dieses Ding nicht die 200 Megabyte durchkämmen, zumal die „kleinen“ RKI-Daten besser auf die Meldedaten aus den Tagesberichten passen, um die es mir hier ja geht.

    Vor allem fällt auf, dass meine Jammerei darüber, dass der Impffortschritt die Intensivantwort nicht wesentlich abgeflacht hat, unzutreffend ist: Mit der Skalierung aus dem Plot liegen Inzidenz und Belegung in der zweiten und dritten Welle ziemlich übereinander, während in der vierten Welle doch ein knapper Faktor zwei dazwischenliegt; da scheint die Impfung doch ein wenig gegenüber Delta zu gewinnen (aber, klar, nirgendwo hinreichend).

    Ich hatte erwartet, dass die abfallenden Flanken der Intensivkurven deutlich flacher sind als die der Inzidenzkurven, weil Leute unter Umständen lang auf Intensiv liegen und es entsprechend lang dauern sollte, bis sich die Stationen wieder leeren. Das sieht im Abfall der zweiten Welle auch ein wenig so aus, nicht jedoch bei dem der dritten Welle. Bei ihr fällt die Intensivbelegung sehr treu mit der Inzidenz. So viele LangzeitpatientInnen gibt es glücklicherweise wohl doch nicht.

    Nach Glätten differenzierbar

    Wie kann ich jetzt den Verzug zu quantifizieren? Mein (wie gesagt eher intuitiv gefasster) Plan ist, über die Ableitung der jeweiligen Kurven zu gehen, und zwar aus der Überlegung heraus, dass mich ja Veränderungen viel mehr als Pegel interessieren. Nun habe ich aber keine differenzierbaren Funktionen, sondern lediglich Arrays, bei denen ich Ableitungen allenfalls durch Subtrahieren benachbarter Elemente simulieren kann. Solche numerischen „Ableitungen“ reagieren ziemlich empfindlich auf das Gewackel („Rauschen“), das es in realen Daten immer gibt („Subtraktion ist in der Regel numerisch schlecht konditioniert“). Deshalb will ich meine rohen Daten glätten, bevor ich die „Ableitung“ ausrechne, sprich: das Rauschen rausnehmen, ohne das Signal wesentlich zu verzerren.

    Glättung heißt eigentlich immer, Kurvenpunkte in einem Zelle für Zelle über die Daten laufenden Fenster zu mitteln, also z.B., indem mensch je fünf Nachbarpunkte rechts und links auf den aktuellen Punkt draufaddiert und ihn dann durch die durch elf geteilte Summe ersetzt. Mit diesem ganz naiven Rezept bekommen relativ weit entfernte Werte aber genauso viel Einfluss auf den aktuellen Punkt wie die unmittelbaren Nachbarn. Das modelliert meist die sachlichen Grundlagen des Rauschens nur schlecht. Es ist auch aus theoretischeren Gründen normalerweise eher ungünstig.

    Der eher theoretische Hintergrund ist grob, dass bei der Glättung letztlich zwei Funktionen gefaltet werden. Das ist äquivalent dazu, die Spektren der beiden Signale (ihre Fouriertransformierten) zu multiplizieren und dann wieder zurückzutransformieren. Bei einem einfachen Fenster des oben skizierten Typs („Rechteckfunktion“) gibts nun sehr scharfe Kanten, die wiederum zu einem sehr breiten Spektrum führen, so dass auch das Spektrum der geglätteten Funktion allerlei unwillkommene Features bekommen kann (manchmal ist das aber auch genau das, was mensch haben will – hier nicht).

    Wie auch immer: scipy macht es einfach, mit einer lärmarmen Funktion – die sieht ein wenig gaußig aus und ist im nächsten Plot im kleinen Inset zu sehen – zu glätten, nämlich etwa so:

    import numpy
    from scipy import signal
    
    smoothing_kernel = numpy.kaiser(20, smoothing_width)
    smoothing_kernel = smoothing_kernel/sum(smoothing_kernel)
    convolved = signal.convolve(arr, smoothing_kernel, mode="same"
      )[smoothing_width:-smoothing_width]
    

    Die Division durch die Summe von smoothing_kernel in der zweiten Zeile sorgt dafür, dass sich an der „Höhe“ der geglätteten Funktion insgesamt nichts ändert: Sozusagen ausgeklammert ist die Faltung eine Multiplikation mit eins. Das Wegschneiden der Ränder in der letzten Zeile wiederum entfernt Punkte, bei denen fehlende Werte am Anfang und Ende der Zeitreihe im Fenster waren. Scipy ersetzt die durch Nullen, so dass die geglätteten Werte am Rand steil abfallen. Was ich hier mache, entspricht technisch dem valid-Mode der convolve-Funktion. Nur weiß ich hier zuverlässig, wie lang das Array am Schluss ist.

    Der Effekt, hier auf Indzidenzdaten der vierten Welle:

    Zwei Kurven, eng beieinander, aber eine viel rauschiger, mit einem glockenähnlichen Inset

    Damit kann ich jetzt meine numerische „Ableitung“ bilden, ohne dass mir das Ergebnis furchtbar rauscht:

    diff = convolved[1:]-convolved[:-1]
    

    Die nächsten beiden Grafiken zeigen diese Pseudo-Ableitungen für Inzidenz und Intensivbelegung. Ich habe jeweils in blau reingemalt, wie es ohne Glättung aussehen würde, um deutlich zu machen, warum diese eine gute Idee ist und was ich mit „furchtbar rauschen“ meine. Weiterverwendet werden natürlich die orangen Verläufe:

    Zwei Kurven, eine schlimm wackelnd, die andere ruhig
    Zwei Kurven, eine schlimm wackelnd, die andere ruhig

    In der Inzidenzkurve fallen wieder Weihnachten und Ostern besonders auf, weil sie selbst in den geglätteten Graphen noch wilde Ausschläge verursachen.

    In der Zeit verschieben

    Schon der optische Eindruck aus dem Rohdaten-Plot legt nahe, die einzelnen Wellen getrennt zu untersuchen, und das ist angesichts von über die Zeit stark veränderlichen Viren, Testverhältnissen, demographischen Gegebenheiten und nichtpharamzeutischen Maßnahmen sicher auch sachlich geboten.

    Deshalb hier zunächst der Verlauf der Ableitungen von Inzidenzen und Intensivbelegung in der aktuellen vierten Welle (das ist eine Kombination der rechten Enden der orangen Graphen der letzten beiden Plots):

    Zwei Kurven, die eine der anderen recht schön folgend

    In dem Graphen steckt noch eine weitere Normalisierung. Und zwar habe ich für beide Arrays etwas wie:

    incs /= sum(abs(incs))
    

    laufen lassen. Damit ist die Fläche zwischen den Kurven …

  • Ehrlichkeit in Parteiprogrammen

    Über einen Artikel in der Wochenzeitung Kontext bin ich auf eine Kleinstudie des Zentrums für europäische Wirtschaftsforschung (ZEW) gestoßen, auf die ich vor allem im Hinblick auf eine spätere Nutzung zur Mythenstörung kurz eingehen möchte.

    Zu bedenken ist zunächst, dass das ZEW gewiss in keinem Verdacht steht, irgendwelche fortschrittlichen Ideen zu hegen. So gehört zu deren aktuellen „Empfehlungen für die Wirtschaftspolitik“ offensichtlicher Quatsch der Art „Standardisierte Altersvorsorgeprodukte einführen“ oder Deflektorschilde gegen eine entspanntere, arbeitsärmere und umweltfreunlichere Gesellschaft des Typs „Kostengerechte Aufteilung der CO2-Reduktionen zwischen den Sektoren“; aktuelle Pressemitteilungen beten marktradikale Wirrnisse herunter wie „Lokale Preisanreize im Strommarkt setzen“ (Faustregel: „Anreiz“ heißt im Klartext: Geld von unten nach oben umverteilen) oder „Bundesnetzagentur sollte weiterhin auf Auktionen setzen“, ganz als sei 1998.

    Ausgerechnet diese Leute haben in ihrer Kleinstudie zu den fiskalischen und ökonomischen Folgen der aktuellen Parteiprogramme herausgefunden, dass das Programm der Linken den Staathaushalt um 37 Milliarden Euro entlasten würde, während die FDP den Haushalt mit 88 Millarden Euro belasten würde und die CDU immer noch 33 Millarden Euro mehr Staatsdefizit ansagt.

    So viel zur Frage fiskalischer Verantwortung in der Theorie, soweit also mensch Wahlprogramme ernstnehmen will. Zumindest sollte die Studie traugen, um die Erzählungen von „wirtschaftlicher Vernunft“ bei den Rechtspartien als Legenden zu entlarven.

    Die Studie liefert weiter Hinweise zum Thema „Turkeys voting for Christmas“, also Armen, die Rechtsparteien wählen (davon gibt es augenscheinlich einen ganzen Haufen): Das VEW hat nämlich auch die Folgen der Programme für den Gini-Koeffizienten abgeschätzt, also einer Metrik für die Ungleichheit der Einkommen in einer Gesellschaft, der mit wachsender Ungleichheit wächst. Souveränder Spitzenreiter dabei ist die AfD, die die Ungleichheit in dieser Metrik um 3.8% verschärfen würde, wo selbst die FDP die Dinge nur 3.4% schlimmer machen will (und die CDU um 1.6%). Demgegenüber würde das Wahlprogramm der Linken – take this, ExtremismustheoretikerInnen! – die Ungleichheit um knapp 15% reduzieren. Wenn denn irgendwas davon umgesetzt würde, käme sie an die Regierung; spätestens nach der Katastrophe der Schröder-Administration dürfte klar sein, dass das ungefähr so wahrscheinlich ist wie ein ernsthaftes Aufbegehren gegen den permanenten Bürgerrechtsabbau durch eine FDP in der Regierung. Die Grünen würden laut VEW die Ungleichheit um 6.5% reduzieren, und selbst die vom für Cum Ex und Hartz IV bekannten Scholz geführte SPD wäre noch mit -4.3% dabei.

    Klar: das Ganze ist eine stark zirkuläre Argumentation, denn Programme der Parteien haben viel mit den Methoden des ZEW und Metriken wie dem Gini-Koeffizienten gemein, alle drei aber sicher nicht viel mit irgendwelchen Realitäten. In der gemeinsamen, wenn auch hermetischen Logik bleibt festzuhalten: die bekennenden Rechtspartien betreiben unzweifelhaft die Umverteilung von unten nach oben auf Kosten des Staatshaushalts.

    Und das taugt ja vielleicht später nochmal für ein Argument innerhalb dieser hermetischen Welt.

  • Wie aus dem 18. Jahrhundert

    Ich bin ja bekennender Leser von Fefes Blog, und ich gebe offen zu, dass ich dort schon das eine oder andere gelernt habe. Zu den für mich aufschlussreichsten Posts gehört dieser aus dem September 2015, der mir seitdem nicht mehr aus dem Sinn gegangen ist, und zwar wegen der Unterscheidung zwischen Kulturen der Ehre (die mensch sich verdienen und die mensch dann verteidigen muss) und denen der Würde (die mensch einfach hat).

    Der Rest des Posts ist vielleicht nicht der scharfsinnigste Beitrag zur Identitätsdebatte, und klar gilt auch Robert Gernhardts „Die Würde des Menschen ist ein Konjunktiv“ weiter, aber der zentrale Punkt ist: Artikel 1 Grundgesetz ist eine Befreiung von dem ganzen Unsinn von Ehre und insofern ein großer Schritt in die Moderne. Das ist mir so erst damals im September 2015 klar geworden.

    Und seitdem habe ich mich um so mehr gewundert über den Stellenwert, den „Gesicht nicht verlieren“ in „der Politik“ (und das schließt schon Bezirksvorsitzende von Gewerkschaften ein) immer noch hat. Wo außerhalb der Krawattenliga gibt es sonst noch „Ehrenerklärungen“ wie neulich bei der CDU (von vor 20 Jahren ganz zu schweigen) oder kräuseln sich nicht die Zehennägel, wenn jemand wie Westerwelle weiland verkündete: „Ihr kauft mir den Schneid nicht ab“?

    Um so mehr war ich angetan, als zumindest Angela Merkel diese Logik des 18. Jahrhunderts gestern durchbrochen hat und einfach mal „ich hab Scheiße gebaut“ gesagt hat. Und es tröstet etwas, dass zumindest die heutige Presseschau in weiten Teilen nicht das unsägliche Genöle von Vertrauensfragen aus dem Bundestag gestern reflektiert.

    Andererseits: Keine Presseschau ohne fassungsloses Kopfschütteln, wenn nämlich die Süddeutsche schreibt:

    Hätte die Bundesregierung stattdessen selber genug Impfdosen geordert, und zwar nicht zuletzt bei Biontech im eigenen Land, dem Erfinder des ersten Corona-Vakzins, befände sich Deutschland jetzt nicht am Rande der Hysterie.

    Hätte die Süddeutsche gesagt: „dafür gesorgt, dass so oder so alles, was an Abfüllkapazität da ist, anfängt, Impfstoff abzufüllen, sobald absehbar ist, dass es mit der Zulassung was wird“ – ok, das wäre ein Punkt. Das augenscheinlich auch im Ernstfall herrschende Vertrauen in „den Markt“ ist natürlich böser Quatsch. Aber auch überhaupt nichts Neues. Und die Süddeutsche sitzt in dem Punkt in einem Glashaus mit ganz dünnen Scheiben.

    Aber sie redet auch vom „ordern“, was im Klartext heißt: „wir wollen schneller geimpft sein als die anderen“ – das ist, noch klarerer Text, anderen Leuten den Impfstoff wegnehmen. Meinen die Süddeutschen das ernst?

    Ich bin ja ohnehin in den letzten Wochen in der unangenehmen Situation, meine Regierung zu verteidigen. Das habe ich, glaube ich, noch nie gemacht. Aber im schwierigen Lavieren zwischen autoritärem Durchgriff – etwa, alle Leute bei sich zu Hause einsperren – und einem Laissez-Faire, das vermutlich fast eine halbe Million Menschen in der BRD umgebracht hätte, sieht es fast so aus, als hätte der Gesamtstaat (zu dem ja auch Landesregierungen und vor allem Gerichte gehören) so ziemlich den Punkt erwischt hat, den „die Gesellschaft“ sonst auch akzeptiert.

    Warum ich das meine? Nun, so sehr ich gegen Metriken als Bestimmer politischen Handelns bin, gibt die Mortalitätskurve doch eine Idee davon, welche Kompromisse wir eingehen. Das RKI veröffentlicht jeden Freitag so eine, und die im Bericht vom letzten Freitag sieht so aus:

    Mortalitätskurven 2017-2021

    In Worten: Die Gesamtsterblichkeit war im Corona-Jahr nicht viel anders als sonst auch, nur kam der Grippe-Peak halt schon im November und Dezember statt erst im Januar und Februar. Und da wir ja wegen der Grippe in „normalen“ Jahren auch nicht alle das Winterende in Isolation verbringen, war das Level an Isolation und Shutdown, das wir am Ende hatten und das SARS-2 zur Vergleichbarkeit gezähmt hat, offenbar im Sinne „der Gesellschaft“ gewählt.

    Klar: Das hat so wohl niemand geplant. Dass es aber so rausgekommen ist, dürfte nicht einfach nur Zufall sein. „Schwarmintelligenz“ wird den Grund sicher nicht treffen. Aber irgendwas, das nicht furchtbar weit davon weg ist, dürfte die Ähnlichkeit der Kurven wohl schon erklären. Vielleicht: Das, was bei uns von Gewaltenteilung noch übrig ist?

    Ansonsten bereite ich mich schon mal aufs Verspeisen meines Hutes vor, wenn die „dritte Welle“ jetzt doch noch für einen schlimmen Mortalitätspeak sorgt.

Seite 1 / 2 »

Letzte Ergänzungen