Tag Kopfzahlen

Anders als in der Welt da draußen ist hier eine Kopfzahl eine Zahl, die ich im Kopf habe oder haben möchte, weil sie mir schnelle Abschätzungen oder eine Einordnung anderer Zahlen erlaubt; dabei muss das nicht so furchtbar genau gehen. So ist etwa die Lichtgeschwindigkeit für diese Zwecke 300000 km/s (ihr seht schon, wie ihr die Kopfzahlen in den Artikeln findet).

Wobei: eingestandenermaßen merke ich mir gerade die Lichtgeschwindigkeit lieber als 3 × 108  m ⁄ s. Erstens, weil ich SI-Taliban bin, aber auch, weil es dann einfacher ist, mit der der Entfernung Erde-Sonne 1.5e11 m (wobei ich aus technischen Gründen 1.5 × 1015 computergerecht schreiben muss) abzuschätzen, dass, wenn jetzt die Sonne ausgehen würde, es in 0.5 × 103, also 500 Sekunden oder etwas wie 8 Minuten bei uns dunkel würde[1].

Von diesen Kopfzahlen gibts einen ganzen Haufen, und wenn unter diesem Tag erstmal genug Artikel versammelt sind, mache ich auch einen Sammelartikel zum Ausdrucken. Oder so.

[1]Ja, das mit dem „jetzt“ ist auf diesen Skalen viel problematischer als ich das hier scheinen lasse. Die Vorstellung ist aber trotzdem gruselig.
  • Horröses Heidelberg 2: Die Lenard-Säule

    Heidelberg war selten eine sonderlich progressive Stadt. Gerade die zahlreichen Studentenverbindungen – Buschenschaften, Corps, Turnerschaften und was sich da sonst noch so im patriotischen Sumpf suhlt(e) – sorg(t)en für einen reichen Nährboden für jede Sorte rechten Wahnsinns. Von militaristischen Aspekten davon war im ersten Teil von Horröses Heidelberg schon die Rede. Dieses Mal habe ich rabiaten Antisemitismus im Angebot:

    Rechts eine fast geschlossene Zimmertür, daneben ein etwa ein Meter hoher, weiß getünchter Betonblock mit einem Querschnitt von vielleicht 30×30 cm, wieder daneben ein Regal mit ein paar Packen Kopierpapier.

    Die mutmaßliche Lenard-Säule.

    Diese eher langweilig aussehende Installation findet sich im alten Physikgebäude im Philosophenweg 12, hinter einer Tür gegenüber dem unteren Ausgang des großen Hörsaals. Wenn die Geschichte, die ich jetzt gleich erzählen werde, ungefähr wahr ist, dann ist sie ein bizarres Denkmal antisemitischer Verblendung.

    Vorneweg: Ich weiß offen gestanden nicht, wie wahr die Geschichte des Klotzes ist. Sie ist etwas, das sich Physikstudis von Generation zu Generation erzählt haben und das sehr plausibel klingt. Bevor ich sie in einer seriösen Publikation erzählen würde, würde ich vermutlich lieber erstmal die Bau-Unterlagen im Uni-Archiv einsehen wollen.

    Philipp Lenard sucht den Äther...

    Aber jetzt die Geschichte: Anfang des 20. Jahrhunderts ärgerte sich ein gewisser Philipp Lenard – bereits im Besitz eines Physik-Nobelpreises – über die damals aufkommende „neue“ Physik zwischen Quantenmechanik und Relativitätstheorie. Seit 1907 leitete er das Institut für Physik und Radiologie der Uni Heidelberg, und je länger er dort Geistesgenossen um sich sammelte, desto durchgeknallter wurde der ganze Laden. Schließlich publizierte er ein Machwerk unter dem Titel „Deutsche Physik“, das noch in den 1930er Jahren versuchte, die Welt ohne die Physik des 20. Jahrhunderts – aus Sicht der Deutschen Physiker: die „jüdischen Beiträge“ – zu erklären.

    Das scheiterte natürlich, und noch nicht mal besonders grandios. In meiner Studienzeit gab es aber in der Bibliothek der angewandten Mathematik noch abgegriffene Exemplare der Deutschen Physik, deren Mischung aus normaler Standard-Physik und patriotischer Verwirrung wirkt, als habe sich ein normaler Studienrat eine Anfallskrankheit eingefangen, die ihn dann und wann in Erich von Däniken verwandelt (Literarische Referenz).

    Lenard arbeitete sich vor allem an der speziellen Relativitätstheorie ab. Diese entstand ja in Teilen, weil das Michelson-Morley-Experiment mit der voreinsteinschen Licht-Theorie (Licht war danach wie Schall in der Luft, nur wäre die Luft fürs Licht ein Zeug namens Äther gewesen) echte Schwierigkeiten hatte: Mit jeder nicht ganz abseitigen Äthertheorie hatte mensch in diesem Experiment zumindest den „Fahrtwind“ der Bewegung der Erde um die Sonne sehen müssen[1].

    Und hier kommt der Klotz auf dem Bild oben ins Spiel: In der Studi-Überlieferung nämlich hat ihn Lenard, für den das hässliche Physik-Gebäude am Philosophenweg gebaut wurde, einbauen lassen, um auf ihm Michelson-Morley-Versuche zu machen. Eine wesentliche Schwierigkeit bei diesen war nämlich das Wackeln des Untergrunds und das davon ausgelöste Rumzittern der Interferenzstreifen. Die Wikipedia schreibt zum Originalexperiment von 1881 derzeit, um „die Erschütterungen zu minimieren, wurde der Verkehr [beim Originalexperiment] weiträumig abgesperrt“. Diese Möglichkeit bestand am Rande des dicht besiedelten Neuenheim natürlich nicht.

    Viel Stein, Treppe, düsteres Haus und so.

    Hier spielt diese Folge des horrösen Heidelbergs: Der Lenardbunker im Philweg 12.

    ...und kommt zu nichts

    Der Lenard'sche Klotz nun soll fest mit dem Grundgebirge verbunden sein und auf dieses Weise eine erschütterungsarme Umgebung bieten. Ich persönlich glaube nicht, dass das funktioniert hätte, denn vermutlich schwingt das Grundgebirge nicht viel weniger als alles andere, und ohne Entkopplung vom Rest des Gebäudes – von der nichts zu erkennen ist – wäre auch eine größere Ruhe des Grundgebirges nicht sehr hilfreich. Ich weiß darüber hinaus nicht, ob Lenard wirklich jemals Zeit fand, nach seinem arischen Äther zu suchen.

    Vermutlich nicht, denn er kämpfte an vielen Fronten. Ein Beispiel: Nachdem Freikorpsleute am 28. Juni 1922 den selbst eher konservativen Außenminister Walther Rathenau erschossen hatten, hatte die Reichsregierung eine allgemeine Arbeitsruhe angeordnet. Lenard und seine protofaschistischen Mitarbeiter konnten sich das schon wegen Rathenaus jüdischer Herkunft nicht vorstellen und werkten weiter. Das blieb auch wegen keineswegs auf Halbmast gezogener Fahnen nicht unbemerkt, und fortschrittliche AktivistInnen versammelten sich vor dem Institut. Dieses befand sich bereits seit 1913 am Philosophenweg; wer heute dort steht, steht also auf dem historischen Grund der Kundgebung.

    Zunächst hinderte Polizei die DemonstrantInnen an einer Institutsbesetzung, aber die Situation eskalierte, als die Männer im Institut die Kundgebung mit Wasser aus Feuerwehrschläuchen unter Beschuss nahmen. Schließlich stürmten die DemonstrantInnen doch das Physikgebäude, und die Polizei musste Lenard in „Schutzhaft“ nehmen. Für Leute seines Schlages bedeutete das allerdings nicht, wie wenig später für allerlei den NS-Behörden verhasste Menschen, Darben im KZ, sondern eine komfortable Hotelübernachtung.

    Vom Weitermachen und Einfahren

    Immerhin sah sich der damalige badische Unterrichtsminister – wie Rathenau ein DDP-Mann und darüber hinaus selbst ehemals an der Heidelberger Uniklinik beschäftigt – nach Lenards Provokation bemüßigt, ihn zu suspendieren. Lenard antwortete nach außen mit einem Entlassungsgesuch, zu seinen reaktionären Freunden hin aber offenbar mit Unterstützungsappellen. Jedenfalls liefen nicht ganz ein Jahr später, am 1. Juni 1923, etliche konservative Studis beim engeren Senat der Uni auf und überreichten über 1000 Unterschriften, die Lenards bedingungslose Weiterbeschäftigung forderten. Tatsächlich blieb Lenard unangefochten bis zu seiner Emiritierung 1932 Leiter des Instituts für Physik und Radiologie.

    Das ging Carlo Mierendorff anders; er war 1922 schon ein stadtbekannter Linker, und so stürzte sich der Staatsschutz begeistert auf ihn, als er in der Menge vor der Lenard'schen Festung auffiel. Am 10. April 1923 eröffnete ein längst vergessener Richter ein Gerichtsverfahren gegen ihn wegen eines in den heutigen Analoga immer noch nur zu vertrauten Delikts: Landfriedensbruch. Das ist auch aktuell der gefühlt drittpopulärste Vorwurf, wenn die Polizei eher willkürlich DemonstrantInnen bestrafen will (nach Vermummung und dem entsetzlichen tätlichen Angriff nach dem 2017 neu erfundenen §114 StGB).

    Der Staatsschutz hatte Mierendorff eine Handvoll Mitangeklagte an die Seite gestellt, deren Demographie ich mit meinen heutigen Augen faszinierend finde. Abgesehen von ihm (zu dem Zeitpunkt wohl promovierender Studi) waren das nämlich durchweg Nichtstudis: der Tagelöhner Jakob Black, der Bauarbeiter Martin Kratzert, der Metzger Martin Erle, die Schlosser Franz Josef Mohr, Wilhelm Heilmann und Friedrich Zobeley, der Kaufmann Karl Hopp und der Kanzleiassistent Franz Joseph Bolz. Ob das wohl charakteristisch war für die TeilnehmerInnen der Anti-Lenard-Demo im Juni 1922? Das ist schwer zu sagen, aber fraglos waren die Studis damals weit überwiegend reaktionär und damit gewiss kaum an Kritik an Lenard interessiert.

    Mierendorff übrigens fuhr am Schluss als „Rädelsführer“ für vier Monate ein.

    Vergiftete Atmosphäre

    Die Atmosphäre in Lenards Institut blieb auch nach dessen Emeritierung kurz vor der Machtübergabe an die NSDAP vergiftet. Sein Nachfolger, der deutlich liberalere Walter Bothe, schmiss nach zwei Jahren entnervt hin und wechselte an das ebenfalls in Heidelberg befindliche Institut, das heute das MPI für medizinische Forschung ist. Dass der Lenard-Schuler Ludwig Wesch mit seinen SS-Kadern stundenlang über Bothes Büro exerziert hat, war vermutlich nur der handfesteste Teil des Terrors, der noch am 23. Dezember 1933 sogar den Fakultätsrat der naturwissenschaftlichen Fakultät beschäftigt hat, wie es aussieht, wiederum auf externen Druck hin, denn Vorsprache hielt damals Uni-Kanzler Stein persönlich.

    Nur, um nicht falsch verstanden zu werden: Bothe war selbst auch überhaupt kein netter Mensch. Als die Wehrmacht im Sommer 1940 Paris überrannt hatte, lief Bothe zum Beispiel im Windschatten der Soldaten im Pariser Labor von Frédéric Joliot-Curie auf und untersuchte den Stand von dessen Arbeiten an einem Teilchenbeschleuniger (drei Jahre später gab es dann auch in Heidelberg ein Zyklotron). Und das ist noch so etwa das Netteste, was in seinem Institut passierte; die MPG gesteht selbst, an Bohes Institut sei „noch 1944 die Synthetisierung des hochtoxischen Nervengases Soman“, na ja, „gelungen“.

    Ob es wirklich der Betonblock im alten physikalischen Institut ist, der all diese Geschichten erzählt, will ich wie gesagt nicht versprechen. Die Geschichten selbst allerdings haben sich so zugetragen und sind Teil des horrösen Erbes von Heidelberg.

    [1]Und dazu die, wie wir heute wissen, noch weit größeren Beiträge aus der Bewegung der Sonne um das Zentrum der Milchstraße, die Eigenbewegung der Milchstraße in der lokalen Gruppe und, ganz dramatisch, den Sturz der lokalen Gruppe Richtung Coma-Haufen. Aber von fast allem davon wusste mensch noch nichts in den Zeiten von Michelson und Morley Ende des 19. Jahrhunderts. Selbst die eher randständige Lage des Sonnensystems in der Milchstraße, die für die Bahnbewegung von rund 200 km/s sorgt (Bahngeschwindigkeit der Erde 30 km/s oder ein bisschen mehr als ein Zehntel, und wo wir schon dabei sind: Die Fluchtgeschwindigkeit der Erde ist ein bisschen mehr als 10 km/s), hat erst in den 1910er Jahren Harlow Shapley durch die Untersuchung der Verteilung der galaktischen Kugelsternhaufen wirklich überzeugend nachgewiesen.
  • Um Größenordnungen daneben

    Das-Boot-ist-voll-Debatten bauen recht typisch nicht nur auf zünftige Dosen Rassismus, sondern auch auf großflächige Dyskalkulie, auf die Unfähigkeit oder den Unwillen also, mit Zahlen zumindest nach Größenordnungen („Kopfzahlen“) umzugehen. In besonders unangenehmen Fällen bauen sie sogar aufs Ausnutzen dieser kleinen Schwächen unter den durch Schulmathematik Geschädigten.

    Welche dieser möglichen Ursachen Stefan Heinleins Fehlleistung heute morgen im Deutschlandfunk verursachte, will ich nicht entscheiden. In der Anmoderation zu seinem Interview mit dem luxemburgischen Außenminister hat er jedenfalls ein Panikbild gezeichnet, das sich mit ein, zwei Kopfzahlen sofort als um Größenordnungen falsch zeigt:

    0.01% der Fläche des Saarlands. Das sind 20 Quadratkilometer. Das ist die Größe der italienischen Mittelmeerinsel Lampedusa. Ein winzig kleine Insel also […] Seit Wochen kommen täglich viele hundert Menschen auf ihren rostigen Booten…

    Mit Kopfzahlen klaren Kopf schaffen

    Wer nun meine Flächen-Kopfzahlen parat hat, wird sich wundern, denn Heinlein behauptet ausgeschrieben, das Saarland habe eine Fläche von 20/0.0001, also 200'000 Quadratkilometern, zu vergleichen mit der BRD insgesamt bei 350'000 km² (Saarland mehr als die Hälfte der BRD? Das wüsste ich.) und Baden-Württemberg als typisches Flächenland bei einem Zehntel davon. Da das Saarland wiederum eher so ein Zehntel eines normalen Flächenlandes ist, wird Heinlein zwei Größenordnungen (ein Faktor 100) danebenliegen.

    Tatsächlich bietet der Wikipedia-Artikel zum Saarland als dessen Fläche 2'569 km² an. 0.01% davon sind ein bisschen mehr als zwei Hektar oder eine größere Sandbank, eine Beschreibung, die auf das wirkliche Lampedusa ganz offensichtlich nicht zutrifft. Dort gibt es sogar einen Flugplatz, von dem aus „viele hundert Menschen“ am Tag unschwer auszufliegen wären. Wenn das denn wer wollte, der_die Flugzeuge hat.

    Nachtrag (2023-09-21)

    Ah… hier hat mich der Furor hingerissen. 1 km² sind nicht zehn, sondern hundert Hektar, und mithin wären die 0.01% nicht zwei, sondern 20 Hektar, wie hend unten ganz richtig bemerkt, und das beginnt schon, eine Insel zu werden. Vielen Dank für die Korrektur, die angesichts meines mokanten Spottes um so willkommener ist.

    Bei Debatten, die bereits von hysterischem Panikkeuchen geprägt sind – in den Informationen am Morgen heute zähle ich nicht weniger als fünf Beiträge zur Migration über das Mittelmeer – darf mensch, so finde ich, auch im turbulenten Redaktionsalltrag Sorgfalt auf einen Faktor fünf erwarten. Noch besser ist es natürlich, sensationsheischende Aufmacher dieser Art ganz zu lassen, jedenfalls bei Themen, um die sowieso schon ein dichter Nebel reaktionärer Phantasmen wabert.

    Eine realistische Betrachtung

    Wie wäre es stattdessen mit der viel ruhigeren Abschätzung, was diese 8'500 „zusätzlichen“ Menschen in Lampedusa eigentlich für die EU als Ganze bedeuten?

    Eine nützliche Art, sich Demographie zu vergegenwärtigen, ist die Einsicht, dass Menschen knapp 100 Jahre alt werden – um einen Faktor zwei darf mensch bei qualitativen Argumenten immer danebenliegen, nur halt nicht um einen Faktor 100. Das heißt aber, dass in einer mehr oder minder zufällig aus einer mehr oder minder stabilen Gesamtpopulation gezogenen Gruppe jedes Jahr etwas mehr als 1% der Menschen sterben bzw. geboren werden – oder jeden Tag etwas wie ein Mensch von 30'000. In einer Stadt wie Heidelberg (160'000 EinwohnerInnen, nicht drastisch viel jünger oder älter oder ärmer oder reicher als der Rest der Republik) sollten also jeden Tag eine Handvoll Menschen geboren werden und in einer ähnlichen Zahl auch sterben.

    Die EU hat nun rund 500 Millionen EinwohnerInnen. Mithin bringen die Frauen in der EU, stabile Bevölkerungszahl angenommen, jeden Tag 5⋅108 ⁄ 3⋅104 oder etwas wie 15'000 Menschen zur Welt. Das war von der Größenordnung her auch schon vor 20 Jahren so, und damit müssten „wir“ ohnehin dafür sorgen, dass jeden Tag 15'000 Menschen zum Beispiel eine Wohnung finden (wenn sie mit um die 20 ausziehen wollen). Die „täglich viele hundert Menschen“ aus Heinleins atemloser Anmoderation fallen in dieser Menge nicht weiter auf – außer vielleicht durch ihr Äußeres, aber selbst das dürfte ein Problem der Vergangenheit sein.

    Nachtrag (2023-12-22)

    Um die Fluchtbewegungen in ein Verhältnis zu diesen 15'000 pro Tag zu bringen: Eurostat berichtet für den August 2023 - also etwa die Zeit des DLF-Beitrags – von „über 91 700“ Erstanträgen auf Asyl in der EU, also immerhin 3000 am Tag; beeindruckend, dass es doch so viele hinkriegen. Damit würden, wenn die schließlich Asylrecht bekämen (was deprimierend selten der Fall ist), 20% mehr Menschen (sagen wir) Wohnung suchen als ohne diese Sorte Einwanderung. Das ist mehr, als ich per Bauchgefühl vermutet hätte, aber sicher auch kein qualitativer Sprung.

    Zugegeben klappt das mit dem Obdach für die „eigenen“ 15'000 Menschen in der EU und ihrem Wohnungsmarkt schon ganz ohne Migration ziemlich schlecht; Marktwirtschaftsgläubige mag es daher freuen, wenn für die Wohnmisere gerade der Ärmeren andere Schuldige als der offensichtliche (Tipp: in „Wohnungsmarkt“ ist der Teil mit „Wohnung“ der, den mensch haben will) zur Verfügung stehen. Aber die sinnvolle Nutzung von Rohstoffen, Arbeitskraft und Fläche, um Menschen freundlichen Wohnraum zu geben oder diesen jedenfalls nicht zu zerstören – das ist schon wieder ein weites Feld für möglicherweise kalkulierte Dyskalkulie.

  • Eine neue Nexus-Nabe und ihr Fußabdruck

    Nahaufnahme einer Fahrrad-Schaltnabe mit einem Sonnenreflex auf einer Speiche.

    Weil ich wartungsarme Technik schätze, war in allen meinen Fahrrädern eine Schaltnabe verbaut, zunächst ein Sachs-Dreigang, dann über einige Jahrzehnte hinweg die Zweizug-Fünfgang-Nabe des gleichen Herstellers (dämlicherweise „Pentasport“ genannt), zumal bei denen mit damals noch reichlich verfügbaren Ersatzteilen aus Torpedo-Naben (das war der auch nicht allzu erfreuliche Handelsname der Dreigang-Teile) oft noch einiges zu retten war.

    Vor sechs Jahren, im November 2017, bin ich dann auf eine Acht-Gang-Nabe von Shimano („Nexus“) umgestiegen, insbesondere, weil die Ersatzteilversorgung für die Sachs-Naben kritisch wurde und ich das Elend mit SRAM nicht mehr ansehen wollte – SRAM hatte zwischenzeitlich die Sachs-Nabenfertigung übernommen und nach einhelliger Meinung hingerichtet. Ich hatte dabei die naive Hoffnung, mit einer fabrikneuen Nabe könnte das werden wie bei meinem SON-Nabendynamo: Montieren und vergessen; beim SON hat das seit 2007 gut geklappt, das Teil ist wirklich beeindruckend wartungsfrei.

    Der Fußabdruck von YOLO

    Meine Nexus hingegen hat während der letzten paar Monate immer unangenehmere Geräusche – ich möchte fast von distress signals sprechen – von sich gegeben. Ich war hin- und hergerissen zwischen „Nachschauen und dann ärgern, weil du keine Ersatzteile kriegst“ und YOLO. YOLO hat gewonnen, wodurch das Knacken und Gangverlieren immer schlimmer wurde. Letzte Woche war es dann endgültig nicht mehr tragbar, weshalb ich gestern ein neues Laufrad montiert habe. Der Wechsel des ganzen Laufrads statt nur der Nabe lag nahe, weil auch die Felge schon ziemlich runter war[1] – aber klar: ich war durchaus auch dankbar, dass ich mir die Umspeicherei sparen konnte.

    Ich verspreche, vom Postmortem der alten Nabe zu berichten, wenn es soweit ist. Jetzt hingegen ist das eine gute Gelegenheit, meine größte Kritik am hier schon oft zitierten Fußabdruck-Standardwerk How Bad Are Bananas von Mike Berners-Lee loszuwerden. Zum Thema des CO₂-Fußabdrucks einer Fahrradmeile heißt es in der US-Ausgabe nämlich:

    Cycling a mile

    65 g CO2e powered by bananas

    90 g CO2e powered by cereals with milk

    200 g CO2e powered by bacon

    260 g CO2e powered by cheeseburgers

    2,800 g CO2e powered by air-freighted asparagus

    > If your cycling calories come from cheeseburgers, the emissions per mile are about the same as two people driving an efficient car.

    Auch wenn ich nichts einzuwenden habe gegen die Demo, wie CO₂-relevant vernünftiges (also pflanzliches, saisonales und eher regionales) Essen ist, gehört die ganze Abschätzung deutlich zu den zweifelhafteren des Buches. Zunächst rechnet Berners-Lee schon mal „50 calories per mile“[2]. Gemeint sind natürlich Kilokalorien, so dass das (mit ungefähr 4 Kilojoule auf die kcal und 1.6 Kilometern auf die Meile) in ordentlichen Einheiten 125 kJ auf den Kilometer sind.

    Gegenrechnung: AlltagsradlerInnen leisten, wenn sie sich anstrengen, etwa 100 Watt und fahren dabei einen Kilometer in, sagen wir, 150 Sekunden. Die mechanische Arbeit, die sie über diesen Kilometer leisten, beläuft sich also auf rund 15 kJ (ich würde auch alles zwischen 5 und 30 glauben). Um auf die Fußabdruck-relevante Eingangsenergie zu kommen, muss das noch durch den Wirkungsgrad geteilt werden. Es ist nicht ganz einfach, das für den menschlichen Organismus anzugeben oder auch nur sinnvoll zu definieren[3], aber viel weniger als ein Drittel sollte bei keiner sinnvollen Methodik rauskommen. Damit würde ich gegen Berners-Lees 125 kJ/km eher 50 kJ/km setzen.

    „Equipment“ fürs Radfahren?

    Natürlich hängt diese Größe stark von Wind und Steigung ab und ein wenig von Reifendruck, Getriebe und so fort. Außerdem streite ich in solchen Fragen nie über einen Faktor zwei. Dennoch würde ich die Emissionen aus dem Essen bei Berners-Lee wegen „braucht weniger“ gleich mal mindestens halbieren[4].

    Aber das ist ohnehin nicht mein wirkliches Problem mit seinen Abschätzungen. Das nämlich ist das hier:

    All my figures include 50 g per mile to take into account the emissions that are embedded in the bike itself and all the equipment that is required to ride it safely.

    Im Klartext: bis zu 70% der veranschlagten Emissionen beim vegetarischen Betrieb sind bei Berners-Lee Fahrradherstellung und „Equipment“. Das „safely“ lässt schon Böses ahnen, und in der Tat ist in einer Fußnote zu „safely“ zu lesen:

    In our input–output model of the greenhouse gas footprint of U.K. industries (for the chapter entitled “Under 10 grams”), sports goods typically have a carbon intensity of around 250 g per pound’s worth of goods at retail prices. If we make the very broad assumption that cycling goods are typical of this, and if we say that Her Majesty’s Revenue and Customs (HMRC) is being roughly fair to reimburse you at 20p (31 cents) per mile for business travel on a bike, then we would need to add about 50 g CO2e per mile to take account of the wear and tear on your bike, your waterproof gear, lights, helmet, and so on.

    Zum Thema „safely“ und „helmet“ verweise ich auf meine Ausführungen von vor einem Jahr, und das Licht gehört nun wirklich zu einem vernünftigen Fahrrad und braucht daher keine separate Betrachtung. Aber entscheidender: Berners-Lee will hier etwas wie einen Euro alle vier Kilometer für Fahrrad und Ausrüstung ausgeben (zur Frage, was das mit CO₂ zu tun hat, vgl. diese Fußnote von neulich). Wenn ich konservativ annehme, dass ich 4000 Kilometer im Jahr fahre, müsste ich demnach rund 1000 Euro im Jahr für Fahrradkram ausgeben.

    Das ist rund eine Größenordnung daneben; mit dem neuen Hinterrad werden es in diesem Jahr zwar fast 300 Euro werden, aber die letzte Nabe hat doch immerhin sechs Jahre gehalten. Und vielleicht lerne ich aus dem Postmortem der alten Nabe genug, um die neue etwas länger am Laufen zu halten. Klar, wenn ihr regelmäßig neue Räder, Wurstpellen-Klamotten und Spezialschuhe kauft, wird Berners-Lees Rechnung gleich viel plausibler – aber das hat mit Fahrradfahren nicht mehr viel zu tun; das ist dann Sport.

    Für vernünftige AlltagsradlerInnen, die logischerweise Alltagsklamotten tragen und ihre Räder überschaubar warten (meines habe ich jetzt schon 22 Jahre unterm Hintern), würde ich die 30 g CO₂e auf den Kilometer von Berners-Lee aus Produktion und Zubehör eher so auf 5 g korrigieren wollen. Mit ebenfalls entsprechend korrigierten 10 g aus dem Essen wären wir dann bei 15 g/km – wobei ich keine Sekunde bestreite, dass Radeln als Sport eher bei den 100 g/km liegen könnte, die Berners-Lee veranschlagt.

    (Kaum) mehr als ein Epsilon

    Einzuräumen bleibt, dass die ganze Betrachtung ziemlich irrelevant ist für den CO₂-Fußabdruck eines Durchschnittsmenschen in der BRD: In Wahrheit habe ich mich vor allem über Berners-Lees Präsupposition geärgert, mensch brauche „Ausrüstung“ zum Fahrradfahren (mal vom Fahrrad abgesehen). Jedenfalls: Wer 4000 km fährt, wird mit meiner Schätzung in einem Jahr 60 kg CO₂e verursachen, mit Berners-Lee dann halt 400 kg. Beides verschwindet praktisch vollständig in den 8 Tonnen pro Jahr, die wir in der BRD gegenwärtig pro Kopf so zu bieten haben.

    Ob das ein starkes Argument ist, sich nicht um den Fußabdruck des Fahrrads zu kümmern, ist wieder eine andere Frage, denn für BewohnerInnen der Zentralafrikanischen Republik wäre selbst meine niedrige Schätzung mehr als eine Verdoppelung ihres Fußabdrucks, wenn die im Menschenstoffwechsel-Post zitierten Daten von Our World in Data irgendwie hinkommen sollten.

    Und deshalb: Liebt euer Fahrrad! Repariert es und recycelt dabei alte Bauteile. Schande über meine Faulheit bei der neuen Nexus, ihren Speichen und ihrer Felge.

    [1]Wenn sich wer über runtergefahrene Felgen bei einer Rücktrittnabe wundert: Da ich doch ziemlich viel in den Bergen (also, na ja, im Odenwald halt, will sagen eher so zwischen 100 und 600 Metern) unterwegs bin, habe ich auch ans Hinterrad eine Felgenbremse gebastelt, damit mir die Rücktrittbremse bei längeren Abfahrten nicht abraucht.
    [2]Ich verleihe hiermit feierlich den König Æþelbyrht-Preis für grässliche Alltags-Einheiten an „Kalorien pro Meile“.
    [3]Vgl. dazu diese Fußnote.
    [4]Warum das im Rahmen des menschlichen Stoffwechsels emittierte CO₂ nicht zählt, habe ich im November 2022 diskutiert. Es geht also wirklich nur um den Fußabdruck bei der Produktion der Nahrungsmittel, aus denen die 50 kJ kommen.
  • Das Verschwinden der Nacht in der Skulpturensammlung

    Eine Sternkarte von Pegasus und Andromeda, in der die Position des Andromeda-Nebels markiert ist.

    Für große Gefühle im September: Verpasst nicht, einen Blick auf den Andromedanebel zu werfen – es ist einfacher, als ihr vielleicht glaubt.

    Die Frankfurter Liebieghaus-Skulpturensammlung (Warnungen: Google Analytics, ohne Javascript kaputt, besonders bizarres Cookiebanner[1]) stellt Skulpturen aller Art aus. In diese Dauerausstellung ist derzeit in ziemlich origineller Weise eine Sonderausstellung mit dem farbigen Namen Maschinenraum der Götter eingeflochten. Diese will die Verbindung zwischen Kunst und Wissenschaft in etlichen Kulturen Eurasiens beleuchten. So kommt es, dass plötzlich Uhrmacherei aus dem goldenen Zeitalter des Islams vor stilistischen Erwägungen zu irgendwelchen christlich-atavistischen Pieta-Figuren diskutiert wird.

    Lobenswert finde ich auch das Bestreben, der irgendwie aus dem Zeitalter des Imperialismus in heutige Laienvorstellungen herübergeschwappten Erzählung entgegenzutreten, dass es Fortschritt grob im perkleischen Athen und bei uns seit der Renaissance gab, während ansonsten wegen römischer Dekadenz, finsterem Mittelalter und Nicht-Europa-Sein nicht viel los war. Allerdings lassen sich die KuratorInnen im antikolonialen Überschwang manchmal zu etwas kurzsichtigen Aussagen hinreißen, etwa, wenn sie über Keilschrifttäfelchen von ca. 2000 vdcE[2], die die Aussage des Satzes des Pythagoras enthalten (dürften) den entscheidenden Beitrag der griechischen Mathematik – die Idee des Beweises – unnötig kleinreden.

    Wenn Gründe wichtiger sind als Fehler

    Manchmal mag es auch nur etwas fachfremdes Sprachstolpern sein, beispielsweise beim an sich hinreißenden Modell des Riesensextanten in Ulug Begs Observatorium (kurz vor 1500 ndcE), wo es klingt, als sei dort die (Rate der) Änderung der Schiefe der Ekliptik bestimmt worden. Was Ulug Beg dazu gedacht hat, weiß ich nicht, aber wirklich bekannt ist die Samarkander Astronomie für die verblüffende Genauigkeit ihrer Bestimmung der Größe selbst. Das ganz zu recht: mit einem Detektor, der nur etwa 2 Bogenminuten auflösen kann (das menschliche Auge) eine Größe auf ein paar Bogensekunden genau zu bestimmen, ist bereits aufregend genug.

    Von solchen Kleinigkeiten hätte ich mich jedoch nicht an die Tastatur rufen lassen. Postwürdig fand ich erst die Beschriftung des Himmelglobus von ʿAbd ar-Raḥmān aṣ-Ṣūfī (im Westen – mir aber bisher auch nicht – eher als Azophi bekannt; wir sind jetzt ca. 950 ndcE), und zwar weniger wegen Fehlern als wegen der Gründe dieser Fehler:

    Ein fotografierter Text, in dem u.a. steht „die sogenannte Große Magellan'sche Wolke [...] und den Andromedanebel auf, zwei Galaxien des südlichen Sternenhimmels“

    Dass der_die KuratorIn den Andromedanebel auf den Südhimmel schiebt, ist ein Alarmzeichen für Menschen wie mich, die den Nachthimmel für ein schützenswertes Gut halten.

    Von einem dunklen Platz aus ist der Andromedanebel nämlich klar am Nordhimmel mit dem bloßen Auge zu sehen. Wer das Ding mal gesehen hat und vielleicht dazu erzählt bekam, dass die Photonen, die das Nebelfleckchen auf die Netzhaut zaubern, gut 2 Millionen Jahre unterwegs waren, dass es damit auch gleich das entfernteste Objekt ist, das Menschen ohne technische Unterstützung sehen können, wird den Andromedanebel, so bin ich überzeugt, nicht mehr vergessen. Wer ihn umgekehrt mit „sogenannt“ qualifiziert auf den Südhimmel packt, hat ihn wahrscheinlich noch nie im Himmelskontext gesehen.

    Das finde ich von der Naturbetrachtung her ebenso schade wie angesichts einer verpassten Chance, eine Kopfzahl auf der kosmischen Entfernungsleiter mitzubekommen: „Die nächste ordentlich große Galaxie ist 2.2 Millionen Lichtjahre von der Milchstraße weg“.

    Der Lichtverschmutzung ein wenig entkommen

    Aber leider haben wir praktisch unseren gesamten Lebensraum so beleuchtet, dass vermutlich viele Menschen noch nicht mal die Milchstraße mit eigenen Augen gesehen haben, geschweige denn den viel unauffälligeren Andromedanebel. Nennt mich einen Naturwissenschafts-Chauvinisten, aber ich halte das für eine Bildungslücke von nachgerade Homer'schen Ausmaßen.

    Die gute Nachricht ist: schon mit einem winzigen Fernglas ist der Andromeda-Nebel demnächst wieder auch aus etwas dunkleren Stadtstandorten (ein Friedhof müsste reichen) zu sehen, wenn es mal etwas aufklart. Dazu habe ich mit dem großartigen Stellarium die Suchkarte oben gebastelt, die den Anblick Ende September gegen zehn Uhr (Sommerzeit) am Abend wiedergibt, wenn ihr grob nach Osten schaut. Das große Viereck des Pegasus könnt ihr am realen Himmel nicht übersehen, und wenn ihr das habt, ist der sich nach links erstreckende Anhang der Andromeda mit den paar nach oben strebenden Sternen nicht zu verfehlen (die Richtungen beziehen sich auf die Abendsichtbarkeit).

    Peilt mit eurem Fernglas den obersten Stern der aufstrebenden Sternkette an und sucht (bei höheren Vergrößerungen; bei niedriger Vergrößerung habt ihr den Nebel direkt im Blick) dann etwas rum. Der Andromeda-Nebel ist nicht zu übersehen. Wenn euch das noch nicht ergreift, dann macht euch nochmal klar, dass auf eurer Netzhaut gerade Photonen platzen, die das letzte Mal mit Materie interagiert haben, als der Homo Erectus sich gerade irgendwie aus dem Stammgestrüpp des Menschen herauswand.

    Wo ihr dann schon mit einem Fernglas unter dem Herbsthimmel draußen seid, haltet weiter Ausschau nach dem Perseus – das ist ein Sternbild, das ein wenig aussieht wie ein π. Darin befindet sich – leicht durch Absuchen in Streifen findbar – der wunderschöne Doppel-Sternhaufen h und χ Persei, der mit bloßem Auge schon bei nur schwacher Lichtverschmutzung sichtbar (ihr würdet indirekt blicken müssen) ist, im Fernglas aber auch innerorts klasse aussieht. Klar, kein bisschen so bunt wie das, was die Presseabteilungen von NASA und ESA unter die Leute bringen – aber in einer ganz eigenen Art vielleicht noch aufregender.

    Fehlende Daten aus dem Süden?

    Der dunkelheitsvergessene Text der Liebieg-KuratorInnen stand übrigens bei einem schimmernden Himmelsglobus, zu dem es weiter hieß: „Fuat Sezgin und dem Frankfurter Institut für Geschichte der Arabisch-Islamischen Wissenschaften ist der Nachbau des Himmelsglobus des ʿAbd ar-Raḥmān al-Ṣūfī gelungen.“ Ich würde auch da leise Zweifel anmelden: Das überlieferte Werk von al-Ṣūfī ist ein Himmelsatlas mit flach projizierten Karten, und eine oberflächliche Recherche hat nichts von einem Globus aus seinem Umfeld erbracht, der hätte „nachgebaut“ werden können. Und wenn er wirklich einen gebaut hat, wäre der fast sicher nicht im „material design“ metallschimmernd gewesen, sondern zeittypisch kunterbunt.

    Aber sei es drum – wirklich spannend im Hinblick auf das, was wir Magellanische Wolken nennen, ist die Südpolkappe, die bei den Liebiegs so aussieht:

    Schimmernder Südpol eines Messing-Himmelsglobus mit eingelegten silberfarbenen Sternen.  Auf ca. 10 Grad um den Südpol herum befinden sich keine Sterne.

    Bemerkenswert dabei finde ich, dass al-Ṣūfī offenbar keine Daten für die südlichsten, sagen wir, zehn Grad des Himmels hatte – denn natürlich gibt es auch in der auf dem Globus leeren Zone Sterne. Um diese beobachten zu können, müsste mensch sich aber etwas südlich vom Äquator befinden, denn es ist selbst bei guten Bedingungen – die in den Tropen fast überall rar sind – sehr schwer, in der Nähe des Horizonts nützliche Sternbeobachtungen anzustellen. Nun ist zur Geschichte des Sansibar-Archipels (auf fast sieben Grad Süd) in der Wikipedia zu lesen:

    Als die ersten Besucher gelten arabische Händler, die im 8. Jahrhundert die Insel bereisten. […] Schon im 10. Jahrhundert hatten Araber Niederlassungen in der Region gegründet, die sich zu blühenden Republiken entwickelten.

    Arabische Reisende waren also zu al-Ṣūfīs Zeiten schon weit genug im Süden gewesen, und da sie Seefahrende waren, konnten sie vermutlich Sterne vermessen. Ich wäre neugierig, ob bekannt ist, warum ihre Erkenntnisse nicht in al-Ṣūfīs Sternkarten eingeflossen sind.

    So eine Frage, das gestehe ich gerne zu, ist vielleicht doch zu nerdig für ein Museum dieser Art. Die bei aller Mäkelei an Details sehr sehenswerte Ausstellung bei den Liebiegs ist noch bis zum 24.1.2024 zu sehen.

    Der unvermeidliche Bahn-Rant

    Abschließend: Wer in Frankfurt wohnt, mag vermuten, dass ich mit dieser Geschichte zu einer Ausstellung, die schon seit März läuft, ausgerechnet jetzt komme, weil ich das Museumsufer-Fest zum Besuch einzeln vielleicht nicht ganz so attraktiver Museen genutzt habe. Das stimmt. Dieses Geständnis gibt mir Anlass zu einem Mikrorant gegen die Bahn: An drei Tagen hintereinander war die jeweils von mir angestrebte Ausgabe des RE 60 von Frankfurt nach Süden durchweg ein schlimmer Schmerz.

    Am Freitag fiel er ganz aus, am Samstag veranstaltete die Bahn neben der quasi obligatorischen Verspätung von 30 Minuten in Weinheim ein munteres Bahnsteighopping in Frankfurt von 11 auf 13 auf 12, am Sonntag schließlich war die davor auf der Strecke fahrende Regionalbahn ausgefallen und deshalb der RE knallvoll.

    Mein Beileid denen, die sich als Beschäftigte in diesem Laden abkämpfen. Ich hätte längst sieben Nervenzusammenbrüche erlitten, wenn ich das alles organisieren müsste – und wäre nach der Reha Vollzeit in den Kampf um eine Rückkehr der BeamtInnenbahn eingestiegen.

    [1]Wo ich schon über Techno-Murks jammere: Dass die Audiokommentare zur Ausstellung weggeschlossen sind in einer „App“, die Rootzugriff für Apple oder Google voraussetzt statt (zumindest auch) über die Webseite zugänglich zu sein: das ist auch doof.
    [2]Vgl. diese Fußnote
  • Die „Klima Arena“ in Sinsheim

    Interessant beleuchteter Museums-Innenraum mit ein paar Menschen und einem Themenglobus

    Es leuchtet und schimmert viel im Inneren der Hopp'schen „Klima Arena”. Der Themenglobus hat mir aber durchaus noch das eine oder andere beigebracht.

    Seit heute bin ich Inhaber eines Museumspasses und werde also in den nächsten 12 Monaten einige Museen in der weiteren Umgebung des Oberrheingrabens erkunden. Den Anfang machte heute (vielleicht relativ bescheiden angesichts der Konkurrenz) die „Klima Arena“ (jaja, Deppenleerzeichen. Ich kann nichts dafür), die sich in der Sinsheimer Hopp-Vorstadt befindet, also grob neben dem Stadion des lokalen Männerfußball-Bundesligavereins.

    Und so gleich mal ein heißer Tipp: Wenn ihr da hinwollt und es gerade beqeuem ist, steigt an der S-Bahn-Station Sinsheim-Arena aus. Das ist vielleicht etwas weiter als vom Hauptbahnhof aus, aber dafür bekommt ihr eine hautnahe Einführung in den Mobilitätsteil der Klimafrage, zunächst mit dem Technikmuseum und seinen glücklicherweise stillgelegten Überschalljets, dann durch die A6 und schließlich durch endlose Wege über Parkplätze für Fußballfans und SchwimmbadnutzerInnen, die, ihren Nummernschildern nach zu urteilen, teils über 100 km angefahren waren.

    Blick durch ein Gitter auf eine helle Beleuchtung eines Stadionrasens

    Die Wanderung zur „Klima Arena“ zeigt eine besonders bizarre Energieverschwendung: Hopps Fußballclub beleuchtet aus irgendwelchen Gründen seinen Rasen.

    Wie schon angedeutet: Hinter der „Klima Arena“ steckt Dietmar Hopp, der durch die Warenwirtschafts-Software von SAP reich geworden ist. Da vieles dafür spricht, dass SAP das Bruttosozialprodukt deutlich gedrückt hat (Beispiel), ist die Kombination aus Klimaschutz und Computerspielen vielleicht weniger exotisch als mensch meinen könnte.

    Dennoch überrascht nicht, dass sich die „Klima Arena“ schwer tut mit der Ansage, dass weniger Arbeit und auch dringend weniger Produktion der einzig aussichtsreiche und vernünftige Weg zu Klimaschutz ist; an eine auch nur beiläufige Erwähnung des Wortes „Kapitalismus“ in den zahlreichen Texten kann ich mich nicht erinnern. Ebenso erwartbarerweise ist alles voll mit großen Monitoren und Beamern, die zusammen gewiss den Strom eines mittleren Windrades schlucken werden. Klar spielt da die Verheißung von Wundertechniken eine erhebliche Rolle in verschiedenen Exponaten.

    Augenrollen lässt sich auch nicht vermeiden, wenn allerlei offensichtlich gescheiterte Politiken kritiklos dargestellt werden. Ein recht optimistisches Klimamodell etwa wird eingeführt mit diesem Text:

    Alle übrigen Treibhausgase verschwinden in gleichem Maße wie Kohlendioxid, da auch für sie Strafzahlungen geleistet werden müssen.

    Ganz falsch ist so eine Erwartung paralleler Entwicklungen von CO₂ und anderen Treibhausgasen nicht. Nur hat der Emissionshandel schon beim Kohlendioxid nicht für „Verschwinden“ gesorgt. Es hat noch nicht mal für eine erkennbare Verlangsamung der galloppierenden Zunahme gereicht in den Jahren seit Kyoto (1997: ca 23 Gt/yr; aktuell: um die 35 Gt/yr). Wie das Montreal-Protokoll zeigt, geht sowas durchaus auch anders, wenn mensch nicht auf einen Mumpitz wie Emissionshandel, sondern auf klare Regulierung setzt (und allen Göttern sei dank, denn ansonsten würden wir jetzt alle ein Abo auf Sonnencreme mit Lichtschutzfaktor 50 brauchen).

    Andererseits muss mensch nicht lange auf den interaktiven Videowänden rumtatschen, bevor mensch mit dem Rebound-Effekt bekannt gemacht wird (also: wenn wir effektivere Motoren bauen, verstärken wir die Panzerung der Autos und bauen Klimaanlagen ein, so dass wir am Schluss mehr statt weniger Sprit verschleudern). Eigentlich sollte sich danach all die Spekulation über technologische Wunder erledigt haben. Und wirklich spricht die „Klima Arena“ netto deutlich mehr über saisonales und regionales Essen als über Elektro-Flugtaxis.

    Tatsächlich habe ich ein paar Dinge gelernt, so etwa die Kopfzahl, dass ein Atomkraftwerk wie Phillipsburg I rund eine halbe Megatonne wiegt (und mithin auch so viel Krempel weggeschafft werden muss bis zur „grünen Wiese“). Mit der Kopfzahl 25 Tonnen pro Standardcontainer kann mensch abschätzen, dass rund 20'000 solche Dinger gebraucht würden, um den Schutt wegzuschaffen und zu lagern. Oder auch: ein AKW entspricht mengenmäßig dem Schwefeldioxid, das bei der Explosion des Hunga Tonga Hunga Ha'apai freigesetzt wurde (vgl).

    Ausschnitt eines Themen-Globus mit Ackerland-Bedeckung: die südliche Sahel-Zone ist sehr rot.

    An dem großartigen Globus, auf den mensch so circa 50 verschiedene Themenkarten projizieren und manipulieren kann, habe ich gelernt (vgl. Bild), dass im Süden der Sahelzone, im Norden von Nigeria eine Region äußerst dichten Ackerbaus liegt, so in etwa vergleichbar mit der Poebene. Ich hatte mir da bisher immer eher eine karge Steppe mit ein paar graszupfenden Ziegen vorgestellt. Was der Klimawandel dort anrichten wird, will mensch sich gar nicht vorstellen.

    Während mich der Globus hinriss, fand ich den „immersiven“ Film über eine Reise zum kaputten Amazonas-Regenwald im Jahr 2100 (oder so) in einer als Eisberg verkleideten Röhre aus vielleicht 100 großen Monitoren und Fußbodenrüttlern eher albern. Gewiss, die Kontrastierung von beeindruckenden Waldaufnahmen der Gegenwart mit einer simulierten Einöde nach dem Klimawandel mag das eine oder andere Herz rühren. Aber das Verhältnis von technischem Aufwand zu inhaltlichem Ertrag wirkt schon sehr dürftig.

    Das gilt noch mehr für ein in die Handlung reingezwungenes albernes Spielchen um eine Bruchlandung in Cape Canavaral (inklusive Palmen im Salzwasser). Wenn ihr keinen Wert auf Cringe legt oder enttäuscht wärt, wenn bei all dem Technik-Verheiz immer noch Tearing auf den Monitoren zu sehen ist: Spart euch diesen Teil der Ausstellung vielleicht eher.

    Während der Immersionstunnel noch als Folge von Ansagen des Hauptsponsors Richtung „macht mal ordentlich was mit Technik” durchgeht, fand ich einige völlig danebengegangene Visualisierungen unerklärlich. Hier zum Beispiel sollen die drastisch verschiedenen Wassermengen illustriert werden, die für die Produktion verschiedener Gemüse draufgehen:

    Foto von tropfenförmigen Gewisten mit Zahlen von 8 bis 1256 drauf, wobei die 8 vielleicht halb so groß ist wie die 1256.

    Zwischen acht und 1256 Litern liegt ein Faktor 150, und es ist für viele Menschen schon nicht einfach, sich klar zu machen, was das bedeutet (es ist so in etwa das Verhältnis zwischen dem Einkommen einer Putzkraft und eines Vorstandes in einem modernen Unternehmen…). Da hilft es nichts, wenn die Tropfen alle ungefähr gleich groß sind – das ist, im Gegenteil (sicher nicht beabsichtigte) Irreführung.

    Dieser Vorwurf geht tatsächlich eher an die noch von Theo Waigel ins Leben gerufene Deutsche Bundesstiftung Umwelt, in deren Sonderausstellung zu „planetaren Leitplanken“ dieses Exponat lag. Aber auch die Stammausstellung macht das nicht besser. Seht euch diese Visualisierung der Emissionen verschiedener Verkehrsträger pro Personenkilometer an:

    Übereinandergeschraubte Radreifen von Fernbus, Eisenbahn, Elektroauto, mit daraufgeschriebenen spezifischen Emissionen, die nichts mit der Größe der Räder zu tun haben.

    Es ist ja ein lustiger Gag, die (Rad-) Reifen verschiedener Verkehrsträger ins Museum zu stellen, aber wenn dabei 21 g/Pkm (der Fernbus, ganz unten) gigantisch groß aussiehen und 62 g/Pkm (das Elektroauto, 2. von oben) ziemlich klein, dann klappt das nur, wenn mensch viel Vertrauen in die Urteilskraft des Publikums hat. Und in dem Fall bräuchte es keine Museumspädagogik.

    Demgegenüber nimmt die Museumsgastronomie Thema und auch Nachricht der „Klima Arena” auf und ist immerhin ganz vegetarisch, wenn auch von den (in der Ausstellung durchaus empfohlenen) „regional und saisonal“ nicht viel zu schmecken war.

    Weniger zur Nachricht der Einrichtung passt, dass, wer sich den garstigen Anmarsch sparen und Bus fahren will, gut planen muss. Zumindest von der „Arena“ zum Hauptbahnhof zurück fährt zum Beispiel nichts zwischen 13:04 und 16:03. Dafür fährt gleich nach Museumsschluss um 17:00 ein Bus in ein paar Minuten zum Sinsheimer Bahnhof, wo schon der Zug nach Heidelberg steht. Insofern ist schon bemerkenswert, dass wir die einzigen waren, die diesen Weg gewählt haben. Also: das Thema der Ausstellung bedenkend, jetzt.

  • Spatzen sehen den Mond als Fleck

    Ein etwas bedröppelt aussehender grüner Papagei mit langen Schwanzfedern.

    Dieser Halsbandsittich sieht so mitgenommen aus, weil es regnet, nicht, weil er mit Glas kollidiert ist.

    Eine Hochrechnung der Staatlichen Vogelschutzwarten in Deutschland hat ergeben, dass jährlich alleine in diesem Land ca. 100–115 Millionen Vögel an Glas verunglücken. Das sind über 5 % aller Vogelindividuen, die in Deutschland im Jahresverlauf vorkommen.

    Dieses Zitat kommt aus der Broschüre „Vogelfreundliches Bauen mit Glas und Licht” der Schweizerischen Vogelwarte Sempach[1], die vor ein paar Tagen auf der Webseite des BUND erschienen ist. Meine erste Reaktion war: „Das kann nicht sein“. Aber andererseits: Ich habe auch schon mehrfach gehört, wie Vögel gegen Fensterscheiben geprallt sind, zum Teil auch gesehen, wie sie sich dann zusammengerappelt haben – oder eben auch nicht.

    Wenn ich alle drei Jahre Zeuge eines Vogel-Glas-Unfalls bin, gut zwei Drittel davon ohne ZeugInnen ablaufen (plausibel: der durchschnittliche befensterte Raum ist bestimmt weniger als ein Drittel der Zeit bemenscht) und ich relativ typisch bin, dann gibt es in der Tat ungefähr einen Vogelunfall pro BürgerIn, und das sind halt so um die hundert Millionen.

    Oh, Grusel. Lest euch die Broschüre mal durch (Trigger Warning: Bilder von verunglückten Tieren). Ich suche gleich mal nach wetterfesten, selbstklebenden Punkten von mindestens neun Millimeter Durchmesser, mit denen ich zumindest die Balkontür an meinem Arbeitsplatz (wo es wirklich viele Vögel gibt) markieren kann. Spoiler: hinreichend dicht und an die Außenseite geklebt, helfen die Vögeln zuverlässig, das Glas zu vermeiden.

    Kein Fall für die Ethikkommission

    Schön an der Broschüre finde ich, dass sie recht sorgfältig erklärt, wie mensch eigentlich misst, ob eine bestimmte Sorte Markierung an Glasscheiben die Vögel wirklich abhält (z.B. weiße oder schwarze Klebepunkte) oder nicht (z.B. die Greifvogelsilhoutten oder Kram, der nur im Ultravioletten sichtbar ist). Dazu beschreiben sie ein Flugtunnel-Experiment, bei dem Vögel aus einem Beringungsprojekt nicht direkt wieder freigelassen werden, sondern zunächst in einen ein paar Meter langen dunklen Raum mit einem großen, hellen Ausgang gesetzt werden. Vögel fliegen in so einer Situation sehr zuverlässig zum Licht.

    Am hellen Ende des Tunnels sind nun zwei Glasscheiben angebracht, eine konventionelle und eine markierte. Wenn die Vögel halbwegs zuverlässig die markierte Seite meiden, ist die Markierung glaubhaft wirksam. Aber natürlich will mensch die Vögel, die vom Beringen eh schon gestresst sind, nicht noch gegen eine Glasscheibe krachen lassen, weshalb es ein für Vögel unsichtbares Sicherheitsnetz gibt, das sie (relativ) sanft abhält. Und dann dürfen sie auch gleich weiterfliegen.

    Ich finde das ein bemerkenswert gut designtes Experiment, weil es auf Dauer mit untrainierten Wildvögeln arbeitet, also genau mit der Population, um die es in der Realität auch geht. Und im Vergleich zur Beringung ist die zusätzliche Belastung der Tiere durch das kurze und vergleichsweise naturnahe Tunnelexperiment vernachlässigbar. Gut: Mensch mag über die Beringung als solche diskutieren – aber da halte ich mich zurück.

    Ganz besonders begeistern mich Beschreibungen von Experimenten zudem, wenn systematische Fehler von Vorgängerexperimenten besprochen werden. In diesem Fall etwa war eine Systematik, dass Vögel am Vormittag deutlich lieber die linke Scheibe wählten und am Nachmittag deutlich lieber die rechte. Die Erklärung: die Vögel wollten nicht aus dem dunklen Tunnel in die Sonne hineinfliegen (auch wenn sie nach dem Beringen gleich in den Tunnel gelassen wurden, also noch helladaptiert waren). Deshalb bogen sie am Vormittag lieber nach Westen, am Nachmittag lieber nach Osten ab – was natürlich die Wirksamkeitsmessung ganz furchtbar störte.

    Die Lösung des aktuellen Experiments, um diese Systematik zu vermeiden: Der ganze Tunnel ist drehbar montiert und wird der Sonne nachgeführt. Wow.

    Scharfsichtigkeiten

    Die Broschüre war für mich auch Anlass, mich einiger Kopfzahlen zu bedienen. So zitiert sie etwa aus Martin, G. (2017): The sensory ecology of birds, das

    Auflösungsvermögen des menschlichen Auges [sei] etwa doppelt so hoch wie das eines Turmfalken, vier Mal höher als das einer Taube und 14-mal so hoch wie das eines Haussperlings.
    Ein männlicher Sperling sitzt auf der Strebe eines Biergartenstuhls und blickt seitlich an der Kamera vorbei.

    Was er wohl über den Mond denkt? Ein Spatz im Berliner Botanischen Garten, 2008.

    Um das einzuordnen, habe ich mich erinnert, dass ein normalsichtiges menschliches Auge zwei Bogenminuten auflöst[2], und um eine Vorstellung zu bekommen, was wohl zwei Bogenminuten seien, ist die Ur-Kopfzahl für Winkel gut: Mond und Sonne sind jeweils etwa dreißig Bogenminuten (oder ein halbes Grad)[3] groß. Wenn also so ein Spatz etwa fünfzehn Mal schlechter auflöst als der Mensch, ist für ihn der Mond nur so ein heller, unstrukturierter Punkt. Today I learned…

    Will ich lieber fliegen oder lieber den Mond wie gewohnt sehen können? Hm.

    Fledermäuse und Lichtverschmutzung

    Erfreulich aus AstronomInnensicht ist der Exkurs zur Lichtverschmutzung mit einem Punkt, den ich noch gar nicht auf dem Schirm hatte:

    Fledermäuse meiden die Helligkeit, weil sie sonst leicht von Beutegreifern wie Greifvögeln und Eulen gesehen werden können. Besonders problematisch ist das Beleuchten der Ausflugöffnungen von Fledermausquartieren, wie sie beispielsweise in Kirchendachstühlen zu finden sind. Dies erschwert den Tieren den Ausflug aus den Quartieren und verringert damit die Zeit der aktiven Nahrungssuche, was wiederum den Fortpflanzungserfolg vermindern kann.

    Ich weiß nicht, wie lange das schon bekannt ist. Wenn das jetzt nicht brandneue Ergebnisse sind, bekomme ich schon wieder schlechte Laune, weil die Kirchenturmilluminationen, auf die für Fledermäuse offenbar nicht verzichtet werden konnte, im Herbst 2022 aus patriotischen Gründen plötzlich doch abgeschaltet werden konnten. Hmpf.

    Der ganze Werbe- und Touriklimbim ist übrigens alles andere als im Mittel vernachlässigbar. Nochmal die Vogelwarten-Broschüre:

    Eine Untersuchung der Wiener Umweltanwaltschaft hat gezeigt, dass in Wien 2011 zwei Drittel der Lichtverschmutzung von Schaufensterbeleuchtungen, Anstrahlungen und anderen Effektbeleuchtungen und nur ein Drittel von der öffentlichen Beleuchtung verursacht wurden, obwohl letztere zwei Drittel der Lichtpunkte betreibt.

    Ich stelle unter Verweis auf meinen Rant gegen die Dauerbeflimmerung schon wieder fest: Vernünftiges Konsumverhalten ist eigentlich selten Verzicht. Es ist viel öfter Befreiung von Mist, der den Nutzenden oder jedenfalls anderen Tieren (häufig übrigens der eigenen Spezies) das Leben eh nur schwer macht.

    Nachtrag (2023-02-13)

    Ich hätte vielleicht gleich sagen sollen, dass ich auf die Broschüre durch einen Artikel im BUNDmagazin 1/2023 aufmerksam geworden bin. Ein paar Seiten weiter hinten steht da eine Ergänzung zum Thema schlechte Laune, denn in der Tat hat Baden-Württemberg offenbar seit 2020 ein recht durchgreifendes Beleuchtungsrecht in §21 Naturschutzgesetz, in dem zum Beispiel drinsteht:

    Es ist im Zeitraum

    1. vom 1. April bis zum 30. September ganztägig und
    2. vom 1. Oktober bis zum 31. März in den Stunden von 22 Uhr bis 6 Uhr

    verboten, die Fassaden baulicher Anlagen der öffentlichen Hand zu beleuchten, soweit dies nicht aus Gründen der öffentlichen Sicherheit erforderlich oder durch oder auf Grund einer Rechtsvorschrift vorgeschrieben ist.

    oder gar:

    Werbeanlagen sind im Außenbereich unzulässig. Unzulässig sind auch Himmelsstrahler und Einrichtungen mit ähnlicher Wirkung, die in der freien Landschaft störend in Erscheinung treten.

    Naturschutzrecht ist offenbar ein wenig wie Datenschutzrecht. Mensch staunt regelmäßig über die Dissonanz zwischen Recht und Praxis – nicht zuletzt, weil es dann doch immer allerlei interessante Ausnahmen gibt, im Fall von §21 NatSchG vor allem Artikel 5.

    Kopfzahlen: Beleuchtungsstärken

    Während ich bei den Scharfsichtigkeiten mit Kopfzahlen auskam, die ich schon parat hatte, sammele ich die zu Beleuchtungsstärken jetzt gerade aus der Broschüre (die sie wiederum aus der Wikipedia hat). Die Beleuchtungsstärke ist dabei ein Maß, wie viel Licht pro Flächeneinheit auftrifft. Es ist nicht falsch, sich vorzustellen, dass sie misst, wie hell ein Stück Papier wirkt, wenn ihr es in dem entsprechenden Licht anguckt.

    Und da will ich mir merken: An einem Sommertag draußen ist die Beleuchtungsstärke 90'000 Lux; ein ordentlich ausgeleuchtetes Büro („Pfui, ist das ungemütlich“) hat nur ein verblüffendes halbes Prozent davon (also etwa 500 Lux), ein fernsehgerechter Wohnraum („endlich keine doofe Arbeit mehr”) gar nur ein halbes Promille.

    Zu bedenken ist dabei allerdings, dass unsere Helligkeitswahrnehmung, wie fast alle unsere Sinne, logarithmisch funktioniert. Die Wahrnehmung von Intensitäten geht also wie der Logarithmus der einkommenden Energie (vgl. etwa Dezibel). Mithin wäre es vielleicht sinnvoller, sich 5 (plusminus der dekadische Logarithmus von 90'000), 2.5 (Büro) und 1.5 (Wohnraum) zu merken. Andererseits ist diese Sorte von Kopfzahl vielleicht auch relevanter, wenn mensch abschätzen will, ob – sagen wir – ein Solarlader was tun wird oder nicht. Sowas geht aber bei unverändertem Spektrum weitgehend linear mit der einkommenden Energie.

    Bei genaueren Betrachtungen sind photometrische Einheiten übrigens immer ein Graus – als Astronom könnte ich davon viele Lieder singen, von Jansky, AB-Magnituden (gibts noch nicht in der deutschen Wikipedia) versus Vega-Magnituden (gibts noch nicht mal in der englischen Wikipedia) und vielem mehr. Immerhin kann ich mir traditionell merken, dass ein ordentlicher Beamer für Besprechungsräume 2000 Lumen Lichtstrom erzeugt. Dieser Lichtstrom ist so in etwa ein Maß dafür, wie viele Photonen (bei gegebener Frequenz und damit Energie pro Photon) pro Zeiteinheit aus so einer Lampe kommen[4]. Und ich kann mir gerade noch so merken, dass

    1  lux = (1  lm)/(1 m2)

    ist. Wenn ihr ein wenig rechnet, heißt das: Damit ein A5-Blatt (faul idealisiert auf 15 mal 15 Zentimeter) genauso hell scheint wie im Sommersonnenschein, braucht ihr das ganze Licht eines ordentlichen Beamers auf diesem Stück Papier. Das hätte ich per Bauchgefühl ganz anders geschätzt.

    Noch was gelernt heute.

    [1]Schweizer Provenienz heißt auch: Nicht ein blödes scharfes s im ganzen Text. Fantastisch! Können wir dießen Quatsch hier auch abschaffen?
    [2]Die englische Wikipedia …
  • Neun Monate Umwelt-CO₂, Teil II: Hochpass, Tiefpass, Spektrum

    Eher wolkiges grünes Wabern mit der Zeit auf der Abszisse und Frequenzen von 1/3 bis 3 pro Tag auf der Ordinate.  Dann und wann sind Strukturen bei ganzzahligen Frequenzen erkennbar.

    Am Ende des Posts verrate ich, welche Bewandnis es mit diesem hübschen, nachgerade frühlingshaften Muster hat. Und auch, wie mensch sowas selbst macht.

    Ich habe letztes Jahr neun Monate lang CO₂-Konzentrationen auf meinem Balkon gemessen, in der Hoffnung, ein wenig hinter die Gründe für die doch überraschend großen Konzentrationsschwankungen zu kommen, für die ich bei einer ersten Messung im November 2021 nur sehr spekulative Erklärungen gefunden habe (Stand Februar vor allem: die lokale Heizung und eventuell das Kraftwerk in Rheinau oder die Chemiefabriken in Ladenburg oder Ludwigshafen). Ich habe dann neulich an der Kalibration der Daten gespielt und bin zum Schluss gekommen, dass sie nach Maßstäben von KonsumentInnenelektronik recht ordentlich sein dürften.

    Jetzt möchte ich ein wenig in den Daten rumfummeln. „Explorative Datenanalyse“ nennen das Leute, die das mit dem Fummeln nicht zugeben wollen, und in der ernsthaften Wissenschaft wird zurecht etwas die Nase gerümpft, wenn jemand sowas macht: Es stecken in jedem hinreichend großen Datensatz fast beliebig viele Korrelationen, und wer sie sucht, wird sie auch finden. Leider sind (fast) alle davon Eigenschaften des Datensatzes bzw. der Messung, nicht aber des untersuchten Gegenstands.

    Andererseits: Ohne Induktion (was in normale Sprache übersetzt „Rumspielen, bis mensch einen Einfall hat“ heißt) gibt es, da muss ich Karl Popper ganz heftig widersprechen, keine Erkenntnis, und Deduktion kann mensch nachher immer noch machen (also, ich jetzt nicht, weil das hier mein Freizeitvergnügen ist und keine Wissenschaft).

    Erstmal glätten

    Meine ganz große Enttäuschung mit dem Datensatz war ja, dass sich fast kein Jahreszeiteneffekt gezeigt hat; natürlich werde ich hier, mitten im dichtbesiedelten Oberrheingraben, kein so hübsches Signal bekommen wie die Leute mit der klassischen Messung am Mauna Loa – davon, dass ich eine Schwingung von ein paar ppm nachvollziehen könnte, ganz zu schweigen. Aber ich hatte im September 2021 unter 300 ppm gemessen, während es im Herbst auf die global eher aktuellen 400 bis 500 ppm hochging. Ich hatte gehofft, den Weg zurück zu den 300 ppm im Laufe des Sommers beobachten zu können. Doch leider ist in den (Roh-) Daten erstmal nur Gekrakel:

    Plot: Kurve, die fast immer zwischen 400 und 500 ppm zittert. Auf der Abszisse die Zeit zwischen Ende Dezember 2021 und Mitte September 2022.

    Wenn in einem Datensatz nur Gekrakel ist, es aber einen langfristigen Effekt geben soll, hilft oft Glätten. Dabei ersetzt mensch jeden Punkt durch einen geeignet gebildeten Mittelwert über eine größere Umgebung dieses Punktes, wodurch kurzfristiges Gewackel wie in meinen Rohdaten stark unterdrückt wird und die langfristigen Trends besser sichtbar werden sollte. Es gibt noch einen zweiten Gewinn: Mensch kann das so gewonnene Mittel von den Daten abziehen und hat sozusagen destilliertes Gewackel (den „hochfrequenten Anteil“), der auf diese Weise auch ein klareres Signal zeigen mag.

    Im einfachsten Fall lässt sich so eine Glättung in ein paar Zeilen Python schreiben, und das auch noch relativ effizient als gleitendes Mittel unter Verwendung einer zweiendigen Queue aus Pythons großartigem Collections-Modul: Um das Mittel zu berechnen, addiere ich auf einen Akkumulator, und das, was ich da addiere, muss ich wieder abziehen, wenn der entsprechende Wert aus dem Fenster rausläuft. Dazu gibts noch die Subtilität, dass ich Zeit und Konzentration in der Mitte des Fensters zurückgeben will. Das führt auf so eine Funktion:

    def iter_naively_smoothed(in_file, smooth_over):
        queue = collections.deque()
        accum = 0
    
        for time, co2 in iter_co2(in_file):
            queue.append((time, co2))
            accum += co2
            while time-queue[0][0]>smooth_over:
                _, old = queue.popleft()
                accum -= old
            time, base_co2 = queue[len(queue)//2]
            yield time, accum/len(queue), base_co2-accum/len(queue)
    

    Als Plot sehen die über drei Tage[1] geglättete Konzentrationskurve und die Residuen so aus:

    Zwei Kurven, oben eine wellige Linie (die geglättete Kurve), unten eine sehr zackige Punktwolke.

    Die Ränder, vor allem der linke, sind dabei mit Vorsicht zu genießen, da dort fast nichts geglättet ist; die Funktion ist so geschrieben, dass dort die Fenster klein sind. So oder so: auch die geglättete Kurve hat keine nennenswerte Tendenz. Allenfalls die beiden großen Ausschläge bei den Tagen 80 und 110 könnten ein Signal sein.

    Zeitrechnungen

    „Tag 80” ist jetzt keine wirklich intuitive Angabe, aber ich wollte in den Plots nicht mit läsitgen Kalenderdaten operieren. Für die Interpretation wären sie jedoch schon ganz gut. Wie komme ich von Messtag auf ein bürgerliches Datum?

    Die Daten kommen original mit Unix-Timestamps, also der Zahl der Sekunden seit dem 1.1.1970, 0:00 Uhr UTC, und sie fangen mit 1640612194 an. Um ausgehend davon bürgerliche Daten auszurechnen, muss mensch wissen, dass ein Tag 86400 Sekunden hat. Pythons datetime-Modul liefert dann:

    >>> import datetime
    >>> datetime.datetime.fromtimestamp(1640612194+80*86400)
    datetime.datetime(2022, 3, 17, 14, 36, 34)
    >>> datetime.datetime.fromtimestamp(1640612194+110*86400)
    datetime.datetime(2022, 4, 16, 15, 36, 34)
    

    Mitte März und Mitte April ist also möglicherweise was Interessantes passiert. Da gucke ich nochmal drauf, wenn ich demnächst Wetterdaten einbeziehe.

    Die andere Seite, die Residuen, kann ich für eine saubere Fassung des Tagesplots aus Teil 1 verwenden. Weil längerfristige Schwankungen bei ihnen rausgerechnet sind, sollte ein regelmäßiger Tagesgang in den Residuen deutlicher herauskommen als im ganzen Signal. Dazu nehme ich wieder den Rest bei der Division durch 86400 (siehe oben), und die Warnungen wegen Zeitzonen aus dem Kalibrationspost gelten immer noch.

    Ein Dichteplot, der im Groben flach verläuft, aber zwischen 10'000 und 25'000 Sekunden auf der Abszisse deutlich fransig ist.

    Dass da „am Morgen” (15000 Sekunden sind etwa 4:15 Uhr UTC, also 5:15 MEZ und 6:15 MESZ) irgendwas passiert, dürfte ein robustes Signal sein, und es kommt ohne die niederfrequenten Signale deutlich besser raus. Mit etwas Wohlwollen könnte mensch vielleicht sogar zwei Berge im Abstand von einer Stunde sehen, was dann Normal- und Sommerzeit entspräche. Da der Sensor nicht weit von der Bundesstraße 3 stand, liegt als Erklärung zunächst Berufs- und Pendelverkehr nahe.

    Wenn der Tagesgang tatsächlich mit dem Berufsverkehr am Morgen zu tun hat, müsste sich eigentlich ein Signal im Wochenrhythmus zeigen, denn zumindest Sonntags ist es hier am Morgen deutlich ruhiger als an Werktagen. Die Projektion auf die Woche ist einfach: Statt den Rest bei der Division durch 86'400 nehme ich jetzt den Rest bei der Division durch 604'800, die Zahl der Sekunden in einer Woche. Das Ergebnis zeigt, vielleicht etwas überraschend, das Tagessignal eher deutlicher; ein Wochensignal hingegen ist weniger überzeugend erkennbar:

    Ein pinkes Siebengebirge mit grob gleichhohen Gipfeln.

    Vielleicht ist an den Tagen drei und vier etwas weniger los – welche Wochentage sind das? Nun, ich dividiere hier Unix-Timestamps; ihr erinnert euch: Die Sekunden seit dem 1.1.1970. Welcher Wochentag war dieser 1.1.?

    $ cal 1 1970
        January 1970
    Su Mo Tu We Th Fr Sa
                 1  2  3
     4  5  6  7  8  9 10
    11 12 13 14 15 16 17
    18 19 20 21 22 23 24
    25 26 27 28 29 30 31
    

    Weil die Unix-Epoche so eine große Rolle im heutigen Leben spielt[2], nehme das mal als erweiterte Kopfzahl: Er war ein Donnerstag. Und so sind die Tage 3 und 4 tatsächlich Samstag und Sonntag. Meine Autoabgas-These ist mir durch diese Prüfung etwas sympathischer geworden. Vermutlich fallen die Abgase nur bei wenig Wind und wenig Thermik (das ist praktisch die berüchtigte Dunkelflaute…) auf, so dass das dunkle Band mit hoher Punktdichte mehr oder minder bei der Null bleibt, jedoch immer wieder Spitzen mit bis zu 100 ppm extra in der Rush Hour auftreten. Wenn das hier Wissenschaft wäre, müsste ich mich jetzt auf die Suche nach Daten aus der Verkehrszählung machen.

    Und ich müsste überlegen, ob die Zacken im dunklen Band nicht doch ein echtes Signal sind. Speziell der Durchhänger so um die 180'000 Sekunden (also in der Nacht von Freitag auf Samstag) ist eigentlich kaum wegzudiskutieren. Aber was könnte gerade da plausiblerweise mehr frische Luft heranführen? Oder ist das, weil die Freitagnacht wegen Spätcorona noch besonders ruhig war?

    In Sachen Spitzen am Morgen hätte ich eine Alternativhypothese zu den Autoabgasen: Das könnte nämlich wieder der lokale Brenner sein. Dann wäre das, was da zu sehen ist, die Warmwasserbereitung zur Morgendusche. Attraktiv ist diese These schon allein, weil mir 6:15 eigentlich ein wenig früh vorkommt für das Einsetzen der Rush Hour nach Heidelberg rein; es ist ja nicht so, als seien da noch viele nennenswerte Industriebetriebe, in denen die Leute um sieben stechen müssten. Allerdings: in einem Wohnblock mit so vielen Studis wie meinem hier ist 6:15 auch keine plausible Zeit für massenhaftes Duschen…

    Spektralanalyse

    Was ich gerade gemacht habe, ist ein Spezialfall einer gerade für uns AstrophysikerInnen extrem wichtigen Technik – ich habe nämlich ein Signal nach Frequenzen aufgeteilt. Bis hierher hatte ich nur in zwei Bänder, ein hohes und ein tiefes. Mit der Fourieranalyse geht das viel allgemeiner: Mensch steckt ein Signal rein und bekommt ein Spektrum heraus, eine Kurve, die für jede Frequenz sagt, wie stark Schwingungen auf dieser Frequenz zum Signal beitragen.

    Mit dem Universal-Werkzeugkasten scipy kriegt mensch so ein Spektrum in anderthalb Zeilen Python:

    from scipy import signal
    f, power = signal.periodogram(samples[:,1], fs=86400/24/120)
    

    Dabei übergebe ich nur meine Konzentrationsmessungen, nicht die zugehörigen Zeiten, weil die periodogram-Funktion nur mit gleichmäßig gesampleten Daten zurechtkommt. Das sind meine Daten zum Glück: zwischen zwei Messungen liegen immer 30 Sekunden, und es sind auch keine Lücken in den Daten.

    Die halbe Minute Abstand zwischen zwei Punkten übergebe ich im Argument fs, allerdings als Frequenz (der Kehrwert der Periode) und umgerechnet in die Einheit „pro …

  • Begeht die Erdüberlastungssekunde: 1.1.2023, 00:00:10

    Balkengrafik mit Balken gleicher Höhe, die von 1971 bis 2022 einen immer größeren Anteil von Rot (also Überlastung) bekommen.

    In Grün der Teil der jeweiligen Jahre, die das GFN (siehe Text) für „nachhaltig“ bewirtschaftet (siehe Text) hält.[1] Rechte: GFN 2022

    Alljährlich verkündet das Global Footprint Network (GFN) den „Erdüberlastungstag“ oder Earth Overshoot Day, definiert als der Tag, an dem der jährliche „ökologische Fußabdruck“ (der Erfinder dieses Begriffs ist Teil des GFN) der Menschheit gerade die Größe der Erde erreicht hat. Klingt ein wenig komisch, ist aber ein ziemlich konventionelles ökonomisches Modell, in dem der Konsum von Menschen – ob nun Autos, Steaks, Eigentumswohnungen, Flugreisen oder Fernsehserien – mit grob plausibilisierten Modellen als Maß mit der Einheit einer Fläche ausgedrückt wird. Die Behauptung ist, dass dieses Maß einer realen Fläche entspricht, deren Ertrag diesen Konsum dauerhaft, also ohne Raubbau an nicht-erneuernden Ressourcen, decken könnte.

    Das ist eine große Zahlenschlacht („15'000 data points per country per year“) mit vielen freien Parametern. Wenn dabei herauskommt, dass wir innerhalb eines Faktors zwei von dem sind, was wir „nachhaltig“ machen können, werde ich ehrlich gesagt etwas skeptisch. Tatsächlich sollen wir (als ganze Welt) laut GFN im Augenblick einen Fußabdruck von 1.75 Erden haben[2], was den Erdüberlastungstag im vergangenen Jahr auf Tag 365/1.75 = 209 oder –

    >>> import datetime
    >>> datetime.date(2022, 7, 28).strftime("%j")
    '209'
    

    – den 28. Juli legen würde.

    Zweifel regen sich

    Offen gestanden: Ich halte das für ökonomistischen Unfug, der, wenn es überhaupt einen Sinn hat, Konsum in Fläche zu messen, garantiert um Faktoren von erheblich mehr als zwei beliebig ist. Gewiss, die frohe Botschaft „wir müssen eigentlich nur wieder so wirtschaften wie 1970, und schon sind wir nachhaltig“ ist heiterer und vielleicht auch politisch leichter zu verkaufen als: „Leute, wir müssen alle mal weniger arbeiten und uns überlegen, was wir wirklich verbrauchen wollen und wie wir das dann mit minimaler Belastung für Pflanzen, Menschen und andere Tiere produziert kriegen“.

    Nachtrag (2023-01-14)

    Zum Thema, wie „nachhaltig“ der menschliche Fußabdruck ca. 1970 wohl gewesen sein mag, lohnt sich ein Blick aufs DLF-Kalenderblatt vom 15.12.2022. Erinnert wurde an die Gründung des UN-Umweltprogramms 1972, zu dessen Vorgeschichte der Beitrag ausführt:

    Die Luftverschmutzung hatte Anfang der 1970er Jahre enorme Ausmaße angenommen. Blei, Cadmium und Quecksilber fanden sich in Tieren und Böden. Der massive Einsatz von Insektenvernichtungsmitteln wie DDT ließ ganze Ökosysteme kollabieren.

    Es ist auch – und das mag fast unausweichlich folgen aus dem Betrieb des GFN als NGO mit Menschen, deren wirtschaftliche Existenz am Funding der Organisation hängt – eine Nachricht, die der Logik von Wettbewerb und Wachstum verhaftet bleibt, einer Logik, die uns immer wieder in die Erdüberlastung zurückführen würde, selbst wenn wir den aktuellen Mist noch irgendwie hingebogen kriegten.

    Vor allem aber ist dieser „Fußabdruck” eine Metrik, was im modernen WiWi-Jargon so viel heißt wie: Wir sammeln viele Zahlen, so viele, dass es am Schluss ordentlich überzeugend aussieht, und suchen uns dann eine Methode, die so zusammenzumischen, dass etwas herauskommt, das mit unseren Interessen (oder mit denen derer, die existenzsichernde Gutachten in Auftrag geben können) verträglich ist. Letztlich ist das fast immer Zahlenmystik, denn im Umfeld von Politik und Gesellschaft ist „Messbarkeit“ die Ausnahme und nicht, wie der orthodoxe WiWi-Diskurs suggerieren möchte, die Regel. Wer in dem Bereich Streit und qualitative Argumentation ersetzen will durch Großpackungen von Zahlen, verdient jedes Misstrauen.

    Ein besserer Termin

    Lasst mich dagegen kurz und nur semiquantitativ argumentieren, warum wir statt des 28.7. besser den 1.1. als Erdüberlastungstag begehen sollten, genauer: die Erdüberlastungssekunde, noch bevor das Silvesterfeuerwerk richtig losgelegt hat. Mit meinen Daten ergibt sich im oberflächlich nachgestellten Stil der GFN-Grafik von oben folgendes Bild:

    Balkengrafik mit gleich hohen, durchweg roten Balken.

    Full disclosure: Gemacht mit schlechtem matplotlib-Code ohne echte Daten. Aber dafür auch ohne Photoshop.

    Die Basisdaten dazu kommen aus dem World Energy Outlook der International Energy Agency, einer Kooperationsveranstaltung von Regierungen des globalen Nordens, die sich tiefe Gedanken darüber macht, wie das Wettbewerbs- und Wachstums-Regime zumindest so lang mit Energie versorgt werden kann, dass die Dinge schon aus anderen Gründen Klump sind, bevor sie ohne Sprit liegen bleiben.

    Die Tabelle B.3 in der 2022er Ausgabe enthält „Ressourcen“ und „Reserven“ diverser fossiler Energieträger. Ich schaue mir hier mal das Öl an, da aus meiner Sicht Autos – die einen Großteil des Öls schlucken – eigentlich das größte Ärgernis der ganzen Show sind: Wir verpulvern endlos Ressourcen mit grob dem einzigen Effekt, dass wir in Blechkäfigen sitzen und den anderen das Leben schwer machen. Ich persönlich finde Heizung oder Computer bauen doch erheblich nachvollziehbarer als Grund, Fußabdrücke auf der Erde zu hinterlassen. Die Rechnung wäre für Kohle oder Gas aber nur geringfügig anders.

    Die Ölressourcen, Öl also, von dem wir wissen und das wir mit unbegrenztem Materialeinsatz fördern könnten, wird da auf 6000 Gb beziffert, die realistischen Reserven, also Öl, das wir im Augenblick gewinnbringend fördern können, auf 1800 Gb. Das „Gb“ steht hier für Gigabarrel, also Millarden Standard-Fässer zu 0.16 m³. In solchen verfluchten Einheiten rechnen die Öl-Leute leider, und so kommt es ja auch immer in den Nachrichten, weshalb mensch sich wahrscheinlich die Kopfzahl 6 barrel auf den Kubikmeter merken sollte.

    Für meine Zwecke hier ist das aber egal, denn ich will nur vergleichen mit den in ähnlich karmaschädlichen Einheiten gegebenen Verbrauchswerten in Tabelle A.7. Der globale Ölverbrauch wird dort als 100 Mb/d gegeben; für eine Überschlagsrechnung darf das Jahr 400 Tage haben, womit sich für den Ölverbrauch 40 Gb/yr ergeben.

    Ressourcen oder Reserven geteilt durch diesen Verbrauch führt auf die augenblickliche Reichweite in Jahren. Für Rechnungen zum „Fußabdruck“ ist das das, was ich haben will, im Gegensatz zur tatsächlichen Reichweite, bei der ich mir Sorgen ums Wachstum machen müsste. Für die Reserven sind das 1800/40 oder rund 50 Jahre (das grässliche Gb kürzt sich zum Glück raus). Analog käme für die Ressourcen 150 Jahre raus. Sagen wir im Geiste von Fermi: Wir leben derzeit so, dass wir das Öl in der Erde in ungefähr 100 Jahren verbraucht haben werden. Das, was wir schon verbraucht haben, spielt für diese Rechnung übrigens keine große Rolle, das sind nur ein paar Jahrzehnte (oder unten: Sekunden) hin oder her.

    Geologische Zeiträume

    In der Fußabdruck-Logik müssen wir jetzt schätzen, wie viel von diesem Öl in jedem Jahr nachwächst. Das ist wirklich schwer zu sagen, schon weil die Entstehung von Öl ein sich mindestens über Jahrtausende hinziehender Prozess mit vermutlich je nach Globalklima und -Hydrologie stark schwankenden Raten ist, und dabei ist die Konzentration zu Ölfeldern noch gar nicht eingerechnet. Einfacher ist es, die Frage umzudrehen: Wie lange hat die Erde gebraucht, um das Öl heranzubrüten, das wir jetzt gerade fördern?

    Werft zur Antwort einen Blick die geologische Zeitskala. Das Karbon (Anfang ca. 350 Myr vor heute) heißt nicht ganz umsonst Karbon: auch wenn uns die Biologie schon seit der kambrischen Artenexplosion (ca. -550 Myr) allmählich bekannt vorkommen würde[3], ging es erst im Karbon so richtig los mit der Bildung großer Kohlenstoff-Lagerstätten. Sagen wir also: die gegenwärtigen Ölressourcen haben sich innerhalb der letzten 400 Millionen Jahre gebildet.

    Wir bringen dann in 100 Jahren das Öl durch, das die Biologie auf der Erde innerhalb von 400 Millionen Jahren in den Boden verfrachtet hat. Anders gesagt: unser augenblicklicher Fußabdruck ist vier Millionen mal zu groß für diese Welt. Zusammen mit der Ur-Kopfzahl von 31 Millionen Sekunden auf ein Jahr (oder, wer das lieber hat, π⋅107  s) und etwas aufgerundet: wir überlasten die Erde ab Sekunde 10 des Jahres.

    Ich gestehe gerne ein, dass der genaue Zeitpunkt mit guten Argumenten etwas nach vorne oder hinten geschoben werden kann. Nach vorne etwa, weil doch eher unwahrscheinlich ist, dass all die Ressourcen ausbeutbar sind. Nach hinten vielleicht, weil sich die Mehrheit der gegenwärtig genutzten Öl-Lagerstätten doch eher in den letzten 100 Millionen Jahren gebildet haben werden, oder weil wir ja auch noch die 20'000 Gt Kohle verfeuern können oder die Methanhydrate von den Kontinentalschelfs oder was immer, oder weil ja vielleicht noch ganz viele neue Ressourcen entdeckt werden könnten (allerdings wird schon seit Jahrzehnten weniger entdeckt als verbraucht). Wer so rechnet, muss sich übrigens auch keine Sorgen wegen des CO₂ machen, denn bei so viel Techno-Optimismus kriegen wir das Zeug auch ganz locker wegsequestriert.

    Aber auch mit dem größten Techo-Optimismus kann ich valide Szenarien, in denen der Erdüberlastungsmoment im Kohlenstoffbereich hinter die erste Minuten rutschen könnte, praktisch ausschließen. Wegen leicht zu merken und hinreichend plausibel bleibe ich also dabei: der Erdüberlastungsmoment ist Sonntag, 1.1.2023, 00:00:10. Verglichen mit irgendwelchen Tagen im Juli aus den GFN-Schätzungen ist das ganz sicher ein robustes und reproduzierbares Ergebnis.

    Noch eine Umrechnung

    Ach ja: Im IEA-Paper steht noch, dass ein Exajoule 23.88 Mtoe (Megatonnen Öläquivalent) entspricht. Das EJ ist eine ganz bequeme Einheit für den Energieumsatz von Staaten; in der BRD sind laut Grünbuch Energieeffizienz im Jahr 2014 13'132 PJ Primärenergie in 8'648 PJ nutzbare Energie überführt worden. Dabei sind 1000 Petajoule ein Exajoule, so dass wir bei rund 15 Exajoule Primärenergieumsatz in der BRD rauskommen.

    Für wenn ich sowas mal in Vorstellbareres wandeln will, möchte ich mir die IEA-Zahl in der Form 1 EJ = 25 Mtoe merken. Damit kann ich den jährlichen …

  • Kohlenstoff-Stoffwechsel des Menschen: Nur über Bande schlimm

    Foto einer Prozession mit viel Weihrauch

    Machen diese Priester, die da 2013 duch Barcolona prozedieren, mehr Treibhauseffekt durch ihren Qualm oder durch ihre Atemluft? Das zumindest rechne ich hier nicht aus.

    Mich hat neulich wer gefragt, wie viel CO2 ein durchschnittlicher Mensch so emittiert, und mit meiner Kopfzahl vom letzten Jahr, um die 35 Gigatonnen CO2-Äquivalent Gesamtemission weltweit, geteilt durch die geschätzten 8 Milliarden Menschen, die letzte Woche durch die Presse gingen, habe ich mal munter „vier Tonnen“ gesagt und anschließend die zweite Kopfzahl von damals, 2/3 Gt für die BRD mit 80 Millionen EinwohnerInnen zu „eher so acht Tonnen für dich und mich“ verarbeitet, „nicht zu vergessen ein paar Tonnen obendrauf für Fertigwaren und Futter, die wir importieren und die derzeit für oder gegen China, Brasilien oder Indonesien zählen.“

    Aber darum ging es ihm nicht. Er wollte wissen, was ein Mensch so ausatmet, was wir also einfach nur durch unseren Stoffwechsel emittieren. Dafür hatte ich spontan keine brauchbaren Kopfzahlen und habe (ahem: deshalb) erstmal eingewandt, dass das, wie unten ausgeführt, ziemlich irrelevant ist. Dennoch ist das keine per se schlechte Frage, und so habe ich meinen Post zur menschlichen Leistung hervorgekramt und daraus für mich und vergleichbare Menschen eine Wärmefreisetzung zwischen 8 und 16 MJ am Tag (also Megajoule, Millionen Joule) abgelesen. So ein Ärger: Das hatte ich eigentlich schon damals zur Kopfzahl erklärt, aber dann doch wieder vergessen.

    Vier Kilo pro Tag

    Zur CO2-Bilanz unserer Kohlenstoff-Verstoffwechselung hatte ich in meinen Überlegungen zur thermischen Leistung schon etwas geschrieben. Eine kurze Erinnerung daran: Tiere wie der Mensch betreiben sich vor allem, indem sie Phosphor von ATP abspalten, was ihnen für jedes Mol ATP 31 kJ Energie bringt. Für 30 Mol ATP atmen wir ungefähr sechs Mol CO2 aus, womit wir auf die Stoffmenge von CO2 bezogen am Ende

    31 ( kJ)/(mol ATP)(30  mol ATP)/(6  mol CO2) = 155  kJ ⁄ mol CO2

    an Wärme abgeben können. Das ist die untere Grenze der mit dem Ausatmen von einem Mol CO2 verbundenen Wärmefreisetzung; in Wahrheit werden auch die Prozesse zur Herstellung von ATP aus den verschiedenen Nahrungsbestandteilen Wärme freisetzen. Die obere Grenze ist – im zitierten Post diskutiert – die Reaktionsenthalpie von Verbrennung von Kohlenstoff, nämlich 394  kJ ⁄ mol. Die folgende Abschätzung aus der Abwärme liefert jedenfalls eine obere Grenze der Emission.

    Wenn wir die 155 kJ/mol mit der Leistung eines Durchschnittmenschen verrechnen – wir nehmen jetzt mal den Mittelwert der oben erwähnten Grenzen, also 12'000 kJ/d –, ergibt sich für die CO2-Emission eines Menschen aus dem Stoffwechsel

    (1.2⋅104 kJ ⁄ d)/(155  kJ ⁄ mol) ≈ 80  mol ⁄ d.

    Wer nun bei „Mol“ nur düstere Erinnerungen an den Chemieunterricht hat: Das ist einfach Abkürzung für „ungefähr 6⋅1023 Moleküle“, und diese krumme Zahl ist so gemacht, dass mensch im Groben nur die Nukleonenzahlen der beteiligten Atome zusammenaddieren muss, um das Mol („Stoffmenge“) in Gramm („Masse“) zu wandeln. Als Kopfzahlen taugen 12 Nukleonen für den Kohlenstoff und 16 Nukleonen für den Sauerstoff[1]. Für Kohlendioxid mit zwei Sauerstoff- und einem Kohlenstoffatom ergeben sich also 44 Gramm aufs Mol.

    Mithin atmen wir so auf einen Faktor zwei – Tour de France-FahrerInnen ausgenommen –

    80  mol ⁄ d⋅0.044  kg ⁄ mol ≈ 3.5  kg ⁄ d

    Kohlendioxid aus. Mit der Kopfzahl 1 Kubikmeter aufs Kilogramm für Luft (jaja, CO2 ist ist etwas dichter als N2, das ja die Luft dominiert, aber Faktoren von 1.5 spielen hier keine große Rolle) ist das ganz nebenher schnell in ein Volumen gewandelt: Wir atmen was zwischen zwei und acht Kubikmeter reines CO2 am Tag aus, genug, um eine Grube zu füllen, die groß genug ist, um reinzufallen. Ein Glück, dass unter normalen Umständen CO2 nicht in solchen Gruben bleibt, oder wir würden uns regelmäßig durch unsere eigene Atmung umbringen.

    Fürze und AfD-Debatten

    Völlig vernachlässigbar im Hinblick auf den Treibhauseffekt sind übrigens Fürze. Die Wikipedia beziffert die auf rund einen Liter am Tag. Angenommen, es handele sich um pures Methan (das geruchlos ist, was zeigt, dass wir hier eine nicht ganz zutreffende Annahme machen), wäre das in etwa ein Gramm davon und damit klimatisch verschwindend gegenüber dem CO2, selbst dann, wenn mensch die Treibhauswirkung von Methan mit etwas wie einem Faktor 20 gegenüber Kohlendioxid ansetzt.

    Aufs Jahr gerechnet haben wir also rund eine Tonne CO2-Äquivalent aus dem Stoffwechsel. Das schien mir verdächtig nahe an den fossilen Emissionen, die ich oben auf vier Tonnen pro Jahr geschätzt habe[2]. Dass wir im Schnitt lediglich vier Mal mehr fossile Energie verbraten sollten als wir durch unsere Nahrung zu uns nehmen, erschien mir auf Anhieb völlig unplausibel. Deswegen habe ich eine Suchmaschine mit etwas wie "CO2-Emission" "Atmung" angeworfen, und ich habe etwas über meinen Bekannten herausgefunden, das ich wirklich nicht wissen wollte.

    Per (übrigens ziemlich lahmen) Faktencheck der Tagesschau stellt sich nämlich raus, dass das Thema „Uh, Menschen in Afrika atmen und machen fast so viel CO2 wie unsere Autos” von einem, nun, intellektuell eher einfach gestrickten Menschen etabliert wurde, der für die AfD im Bundestag sitzt. Gut: solche „Diskurse“ können Menschen auch über Ecken erreichen – vielleicht ist der Bekannte ja gar nicht in AfD-Echokammern unterwegs. Ich nehme das jetzt einfach mal ganz fest an.

    Ziemlich irrelevant

    Lahm ist der Tagesschau-Faktencheck übrigens nicht nur, weil er nicht mal versucht, ein – ja wirklich nicht allzu kompliziertes – physikalisches Argument zu machen, sondern einfach nur irgendeine Autorität zitiert und dann mit völlig albernen Mantissenlängen arbeitet (von „168” bis „2040“, quasi aufs Promille genau), sondern auch, weil er viel zu wenig darauf eingeht, warum genau die Frage nach dem Stoffwechselbeitrag gleichzeitig völlig irrelevant und dramatisch ist.

    Irrelevant ist sie, weil: „Das vom Menschen ausgeatmete CO2 stammt aus dem eigenen Stoffwechsel, war also bereits im biologischen Kreislauf vorhanden“. Weder dieser noch die folgenden Sätze im Faktencheck machen hinreichend klar, was der entscheidende Unterschied ist zwischen Mensch und Betonmischer ist.

    Menschen nämlich essen nach wie vor praktisch nur Dinge, die ungefähr im Jahr vorher Pflanzen waren, oder jedenfalls im Jahrzehnt vorher. Das steht im Gegensatz zu fossilem Kohlenstoff, also Kohlenstoff, der vor vielen Millionen Jahren mal Pflanze war (oder anderweitig aus der Atmosphäre genommen wurde). Während nun Kohlenstoff, der letztes Jahr Pflanze war, plausiblerweise auch demnächst wieder Pflanze sein wird und sich kaum in den Atmosphäre anreichern wird, wird Kohlenstoff, den wir von vor (hunderten) Millionen Jahren in die Gegenwart transportieren, das eher nicht so schnell können – und in der Tat verbleiben jedenfalls große Mengen davon augenscheinlich sehr lange in der Atmosphäre.

    Eine Art, das zu sagen, wäre: „Solange wir weder Zeug aus Kohle noch aus Erdöl essen, sind wir unmittelbar nicht schlimmer als die Tiere, die wir verdrängt haben.“ Das „woher“ in der Überschrift deutet diesen Gedanken zwar an, aber es hätte schon sehr geholfen, ihn etwas klarer als über den doch recht abstrakten Verweis auf den „biologischen Kreislauf“ auszusprechen.

    Wir verstoffwechseln also direkt nur sehr wenig fossilen Kohlenstoff; ich denke, ein paar Aromastoffe und und andere Spuren in üblichen Lebensmitteln dürften direkt aus Öl und Gas erzeugt werden, aber selbst Analogkäse wird immer noch aus „Milch-, Soja- oder Bakterieneiweiß und Pflanzenfette als Grundstoffe, teils auch Stärke“ (Wikipedia) gemacht. Solange das so ist, sind wir mit dem Stoffwechsel selbst notwendig im CO2-Gleichgewicht mit unserer Landwirtschaft, die ja ständig den Kohlenstoff aus der Atmosphäre binden muss, der in der Folge wiederum in unseren Därmen landet – wie weit diese Produktions-Konsumptions-Logik noch als „biologischer Kreislauf“ durchgeht, dürft ihr selbst entscheiden.

    Trotzdem schlimm

    Allerdings: auch das Gegenargument ist in der Praxis ungültig, denn es gilt nur für die Sorte Subsistenzlandwirtschaft, die möglicherweise verbreitet bleibt in den Teilen des globalen Südens, die wir noch nicht „in den Weltmarkt integriert haben“: Sie findet ohne Beteiligung fossiler Energieträger statt, der Kohlenstoff, der da verhandelt wird, ist also tatsächlich vom letzten Jahr oder, wo die BäuerInnen mal roden, vielleicht vom letzten Jahrhundert.

    Die marktkonforme Lebensmittelproduktion hingegen hat, zwischen Trockenlegung von Feuchtgebieten, Treckern und Supermärkten, einen gewaltigen Anteil an der Emission (mehr oder, etwa im Fall von Mooren, minder) fossilen Kohlenstoffs, je nach Rechnung zwischen 10% und 30%. Und so ist schon richtig, dass das Wachstum dem Klima den Rest gibt. Das Wachstum der Bevölkerung jedoch hat darauf nur insoweit einen Einfluss, als es normalerweise Wirtschaftswachstum nach sich zieht. Es ist aber nicht die Subsistenzbäuerin, es ist die Produktion für den Weltmarkt, die fossiles CO2 freisetzt.

    Das spiegelt sich in den Abschätzungen der Pro-Kopf-Emission von Treibhausgasen in Our World In Data wider[3]. Während ein Weltmarktbürger wie dieser mangelinformierte AfD-Mensch um die acht Tonnen CO2-Äquivalent emittiert, sind Menschen in der komplett abgehängten Zentralafrikanischen Republik mit 40 Kilogramm im Jahr dabei. 200 Menschen dort haben den Fußabdruck dieses einen AfDlers. Ginge es nur um die Kohlenstoffemissionen, könnten wir „im Westen“ durch eine sehr mäßige Rate von Selbstentleibung noch jede Menge Bevölkerungswachstum im globalen Süden mehr als ausgleichen.

    Aber einerseits ist das nur Teil der Gleichung, und andererseits soll sich ja eigentlich niemand aufhängen. Es bleibt also nicht nur im …

  • Mary Lea Heger: Interstellares Natrium und Geburtstage

    Fotonegativ eines hellen Sterns und des umgebenden Sternfelds.

    Der Stern δ Orionis in einer Aufnahme von 1927 (B5232a aus HDAP) – das war eines der zwei Objekte, in deren Spektrum Mary Lea Heger das interstellare Natrium entdeckt hat.[1]

    In der DLF-Sternzeit vom 13. Juli ging es um Mary Lea Heger, die vor rund 100 Jahren entdeckte, dass es Natrium im Raum zwischen den Sternen gibt (auch wenn sie sich im verlinkten Artikel von 1919 noch nicht ganz sicher war, wo genau). Wer mal Himmelsaufnahmen aus der Zeit gesehen hat, wird ahnen, wie haarig das gewesen sein muss.

    Heger hat nämlich Spektren aufgenommen, was damals überhaupt nur für sehr helle Sterne wie den oben abgebildeten δ Orionis alias Mintaka (der am weitesten rechts stehende Gürtelstern des Orion) sinnvoll ging. Aus diesen Spektren hat sie dann Radialgeschwindigkeiten abgeleitet, also im Groben beobachtete Wellenlängen von Spektrallinien bekannter Elemente mit deren auf der Erde messbaren Wellenlängen verglichen, daraus die Blau- bzw. Rotverschiebung abgeleitet und daraus wiederum bestimmt, wie schnell sich die Objekte gerade auf uns zu oder von uns weg bewegen.

    Ehrlich gesagt weiß ich gar nicht, wie das damals gemacht wurde. Heute malt einem der Computer schöne Kurven und kann dann auch beliebige Funktionen dranfitten. Damals hingegen war, denke ich, schon die numerische Erfassung der Schwärzungen der Fotoplatte (bei der ihrerseits doppelte Schwärzung mitnichten doppeltes Licht bedeutet) eine echte Herausforderung. Die Wikipedia schreibt leider unter Densitometer nichts zur Geschichte dieser Geräte, und zu einer richtigen Recherche kann ich mich gerade nicht aufraffen.

    Mintaka und Hegers zweites Objekt, der von uns aus kaum ordentlich zu beobachtende β Scorpii alias Akrab[2], sind beides ziemlich heiße Sterne, im Jargon Spektralklasse B mit Oberflächentemperaturen deutlich über 20000 Kelvin (die Sonne: 6000 K). Weil bei diesen Temperaturen die Atome recht schnell unterwegs sind, wenn sie Photonen absorbieren, sind die Linien solcher Sterne in der Regel breit (vgl. Dopplerverbreiterung); auf den Fotos, aus denen solche Spektren gewonnen wurden, wirken die Linien sozusagen ausgewaschen.

    Tanzende und stehende Linien

    Heger hat nun aber auch ein paar recht scharfe Linien von Kalzium und Natrium in den Spektren dieser Sterne gefunden, und zwar in Absorption, was heißt: Irgendwo zwischen da, wo das Licht herkommt und Hegers Spektrographen muss es Kalizum- und Natriumatome geben, die das Licht der passenden Wellenlängen absorbiert (und dann wieder woandershin emittiert) haben. Und davon nicht zu knapp.

    Plot einer Kurve, beschriftet mit Wellenlängen

    Ein modernes Spektrum von β Ori (vom FEROS-Spektrographen der ESO, HD36485_1069462_2014-08-24T08:30:43.517_S0.5x11_1x1_UVB_NOD). Auf der x-Achse ist die Wellenlänge in Nanometer, auf der y-Achse die Flussdichte in Instrumenteneinheiten. Gezeigt ist die Umgebung der Fraunhofer-Linien H (Labor: 393,368 nm) und K (Labor: 396,847 nm) des einfach ionisierten Kalziums. Links ist eine relativ schmale und unstrukturierte Linie zu sehen, wie sie Heger für die interstellare Absorption gesehen haben wird, rechts dann eine breite Linie mit vielen Komponenten von den Einzelsternen: die Höcker da drauf würden tanzen, wenn mensch einen Film machen würde. Nach etwas Überlegung habe ich beschlossen, mich nicht festzulegen, was welche Linie ist…

    Sowohl Akrab als auch Mintaka sind zudem recht enge Doppelsterne[3]. So enge, dass sie mit damaligen Techniken wie ein Stern erschienen. Dass es sich um Doppelsterne handelt, war bekannt, weil in ihren Spektren (im Groben) jede Linie nicht ein Mal, sondern zwei Mal vorhanden ist, und die Teile eines Paars darüber hinaus regelmäßig umeinander tanzen. Die Erklärung: jeder Stern macht für sich eine Linie, die je nach Stellung in der Bahn anders dopplerverschoben ist als die seines Partners. Nun sind solche Sterne sehr schwer, und sie umkreisen sich auf relativ engen Bahnen (bei Mintaka: das Jahr ist im engen Paar 5.7 Tage lang), so dass die Bahngeschwindigkeiten bis hunderte Kilometer pro Sekunde betragen können[4]. Damit sind auch die Dopplerverschiebungen der Linien recht ernsthaft, und so ist die Natur der ersten dieser spektroskopischen Doppelsterne schon Ende des 19. Jahrhunderts aufgefallen.

    Nur: Hegers scharfe Linien tanzen nicht. Sie bleiben stur stehen, während die Sterne umeinander rasen. Und damit ist klar, dass die absorbierenden Atome zumindest nicht zu den einzelnen Sternen gehören. Sie könnten im Prinzip aus der Erdatmosphäre kommen, denn die Natriumschicht in so um die 100 km Höhe, die heute für Laser-Leitsterne verwendet wird, ist in hinreichend empfindlichen Spektren durchaus zu sehen. Wie das mit damaligen Spektren war, weiß ich nicht, die Schicht als solche wurde aber erst 1929 entdeckt (was sich jedoch nur auf die spezifische Verteilung des Natriums beziehen mag – andererseits ist neutrales Natrium in Gegenwart von Sauerstoff nicht gerade stabil. Also: ich weiß es wirklich nicht).

    Abgeleitete Kopfzahl: mit 30⋅3600 Sachen um die Sonne

    Heger wird aber (auch wenn sie das im verlinkten Artikel nicht schreibt, weil die entsprechende Korrektur Teil der Standard-Datenreduktion war und ist) in ihren scharfen Linien doch eine Bewegung gesehen haben, nämlich um etwas weniger als 30  km ⁄ s. Das ist der Reflex der Bewegung der Erde um die Sonne, und der wäre in atmosphärischen Linien nicht zu sehen, da sich ja die Atmosphäre mit der Erde bewegt.

    Die Geschwindigkeit der Erde bei ihrem Weg um die Sonne ist übrigens mit zwei Kopfzahlen schnell abgeschätzt: erstens dem Dauerbrenner 30 Millionen Sekunden pro Jahr (oder π⋅107  s, was tatsächlich die Art ist, in der ich mir das merke) und dann die 150 Millionen km (was ich mir als 1.5⋅1011  m merke) für den Radius der Erdbahn. Die Geschwindigkeit ist dann einfach Umfang der Erdbahn geteilt durch ein Jahr oder in überschaubareren Einheiten

    (2⋅π⋅1.5⋅108  km)/(π⋅107  s) = 3⋅101  km ⁄ s

    Das “etwas weniger“ als diese 30  km ⁄ s kommt daher, dass die volle Amplitude dieser Bewegung nur bei Sternen in der Ekliptik, also der Abbildung der Erdbahn am Himmel, zu sehen ist. Geht mensch von dieser gedachten Linie weg, wird die Geschwindigkeitskomponente in Richtung des Sterns kleiner (nämlich mit dem Kosinus der ekliptikalen Breite), bis am ekliptikalen Pol gar kein Reflex der Erdbewegung mehr zu sehen ist[5].

    Akrab nun steht in einem Tierkreiszeichen und von daher quasi per definitionem nahe an der Ekliptik. Auch der Orion (gleich südlich vom Stier) ist nicht weit von ihr entfernt – die ekliptikale Breite von Mintaka ist ungefähr 23.5 Grad. Deshalb taugt 30  km ⁄ s schon als Abschätzung für die Amplitude der Radialgeschwindigkeit der beiden Sterne aufgrund der Bewegung der Erde um die Sonne.

    Mit 10⋅3600 Sachen mit der Sonne durch die Strom

    Tatsächlich konnte Mary Lea Heger die Rotverschiebungen ihrer scharfen Linien und unscharfen Linien messen und kam auf folgendes Geschwindigkeiten (alles in km/s):

    Objekt β Sco δ Ori
    Natrium -9.2 17.6
    Kalzium -8.5 18.7
    RG des Systems -11.0 15.2
    Sonnenbewegung -10.7 18.1

    Die „Sonnenbewegung“ ist dabei das, was damals schon gemessen war als Bewegung der Sonne gegenüber der allgemeinen galaktischen Rotation von etwa 200  km ⁄ s – wie die damals darauf gekommen sind, ist eine ganz eigene Geschichte –, projiziert auf den Richtungsvektor zum jeweiligen Stern. Die „Radialgeschwindigkeit (RG) des Systems“ hingegen ist die Geschwindigkeit, mit der der Schwerpunkt der jeweiligen Sternsysteme auf uns zukommt oder sich von uns entfernt.

    Dass die Sonnenbewegung und Radialgeschwindigkeiten hier recht eng beieinander liegen, ist übrigens kein Zufall. Beide Sterne sind wie gesagt heiße B-Sterne, und diese sind[6] nach astronomischen Maßstäben sehr jung, gerade erst (also: vor ein paar oder ein paar zehn Millionen Jahren) aus Gaswolken geboren. Die Gaswolken wiederum laufen sehr brav mit der allgemeinen galaktischen Rotation mit. Sie können gar nicht anders, denn anders als die Sterne kollidieren Gaswolken in Galaxien durchaus miteinander, wenn eine versucht, quer zum Strom zu schwimmen. Wenn sie dann kollidieren, verlieren sie rasch ihre Eigengeschwindigkeiten (und produzieren sehr wahrscheinlich noch eifrig Sterne). Was übrig bleibt, läuft wieder brav mit dem Rest der Galaxis.

    Sterne hingegen können sich frei durch die Galaxis bewegen, weil sie praktisch nie mit anderen Sternen kollidieren – für einen Stern, kompakt wie er ist, ist die Galaxis quasi ein Vakuum, wenn auch eins mit Gavitationsfeld. Gerät ein Stern allerdings in die Nähe schwerer Dinge (wie etwa solchej Wolken), wird er ein wenig aus seiner Bahn gehoben, und das äußert sich am Ende in Eigengeschwindigkeiten wie der Sonnenbewegung von oben. Junge Sterne hatten noch keine Zeit, diese Sorte Schwung zu holen, und so ist die Radialgeschwindigkeit oben eigentlich nichts anderes als die Sonnenbewegung.

    Auch wenn Heger keine Fehlerschätzungen angibt, ist die Übereinstimmung der Geschwindigkeiten der scharfen Linien und der Sonnenbewegung umwerfend gut, jedenfalls, wenn mensch die Schwierigkeiten der in diese Tabelle eingehenden Messungen bedenkt. Tatsächlich gibt die Wikipedia für die Radialgeschwindigkeit des Gesamtsystems Akrab  − 1±2  km ⁄ s gegen Hegers -11; in einem System aus sechs Sternen muss das noch nicht mal auf ein Problem bei Heger hindeuten, aber ganz ehrlich: Ich wäre sehr verwundert, wenn sie besser als auf, sagen wir, 5 km/s hätte messen können.

    Hegers Fazit

    Entsprechend war Heger in ihren Schlussfolgerungen vorsichtig:

    The agreement of the velocity obtained from the D lines …
  • Kopfzahlen: Über Grenzregimes

    Dann und wann können Kopfzahlen ziemlich bedrückend sein. So die 50000 Toten (genauer: 48647), die die, na ja, NGO UNITED for Intercultural Action in ihrer Liste der der Opfer der Festung Europa aus den Jahren zwischen 1993 und 2022 bestimmt. Das sind nur die gut dokumentierten Fälle, und da die in die EU Einwandernden vor allem im Mittelmeer und in den Weiten des Ostens sterben, dürften zu ihnen zahlreiche undokumentierte Tote kommen. Nimmt mensch sehr konservativ eine Dunkelziffer in der Größenordnung der dokumentierten Toten an und teilt durch die 30 Jahre, ergiben sich etwas wie 3000 Tote pro Jahr in direkter Folge der EU-Migrationskontrolle.

    Zum Vergleich: an der Berliner Mauer starben, Unfälle, Grenzsoldaten und Herzinfrakte eingeschlossen, zwischen 1961 und 1989 ungefähr 400 Menschen (vgl. Wikipedia-Artikel Mauertote). In dem Sinn könnte mensch sagen, dass das EU-Grenzregime jedes Jahr so viele Menschen umbringt wie sechs Berliner Mauern während ihrer ganzen Betriebsdauer.

  • Angst ist eine schlechte Beifahrerin

    Am ersten Mai hatte ich mich an dieser Stelle gefragt, wann wohl die „Dauerbeflimmerung“ – also: leuchtende Werbedisplays am Straßenrand – an der Heidelberger Jahnstraße dazu führen wird, dass Leute einander kaputtfahren. Fünf Tage später lief in Forschung aktuell ein Beitrag, der einen ganz speziellen Blick auf Gefahren durch Beflimmerung vom Straßenrand warf.

    Grundlage des Beitrags ist der Artikel „Can behavioral interventions be too salient? Evidence from traffic safety messages“ der Wirtschafts- hrm -wissenschaftler Jonathan Hall und Joshua Madsen aus Toronto und Madison, WI, erschienen in Science vom 22.4.2022 (doi:10.1126/science.abm3427)[1].

    Bevor ich den Blick nachvollziehen konnte, musste ich mich zunächst ärgern, denn alles, was ich beim Folgen des DOI gesehen habe, war das hier:

    Screenshot einer Cloudflare-Verzögerungsseite

    Der Fairness halber will ich einräumen, dass die drei Punkte animiert waren, und dann und wann hat die Seite, als ich ihr erstmal Javascript erlaubt hatte, einen Reload geworfen und dann eine neue „Ray ID“ angeboten. Dennoch ist das gleich in mehreren Richtungen Mist, verschärft hier dadurch, dass Landing Pages von DOIs statisch sein können und sollen. Es lässt sich kein Szenario denken, in dem mensch für statische Seiten auf einem ordentlichen Webserver einen „DDoS-Schutz“ (was immer das sein mag) braucht, und schon gar keinen, der ohne Javascript, Referrer und weiß ich noch was nicht funktioniert.

    Ich muss gestehen: ich war es müde, den Mist zu debuggen. Da der Artikel leider noch nicht bei libgen (die – Science, horche auf! – diese Sorte Unfug nicht nötig haben) war, habe ich in den sauren Apfel gebissen und statt meines Standardbrowsers einen überpermissiv konfigurierten Firefox genommen, der der Cloudflare-Scharlatanerie schließlich akzeptabel schien. Auch eine Art, das Web kaputtzumachen.

    Zur Sache

    In Texas hat das Verkehrsministerium über viele Jahre hinweg „Campaign Weeks“ gemacht, während derer auf den elektronischen Großanzeigen an vielbefahrenen Straßen – wer Falling Down gesehen hat, weiß, wovon die Rede ist – unbequeme Wahrheiten („Für Menschen zwischen 5 und 45 ist der Straßenverkehr die führende Todesursache“) angezeigt wurden.

    Der Effekt: Offenbar fahren die Leute nach so einer Mahnung nicht vorsichtiger, sondern abgelenkter. Jedenfalls gehen die Unfallraten hinter solchen Nachrichten merklich nach oben. In Abbildung eins des Papers sieht das so aus:

    Scatterplot -- Punktpaare gehen allmählich gegen Null

    Rechte: AAAS, Science

    Das „DMS” in der Beschriftung heißt „dynamic message signs“ – zumindest im Untersuchungszeitraum zwischen 2012 und 2017 war das aber sicher richtig fades Zeug im Vergleich zu moderner Werbebeflimmerung. Bei den roten Punkten kamen nach der ersten Tafel für 10 km keine weiteren mehr, so dass das das sauberere Signal ist.

    Auch wenn der Effekt im Vergleich zu den Fehlerbalken nicht sehr groß ist und es allerlei versteckte Confounder geben mag – die Autoren gehen aber erfreulich vielen nach und können viele glaubhaft kontrollieren –, überzeugt mich das Paper davon, dass mindestens auf dem Kilometer nach der Tafel die von alarmierenden Zahlen beunruhigten Menschen ein paar Prozent mehr Unfälle bauen.

    Ein Grund für meine Einschätzung der Zuverlässigkeit des Effekts ist, dass offenbar die Zunahme der Unfälle mit der Drastik der Nachrichten korrelierte: Spät im Jahr, wenn texanische Autos schon tausende Menschen zermalmt haben und also entsprechend große Zahlen auf den Tafeln zu sehen sind, sind die Effekte deutlich stärker als früh im Jahr:

    Scatterplot mit abnehmenden Punkten

    Rechte: AAAS, Science

    Zwar ist die Null auch hier überall innerhalb von „zwei sigma“, also der doppelten Fehlerbalken, so dass ich das nicht völlig überbewerten würde. Ich könnte insbesondere nicht erklären, woher ein negativer Achsenabschnitt der Ausgleichsgerade kommen könnte, warum Leute also besser fahren sollten, wenn die Zahlen klein (oder ihre Neujahrsvorsätze noch frisch?) sind. Dennoch entsteht, nimmt mensch alle Evidenz zusammen, durchaus ein recht robustes Signal, das wiederum nur schwer durch Confounder zu erklären ist.

    Und auch wenn was wie 5% nicht nach viel klingen: Der Straßenverkehr ist mörderisch (in den USA gibt es, Kopfzahl, in jedem Jahr so um die 50000 direkte Verkehrstote), und es gibt einen Haufen dieser Displays. Hall und Madsen schätzen, dass ihr Effekt in den 28 Staaten, die das ähnlich wie Texas machen, 17000 Unfälle mit 100 Toten verursachen dürfte.

    Verblüffung am Rande: Für ein Kontrollexperiment haben Hall und Madsen nach Tafeln gesucht, die mindestens 10 km vor sich keine andere Tafel haben (damit sich die Effekte der Vortafel hoffentlich bereits gelegt haben). Das hat die Samplegröße um 75% reduziert. 75%! Dass diese DMSe so sehr clustern – denn es sich sicherlich undenkbar, dass über das ganze riesige Straßennetz von Texas hinweg alle paar Kilometer Tafeln stehen –, hätte ich nicht erwartet. Warum planen Leute sowas?

    Und Werbetafeln?

    Nun gebe ich zu, dass Hall und Madsen über ganz andere Dinge reden als die Werbe-Displays von Ströer und JCDecaux, sie ja sogar auf die Wichtigkeit der Natur der Nachricht abheben und so das Medium eher aus dem Blick nehmen.

    Sie zitieren aber auch Literatur, die sich allgemeiner um die Frage der Ablenkung durch Beflimmerung kümmert. Davon gibts einiges, und offenbar ist umstritten, wie tödlich Werbetafeln wirklich sind. Vermutlich wäre es ein wertvolles Projekt, die Drittmittelgeber der entlastenden Studien zu ermitteln.

    Was Hall und Madsen zitieren, ist leider nichts in dieser Richtung. Dennoch habe ich mir ihre Quelle „Driving simulator study on the influence of digital illuminated billboards near pedestrian“ von Kirstof Mollu (aus dem Dunstkreis der Wiwis an der Universiteit Hasselt, Belgien) et al, Transportation Research Part F 59 (2018), S. 45 (doi:10.1016/j.trf.2018.08.013) kurz angesehen. Das braucht immerhin keine Beschwörungen von Cloudflare, ist aber wieder kein Open Access und zwingt NutzerInnen erstmal den "Elsevier Enhanced Reader" auf, der ohne Javascript gar nichts tut – eine sehr aufwändige Art, ein PDF runterzuladen.

    Nun: Mollu et al haben sieben Handvoll Führerscheinhabende rekrutiert und in einen einfachen Fahrsimulator (zwar force-feedback, aber keine Beschleunigungssimulation) gesetzt, in das Szenerio verschieden hektisch flimmernde Displays integriert und dann gesehen, wo die Leute hingucken und wie oft sie übersehen, dass FußgängerInnen über die Straße wollen.

    Wenig überraschende Einsicht: Die Leute gucken mehr, wenn die Bilder nur 3 Sekunden (statt 6 Sekunden) stehen bleiben. Was Filmchen (bei denen Bilder ja nur was wie 1/25stel Sekunde stehenbleiben) anrichten, untersuchen sie nicht. Überhaupt macht der Artikel quantitativ nicht viel her. Oh, abgesehen von Zahlen, die sie selbst nur zitieren: In den Fahrradländern Niederlande und Dänemark sterben nur drei bis vier FußgängerInnen pro Million Einwohner und Jahr. In den jüngst wild motorisierten Lettland und Litauen ist es ein Faktor 10 mehr, also etwas wie 35 pro Million und Jahr.

    Zur Einordnung will ich nicht verschweigen, dass ausweislich der aktuellen RKI-Zahlen SARS-2 in der BRD 1500 Menschen auf eine Million EinwohnerInnen umgebracht hat und das auch schlimmer hätte kommen können (aber: Caveat bezüglich dieser Sorte Zahlen). Andererseits: Wollte mensch den gesamten Blutzoll des Autos bestimmen, Verkehrstote, durch Verkehrsverletzungen verfrühte Tode, Opfer von Lärm und Luftverschmutzung, vielleicht gar von Bewegungsmangel, wäre es wohl nicht schwer, für die BRD auf 700 Autoopfer pro Million und Jahr zu kommen und damit ziemlich genau in den Bereich des durch Maßnahmen und Impfung gezähmten SARS-2. Aber diese Rechnung braucht mal einen anderen Post.

    [1]Leider hat Science den Artikel, dessen AutorInnen fast sicher aus öffentlichem Geld bezahlt wurden und die jedenfalls öffentliche Infrastruktur (U Toronto, Vrije Uni Amsterdam, U Minnesota) nutzten, weggesperrt, und er ist im Augenblick auch noch nicht auf libgen. Hmpf.
  • Kopfzahlen: Plastikproduktion

    Ein großer Haufen Plastikbecher auf einer gepflasterten Straße

    2014 in Lissabon: nach einer Nacht im Barrio Alto hat sich an der Straße ein Pfund Plastik gesammelt. Ihr guckt auf etwa ein Millardstel der gegenwärtigen Weltjahresproduktion.

    In der Deutschlandfunk-Sendung Forschung aktuell gab es am 2. März ein Segment mit einer Zahl, die ich im Kopf haben sollte: Die Weltproduktion von Kunststoffen liegt derzeit bei 460 Millionen Tonnen oder einer halben Gigatonne pro Jahr und hat seit dem Jahr 2000 um ziemlich genau den Faktor 2 zugenommen.

    In den Größenordnungen von Naturkatastrophen gesprochen braucht es 5⋅108  t ⁄ (25  t/Container), also 20 Millionen TEU-Container, um den ganzen Mist (von der Masse her) bewegt zu kriegen. Wenn das alles durch einen Hafen ginge, müsste da öfter als alle zwei Sekunden so ein Container randvoll mit Plastik rein bzw. raus.

    Mit der Annahme, dass Rohöl 1:1 in Kunststoff umgesetzt wird – (wahrscheinlich eher konservativ) – hat es 5⋅108  t ⁄ (5⋅105  t/Tanker), also überraschende 1000 große Supertanker gebraucht, um das Öl für das Zeug zu den Chemiefabriken zu bringen. Das sind sowas wie drei am Tag. Ganz ehrlich kommt mir diese Zahl enorm, fast unglaublich groß vor. Wahrscheinlich werden doch ganz schön viele der Fabriken durch Pipelines beliefert, zumal wohl auch Gas ein beliebter Ausgangsstoff für viele Kunststoffe ist.

    Mit den Kopfzahlen für Flächen geht noch eine andere Veranschaulichung, denn zufällig ist ja die Fläche der Erde auch so etwa 450 Millionen Quadratkilometer. Mithin produzieren wir für jeden Quadratkilometer Erdoberfläche ziemlich genau eine Tonne Plastik,für jeden Quadratkilometer Land gar drei Tonnen. Wiederum scheint mir das unglaublich viel.

    Um das weiter in Relation zu setzen: Kunststoffe wie Polyethylen haben ungefähr die Dichte von Wasser, also 1000  kg ⁄ m3, und Folie daraus ist etwas wie 0.01 mm oder 10 − 5  m dick (ich nehme mal dieses Angebot als repräsentativ). Weil die Dichte ρ gleich Masse m pro Volumen V und Volumen Fläche A mal Dicke b ist, kann mensch die mit einer Tonne PE-Folie bedeckbare Fläche zu

    A = (m)/(ρb) = (1000  kg)/(1000  kg/m3⋅10 − 5  m)

    und also 100'000 Quadratmetern ausrechnen (Gegenrechnung: ein Kilo Folie könnte so 100 Quadratmeter oder eine größere Wohnung abdecken; das klingt plausibel). Unsere Tonne Plastikfolie bedeckt von unserem Quadratkilometer immerhin ein Zehntel (bzw. zehn von den Hektaren aus den Flächen-Kopfzahlen, die mensch in zwei Minuten durchqueren konnte).

    Ist es tröstlich, dass wir auch bei der gegenwärtigen Plastikproduktion immer noch 10 Jahre bräuchten, bis wir den Planeten ganz in Frischhaltefolie eingewickelt hätten? Na gut, wenn wir das Meer unverpackt ließen, würden wir es auch in drei Jahren schaffen. Wir müssten nur den ganzen anderen Plastikquatsch für drei Jahre weiterwenden, um die Produktion für das große Verpackungsprojekt freizukriegen.

  • Menschliche Leistung: Hundertfünfzig Watt

    Ich bin gerade über einen Artikel in Spektrum der Wissenschaft 11/17 (leider Paywall) an das Paper „Hunter-Gatherer Energetics and Human Obesity” von Herman Pontzer und KollegInnen geraten (DOI 10.1371/journal.pone.0040503, open access). Darin geht es grob darum, dass JägerInnen, SammlerInnen und BäuerInnen ungefähr genauso viel Kohlenstoff verstoffwechseln wie StadtbewohnerInnen, und das, obwohl sich letztere natürlich deutlich weniger bewegen als die anderen. Diese Erkenntnis hätte mich jetzt noch nicht sehr begeistert, doch die folgende Grafik verdient jede Aufmerksamkeit:

    Punktwolke mit großer Streuung und nicht stark ausgeprägter Korrelation

    Energieaufwand pro Tag für westliche Menschen (grau), bolivianische BäuerInnen (blau) und afrikanische Jäger/Sammlerinnen (rot), aufgetragen über eine Art normiertes Körpergewicht. CC-BY Pontzer et al.

    Dieser Plot nimmt – nicht ganz absichtlich – meine Frage zur thermischen Leistung von Menschen auf. Damals war ich ja aufgrund der Messungen meines CO₂-Messgeräts im Büro darauf gekommen, dass ich für ungefähr 16 Watt CO₂ ausatme – das stellt sich, wie erwartet, als kräftige Unterschätzung heraus. Ich sollte das wirklich mal neu ausrechen, zumal ich die wirkliche Stoffwechselrate inzwischen auch besser einschätzen kann, weil mir der CO₂-Verlust durch Fenster, Türen und Blumen dank vieler Daten für den leeren Raum inzwischen gut zugänglich sein sollte.

    Aber das ist für einen anderen Tag. Heute lese ich aus der Grafik von Pontzer et al ab, dass ein Mensch wie ich (70 Kilo alles zusammen, davon vielleicht 20% Fett, also in der Grafik bei log(56) ≈ 1.75 zu suchen) so zwischen 3.3 und 3.6 auf der y-Achse liegt. Nach Delogarithmierung (also: Zehn hoch) würde ich demnach zwischen 2000 und 4000 Kilokalorien am Tag umsetzen. Mensch ahnt erstens, dass Fehlerbalken unter Logarithmierung zusammenschrumpfen – dass „3.3 bis 3.6“ in Wahrheit „innerhalb eines Faktors 2“ heißt, mag für logarithmenferne Bevölkerungsschichten überraschend sein – und zweitens, dass große Teile der Wissenschaft immer noch Einheiten aus der ersten Hälfte des letzten Jahrhunderts verwenden. Seit dessen zweiter Hälfte nämlich kommen Arbeit und Energie bei anständigen Leuten in Joule (einer Kalorie entsprechen 4.2 davon).

    Das führt auf meine Kopfzahlen für heute: Ein Mensch wie ich leistet etwas zwischen 8000 und 16000 Kilojoule am Tag. Hier will sich mensch übrigens die Spannbreite ganz definitiv mitmerken, und zwar als Gegengift zum „Tagesbedarf“, der auf jeder Lebensmittelverpackung aufgedruckt ist[1].

    Unter vielen guten Gründen für die Verwendung des Joule (statt der Kalorie) steht weit oben die Tatsache, dass mensch gleich auf Leistungen in Watt kommt (das ist nämlich ein Joule pro Sekunde). Wer im Kopf hat, dass ein Tag 86400 Sekunden lang ist, erhält meine Leistung in üblichen Einheiten zwischen den 100 und 200 Watt, zwischen denen ich im November-Post bedingt durch DuckDuckGo und meine grobe Erinnerung schwankte.

    Bemerkenswert an der Pontzer-Grafik finde ich noch die beiden Ausgleichsgeraden für westliche Männer (durchgezogen) und Frauen (gestrichelt). Ich habe ja schon immer große Zweifel an Gender-Unterschieden in vielen „Normalbereichen“ gehabt, die es für Tagesbedarfe und allerlei Laborwerte gibt; so war z.B. in meiner Zivildienstzeit der Normalbereich des Kreatininspiegels für Frauen eine ganze Ecke höher als für Männer, und ich bin immer noch fest überzeugt, dass das einen rein sozialen (Frauen trinken im Schnitt weniger, weil sie es meist deutlich schwerer haben, unbelästigt zu pinkeln) und keinen vertretbar als biologisch zu bezeichnenden Grund hat.

    Warum nun der Energieumsatz von Frauen steiler mit ihrer Masse wachsen sollte als bei Männern, warum sie ab einer Masse von vielleicht 75 Kilo (da würde ich die Mit-Fett-Masse des Schnittpunkts der Geraden sehen) dann sogar mehr leisten sollten als gleichschwere Männer, das leuchtet mir nicht ein – wie mir auch nicht einleuchtet, warum leichtere Frauen praktisch einen Faktor zwei weniger leisten sollten als gleichschwere Männer. Aber wer die Punktwolken mal qualitativ auf sich wirken lässt, wird ohnehin Zweifel an den Ausgleichsgeraden entwickeln.

    Tja: Mal sehen, wie sich das entwickelt, wenn die Systematiken von Pontzers Methode zur Bestimmung des Energieumsatzes (Leute trinken einen Haufen D₂-18O-Wasser, und mensch verfolgt, wie über die nächsten Tage Deuterium und der 18er-Sauerstoff im Urin runtergehen) etwas besser verstanden sind.

    Pontzer scheint jedenfalls bereit zu sein, irrtümliche Dogmen über Bord zu werfen. So ist er Mitautor einer Arbeit von Anna Warrener et al (DOI 10.1371/journal.pone.0118903), die seinerzeit (2015) auch breit durch die Presse ging. Das Paper zerstörte (nach meinem Eindruck als Laie in dem Feld) die lange quasi konkurrenzlose These, der doch sehr grenzwertig enge Geburtskanal menschlicher Frauen sei ein physiologischer Kompromiss, denn ein breiteres Becken würde sie beim aufrechten Gang behindern. So ein „lass uns das mal nachrechnen, auch wenn es ganz plausibel klingt“ ist für mich ein recht gutes Zeichen für ordentliche Wissenschaft besonders dann, wenn die plausible Vermutung nachher nicht rauskommt.

    [1]Wobei der „Tagesbedarf“ bei den „Kalorien“ nochmal besonderer Mumpitz ist: der „Brennwert“, der dort angegeben ist, ist genau das, ein Brennwert. Das Futter wird getrocknet und verbrannt, um auf „die Kalorien“ zu kommen. Am Beispiel von Holz oder Rohöl ist, glaube ich, gut einsichtig, dass das nur in Ausnahmefällen viel zu tun hat mit dem, was der menschliche Körper daraus an Bewegung oder Fett machen könnte. Sprich: Kalorienzählen ist schon von der Datenbasis her Quatsch.
  • Eine Sturmfront zieht durch

    Gestern am frühen Abend ist auch bei uns das als „Zeynep“ durch die Presse ziehende Sturmtief angekommen. Ich hatte überlegt, meine CO₂-Messapparatur auf dem Balkon –

    Zwei Eisschachteln beschwert mit einem rostigen Stahlriegel

    (unter der einen Eisschachtel ist ein Raspberry Pi, unter der anderen das zyTemp-Gerät, und die sind getrennt, weil der Raspi durch seine Abwärme die Temperaturmessung sehr stören würde – abzubauen, denn die zwei Eisschachteln, die da den Regenschutz machen, könnten bei hinreichend starkem Wind durchaus die Kraft entwickeln, den Stahlriegel[1], der sie über der Elektronik festhält, wegzuheben. Nun, ich habe die Installation stehen lassen und bin jetzt froh drum, denn so konnte ich den dramatischen Temperatursturz über die stürmische Kaltfront hinweg live beobachten:

    Graph: Ein starker Abfall von 15 auf 8 Grad

    (Die Zeit läuft in UTC, der Sturm begann hier also ziemlich genau um 18 Uhr MEZ).

    Sieben Kelvin Temperatursturz in einer guten halben Stunde finde ich schon ziemlich sportlich. Stickstoff siedet bei normalem Luftdruck bei 77 Kelvin (oder ungefähr minus 200 Grad Celsius angesichts des absoluten Nullpunkts bei -273 Grad Celsius). Wenn das so weitergegangen wäre mit dem Temperaturabfall um 15 Kelvin pro Stunde, würden sich 14 Stunden später, also ungefähr gerade jetzt, die ersten Stickstoffpfützen bilden. Whoa.

    Was mich zur Überlegung bringt, wie wohl die Atmosphäre ausfrieren würde; der Siedepunkt von Flüssigkeiten sinkt ja mit abnehmendem Druck, und weil die Erdatmosphäre Stickstoff plus ein bisschen was ist, wird der Druck sofort dramatisch fallen, wenn er kondensiert. Daher wird der Stickstoff wohl schön langsam nach und nach runterregnen, ganz wie kurz vorher schon der Sauerstoff (der bei 90 Kelvin siedet, aber weil niemand freiwillig mit flüssigem Sauerstoff hantiert, hat dieser Wert weniger Kopfzahl-Potenzial, und „ein wenig über Stickstoff“ ist alles, was ich mir merke), dessen 23% (nach Masse, nach Volumen sind es 21%) ja auch schon ordentlich zum Luftdruck beitragen.

    Das ist beim Kohlendioxid anders: Es würde ohne nennenswerte Änderungen beim Luftdruck ausfrieren und bei knapp 200 Kelvin (oder -70 Grad Celsius) mit etwas Glück hübsche Flocken bilden (es kann erst bei Drücken von über 5 bar überhaupt flüssig werden) und friedlich ausschneien. Ich bin nicht sicher, ob das schon mal wer für den Mars ausgerechnet hat: Schneit es dort CO₂ oder friert es eher wie Reif aus?

    Aber ich schweife ab. Um halb sieben hatte sich gestern abend der rasche Temperaturabfall gefangen, und das ist der zweite bemerkenswerte Punkt: an der Stelle, also nachdem die Front durch war, sank der CO₂-Gehalt der Luft ziemlich schlagartig um 20 ppm oder fünf Prozent. Das finde ich fast noch bemerkenswerter, denn es heißt, dass an der Front selbst nicht viel Materieaustausch stattfindet.

    Dass sich Wetterfronten so ähnlich zu Schockfronten verhalten, war mir bisher nicht klar, und ich habe aus dem Stand keine gute Erklärung, warum das so sein sollte. So eine Wetterfront ist ja doch recht turbulent (kann ich noch aus frischer Erinnerung sagen) und definitiv weit im Unterschallbereich, anders als die Schockfronten bei uns in der Astrophysik, wo sie meist aussehen wie die Filamente, die das HST im Cygnus Loop aufgenommen hat:

    Feine Filamente vor Himmelshintergrund

    Liebe GeophysikerInnen oder MeteorlogInnen: Ich bin dankbar für Lesetipps.

    [1]Wer sich fragt, was das mal war: Kioske hatten (oder haben?) solche Stahltrümmer zum Beschweren von Zeitschriften; wenn sie noch aktiv sind, ist da eine Kunststoffhülle mit Werbung drumrum. Also: Augen auf bei Sperrmüll nach Kioskauflösungen, die Dinger sind wirklich praktisch.
  • Kopfzahlen: Vulkane, Massen, Volumen

    Foto einer Fumarole

    Meine tatsächliche Erfahrung mit vulkanischem Schwefel geht nicht weit über die paar Gramm hinaus, die die Solfatara an dieser Fumarole abgelagert hat.

    In Forschung aktuell vom 18.1. ging es um den Ausbruch des Hunga Tonga Hunga Ha'apai (spätestens seit dem Ausbruch des Eyjafjallajökull ist klar, dass viele Vulkane großartige Namen haben). Darin hieß es, dass bei der Eruption wohl um die 400'000 Tonnen Schwefeldioxid entstanden sind, und dass das nicht viel sei, weil ein wirklich großer Vulkanausbruch – als Beispiel dient der Pinatubo-Ausbruch von 1991 – 20 Millionen Tonnen Schwefeldioxid emittiert.

    Bei dieser Gelegenheit ist mir aufgefallen, dass mir diese 20 Millionen Tonnen spontan alarmierend wenig sagten. Und drum dachte ich mir, ich sollte mal ein paar Kopfzahlen zu eher großen Massen und – weil ein Kubikmeter Wasser eine Masse von einer Tonne hat, hängt das eng zusammen – Volumen sammeln.

    Einfach war noch, die 20 Megatonnen mit meiner praktischen Kohlendioxid-Kopfzahl von neulich, 2/3 Gigatonnen CO₂ pro Jahr aus der BRD, zu vergleichen. Nun ist SO₂ eine ganz andere Nummer als CO₂ (ich erinnere mich an atemberaubende Vulkanbesuche und den weit größeren Schrecken des Chemiepraktikums), aber als Vorstellung finde ich es hilfreich, dass so ein ordentlicher Vulkanausbruch in etwa so viel Schwefeldioxid freisetzt wie die BRD in zehn Tagen (nämlich: ein dreißigstel Jahr) Kohlendioxid.

    Was SO₂-Emissionen selbst angeht, sieht das natürlich ganz anders aus; laut einer Grafik des Umweltbundesamts hat die BRD am Höhepunkt der Saure-Regen-Bekämpfung 1990 lediglich knapp 6 Megatonnen pro Jahr emittiert, also rund ein Viertel Pinatubo, und ist jetzt bei einer halben Megatonne, also in etwa einem Hunga Tonga Hunga Ha'apai (der Name begeistert mich erkennbar). In diesem Zusammenhang gar nicht erwartet hätte ich, dass laut einer IMO-Studie von 2016 der Schiffsverkehr weltweit nur 10 Mt Schwefeldioxid emittiert haben soll, also kaum doppelt so viel wie die BRD 1990, und inzwischen, im Rahmen einer in einschlägigen Kreisen offenbar besorgt beäugten Initiative namens IMO 2020, noch eine ganze Ecke weniger emittieren dürfte.

    Nur vorsorglich: Wer den DLF-Beitrag gelesen hat, mag sich erinnern, dass der Pinatubo das Weltklima um ein halbes Kelvin abgekühlt haben wird. Die sechs Megatonnen Schwefeldioxid aus der 1990er BRD haben jedoch sicher nicht ein achtel Kelvin ausgemacht, und zwar, weil sie fast ausschließlich bodennah entstanden sind. Damit Schwefeldioxid ordentlich klimawirksam wird, muss mensch es in die Stratosphäre bringen. Das ist für einen zünftigen Vulkan kein Problem. Und wäre leider auch für Menschen möglich.[1]

    Wenn sich der Schwefel des Pinatubo wie im Foto oben niederschlägt, wie viel ist das dann? Nun, erstmal ist der Masseanteil von Schwefel im SO₂ recht leicht auszurechnen, denn üblicher Schwefel hat Atommasse 32, während Sauerstoff bei 16 liegt, zwei davon also auch bei 32. Damit ist die Hälfte der Masse von Schwefeldioxid Schwefel, und der Pinatubo hat 10 Megatonnen Schwefel ausgespuckt. Bei einer Dichte von 2000  kg ⁄ m3 (hätte ich geringer eingeschätzt, muss ich sagen) macht das 5⋅106  m3 aus und würde einen Würfel von (5⋅106)1 ⁄ 3 oder runden 170 Metern Kantenlänge füllen.

    Um so ein Volumen einzuordnen, erkläre ich nachträglich den Neckar-Abfluss aus dem Flächen-Post, 150 m3 ⁄ s im Jahresmittel, zur Kopfzahl. Dann entspricht der ganze Katastrophenschwefel des Pinatubo dem Wasser, das in 30 Kilosekunden (coole Einheit: gerade in der Röntgenastronomie wird die viel verwendet) oder knapp 10 Stunden durchläuft. Und das alles Schwefel. Whoa. Vielleicht nehmen wir doch lieber den nächstgrößeren Fluss:

    Foto: Rhein bei Köln

    Der Rhein bei Köln; als ich das Foto gemacht habe, wars eher heiß und Sommer, und so mag das sogar etwas weniger als Normalwasserstand sein.

    Im Rhein bei Köln fließen bei Normalwasserstand 2000  m3 ⁄ s (hatte ich nicht im Kopf, will ich mir als ein Dutzend Neckare merken), und da bräuchte der Pinatubo-Schwefel 2500 Sekunden oder eine Dreiviertelstunde. Immer noch beängstigend. Legen wir also nochmal eins drauf und nehmen den Amazonas. Der führt an der Mündung 70-mal mehr Wasser als der Rhein (was ungefähr 1000 Neckare wären). In dem wäre der Pinatubo-Schwefel in so etwa einer halben Minute durch. Puh. Aber auch nicht sehr tröstlich, denn, wie die Wikipedia ausführt, ist der Amazonas

    der mit Abstand wasserreichste Fluss der Erde und führt an der Mündung mehr Wasser als die sechs nächstkleineren Flüsse zusammen und ca. 70-mal mehr als der Rhein.

    Etwas anfassbarer, gerade für Menschen, die dann und wann im URRmEL sind, ist ein Transportcontainer. Die kurzen davon („TEU“) wiegen leer 2300 kg, voll fast 25 Tonnen und fassen[2] 33 m3. Unsere 5 Millionen Kubikmeter Pinatubo-Schwefel entsprichen also rund 150'000 solcher Container – oder rund 1000 ziemlich langen Güterzügen. Aber das Volumen wäre hier nicht mal das Problem: Angesichts des 25-Tonnen-Limits braucht es für die 10 Megatonnen Schwefel mindestens 400'000 Container (die nicht ganz voll sein dürfen).

    Für solche Containerzahlen braucht es Schiffe. Eines wie die Ever Given, die im letzten März im Suezkanal steckenblieb und vorher schon 2019 eine (liegende) Passagierfähre in Blankenese umgenietet hatte, trägt rund 20'000 TEUs. Für den Pinatubo-Schwefel bräuchte es mithin naiv gerechnet 20 Ever Givens[3].

    Beim Schiffgucken bin ich leider in der Wikipedia versunken. Als ich wieder rausgekommen bin, hatte ich albern viel Zeit mit der Liste der größten Schiffe verbracht und mir vorgekommen, mir als Kopfzahlen für große Massen die Titanic (50'000 Tonnen; moderne Kreuzfahrtschiffe oder Flugzeugträger kommen auch nur auf rund 100'000) und richtig große Tanker (500'000 Tonnen) zu merken, von denen entsprechend einer reichen würde für das angemessen verdichtete Schwefeldioxid vom Hunga Tonga Hunga Ha'apai. Und wo ich so weit war, habe ich festgestellt, dass ich die die 3000 Tonnen der großen Rheinschiffe aus meiner Kraftwerks-Abschätzung schon wieder vergessen hatte. Das erkläre ich jetzt auch zu einer Kopfzahl, im Hinblick auf die Sammlung, die ich demnächst anlegen werde.

    Während meiner Wikipedia-Expedition hat mich ein Artikel ganz besonders fasziniert: Fruchtsafttanker. Oh! Ein ganzes Schiff voll Orangensaft! Ein Paradies!

    Es gibt, so sagt die Wikipedia, „weltweit weniger als 20 Schiffe“, die als Fruchtsafttanker betrieben werden. Aber dafür trägt eines davon gleich mal über 10'000 Kubikmeter Saft. Dass es so etwas wirklich gibt, könnte mich glatt zum Kapitalismus bekehren.

    [1]Das heißt nicht, dass Seiteneffekte der Kohleverbrennung nicht doch kühlende Effekte gehabt hätten; vgl. etwa Klimawirkung von Aerosolen. Es gibt ernsthafte Spekulationen (die rauszusuchen ich jetzt zu faul bin), dass die CO₂-bedingte Erderwärmung erst ab den 1970er Jahren so richtig auffällig wurde, weil vorher erstaunliche Mengen Kohlenruß in der Atmosphäre waren Das große Fragezeichen dabei ist, ob dessen kühlende Wirkungen (Nebel- und Wolkenbildung) seine heizenden Wirkungen (etwa, indem er Schneeflächen verdreckt und damit ihre Albedo reduziert oder vielleicht sogar ähnliches mit Wolken anstellt) wirklich überwiegen.
    [2]Das Containervolumen ist über „Zwanzig Fuß mal ungefähr zwei Meter mal ungefähr zwei Meter als 2⋅2⋅20 ⁄ 3 oder rund 25 Kubikmeter so gut abschätzbar, dass ich da keine Kopfzahl draus machen würde.
    [3]In Wahrheit braucht es deutlich mehr als 20 Ever Givens. Als Tragfähigkeit des Schiffs gibt die Wikipedia nämlich 200'000 Tonnen (dabei ist mir wurst ob metrisch oder long), was bei 20'000 Containern bedeutet, dass ein Container im Schnitt nur 10 und nicht 25 Tonnen wiegen darf. Das reime ich mir so zusammen, dass einerseits auf diesen Schiffen vor allem 40-Fuß-Container fahren werden, die aber nur 30 Tonnen wiegen dürfen, also 2/3 der Maximaldichte der 20-Fuß-Container erlauben – und damit, dass in Containern normalerweise eher Stückgut ist, und selbst wenn an dem viel Metall sein sollte – ohnehin unwahrscheinlich in unserer Plastikgesellschaft – wirds normalerweise schwierig sein, das Zeug so eng zu packen, dass es am Schluss auch nur die Dichte von Wasser hat.
  • Variable Inflation

    Relativ parallel verlaufende Kurven

    Dieser Artikel hat nach langen Windungen leider keine Pointe. Und zwar im Wesentlichen wegen dieser Grafik, generiert vom Rechner für die persönliche Inflationsrate des statistischen Bundesamts. Siehe unten.

    Ich fletsche hier ja regelmäßig die Zähne in Richtung von allerlei Metriken, also Zahlen, die (meist) Unmessbares messen sollen und damit in aller Regel Politiken rechtfertigen, die schlecht sind für die, bei denen diese ankommen.

    Der ganz große Klassiker im Metrik-Geschäft ist das Bruttosozial- oder -inlandsprodukt (BSP bzw. BIP), dessen Wachstum im allgemeinen Bewusstsein als Synonym für wachsenden Wohlstand gilt, zumal in seiner Form als BIP pro Kopf. In Wirklichkeit versucht die Metrik zu messen, wie viele „Waren und Dienstleistungen“ (womit es schon losgeht: was ist das?) „hergestellt“ (realistisch: verkauft) werden, und zwar von StaatsbürgerInnen (BSP) oder innerhalb der Staatsgrenzen (BIP).

    Das Bruttosozialprodukt und der Krieg

    Dass das BIP wesentlich mit Wohlstand korreliert sei, ist offensichtlich falsch – selbst die Produktion von Wohlstandsvernichtern wie Autos und anderen Waffen erhöht das BIP –, und das wurde auch schon breit kritisiert. Der entsprechende Abschnitt in der Wikipedia ist nach Maßstäben diese Genres eher zahm.

    Diese Klarstellung im Hinblick auf Wohlstand ist wichtig, aber etwas unfair, denn, a propos Waffen: Historisch sollte das BSP das mit dem Wohlstand gar nicht machen. Besonders aufschlussreich in der Hinsicht fand ich einen Artikel in der taz vom 2.5.2015, der daran erinnerte, dass sich das BSP in seiner heutigen Form vom Gottseibeiuns der Marktradikalen, John Maynard Keynes, in einem Artikel mit dem sprechenden Namen How to Pay for the War ersonnen wurde und sich letztlich als Metrik der wirtschaftlichen Kriegsfähigkeit durchgesetzt hat. Die taz-Autorin Ulrike Herrmann implizierte 2015, dass das BSP dafür offenbar taugte, denn es hat ja die Keynes-Seite gewonnen – mehr kann mensch von einer Metrik nicht erwarten.

    Ich selbst glaube zwar nicht, dass BSP-Rechnungen auf Seiten der Nazis irgendwas am Kriegsverlauf geändert hätten, aber für meinen nächsten Gedanken will ich trotzdem mal annehmen, das BSP sei im zweiten Weltkrieg eine kriegsnützliche Metrik gewesen. Von dort aus möchte ich behaupten, dass es unter Bedingungen weitgehender reproduktiver Selbstbestimmung allenfalls noch sehr kurzfristig für die Bewertung der Kriegsfähigkeit taugt. Solange sich nämlich in Kriegen immer noch in erster Linie junge Leute (statt, sagen wir, Roboter) erschießen, braucht es für deren Führung hinreichend Nachwuchs. Den immer noch dominierenden Modus der Reproduktion, unbezahlte Arbeit von Müttern an ihren Kindern, erfasst das BIP jedoch nicht.

    Als das Konzept entstand, war die Vorstellung klarerweise, dass Frauen ganz von selbst Kinder kriegen und aufziehen. Das stimmt nicht mehr, und daher wäre mein Rat an die BIP-MacherInnen: Wenn euer BIP weiter wie gehabt funktionieren soll, müsst ihr auch die Herstellung von Kindern verrechnen.

    Tatsächlich wäre es überhaupt kein Stilbruch, sowas irgendwie ins BIP reinzufummeln. Denn natürlich weiß niemand, wie viel wirklich verkauft oder gar hergestellt (denkt an all die handgestrickten Babysachen, von denen keine Statistikbehörde je erfahren wird) wird, und die Grenze zwischen Ware und Nicht-Ware ist ziemlich beliebig. Gewiss, das Steueraufkommen ist ein brauchbarer Indikator, aber mehr eben nicht. Viele Variablen liegen zwischen dem und irgendwelchen Gesamtproduktions- oder Einkommensziffern. Auch auf der legalen Seite der Demarkationslinie zur Schwarzarbeit passiert viel Austausch, ohne dass davon irgendwer etwas mitbekommt.

    Mit solchen Gedanken im Kopf habe ich vor einiger Zeit GDP: A Brief but Affectionate History von Diane Coyle (Princeton 2014; gibts bei der Imperial Library of Trantor) mit viel Interesse gelesen. Darin geht es zum Beispiel um die Beliebigkeiten in den BIP-Berechnungen (englisch Gross Domestic Product oder GDP) – der Klappentext erwähnt Ausschläge von 60% über Nacht für Ghana –, ebenso wie über die historischen Diskussionen, was alles zum „Volkseinkommen“ gehören soll: Kriegsausgaben? Staatsausgaben überhaupt? Gesundheitsausgaben? Oder in dem Bereich vielleicht nur Pillen, nicht aber die Arbeit von ÄrztInnen? „Dienstleistungen“ (was immer das ist) an sich, und wenn ja, wie bewertet?

    Dennoch: Kopfzahlen

    Die tatsächlichen Regeln für die Berechnung von BIP-artigen Metriken sind also im Gegensatz zur munteren Betrachtung in der Wikipedia in weiten Bereichen biegsam. Zwar mag eine genaue und ehrliche Zweckbestimmung helfen, die eben aufgeworfenen Fragen, sagen wir, intersubjektiv zu beantworten, aber letztlich ist das Konvention, und selbst für das BIP in der Keynes-Definition ist da viel zu vereinbaren. Die international offenbar populärste Konvention stellt Coyle vor, namentlich das System of National Accounts, das sich in den vergangenen siebzig Jahren von fünfzig auf 722 Seiten aufgebläht hat.

    Das allerdings schafft schon wieder Beliebigkeit. Aus meiner Erfahrung mit 50-seitigen Standards, für die nach einer Weile Validator-Programme verfügbar wurden (und zeigten, dass notdürftig funktionsfähig aussehende Dienste voll mit Fehlern waren), kann ich zuversichtlich sagen: Solange es keinen rechnergestützten Validator gibt (und das ist hier bis zur Erfindung starker KI eigentlich undenkbar), sind 722 Seiten voll Regeln so gut wie überhaupt keine Regeln: Das System ist fast sicher in sich höchst widersprüchlich, und auch mit dem besten Willen (der nur bei wenigen Statistikbehörden und Ministerien vorausgesetzt werden darf) werden Menschen ständig Fehler machen.

    Wie auch immer: Als Kopfzahl ist es ja vielleicht trotzdem ganz nützlich zu wissen, dass das BIP der BRD laut IWF 2019 knapp 4 Billionen Dollar betrug, das der USA etwas über 20 Billionen Dollar und das eines ordentlichen und großen Trikontstaats wie z.B. Nigeria 500 Milliarden Dollar. Sicher sind diese verschiedenen Dollars nicht annähernd vergleichbar, aber die Zahlen taugen doch für schnelle Überschlagsrechnungen, wenn verkündet wird, der Börsenwert von Apple sei jetzt, was, zwei Billionen Dollar (etwa: die AktionärInnen von Apple könnten für ein halbes Jahr die BRD leerkaufen und Nigeria für vier Jahre), oder wenn die Frage ist, wie viel der Bund mit einem Bundeshaushalt von (außerhalb von Corona) 350 Milliarden Euro an „den Märkten“ reißen kann – natürlich immer mit der Maßgabe, dass über Messfehler, Umrechnungen, Inflationsanpassung und so fort da schnell ein Faktor zwei dabei ist.

    Persönliche Inflation

    Der größte Unsicherheitsfaktor innerhalb der Serie einer Behörde wird wahrscheinlich die Inflationsanpassung sein, angefangen dabei, ob sie vorgenommen wurde oder nicht. Erstens ist sie ein exponentieller Effekt. Nehmen wir mal an, dass die Inflationsrate im Schnitt bei den 2% pro Jahr liegt, die diverse Zentralbanken gerne hätten, und dass sie tatsächlich ein Maß ist, wie viel mensch so kaufen kann. Nach der Königsformel „Verdoppelungszeit ist 75 Zeiteinheiten[1] durch prozentuale Rate“, liegen inflationsbereinigte und rohe BIPs schon nach 37 Jahren um einen Faktor zwei auseinander.

    Nun liefert aber auch eine Bereinigung um Inflation und Währungseffekte kaum Zahlen, die mit Erfahrungen von Konsummöglichkeiten korrelieren. Seht etwa die nach PPP bereinigten historischen Vergleichswerte zum BIP an: Es ist abwegig, dass sich irgendeine Sorte von „gefühltem“ Konsum für der BRD zwischen 1990 und 2019 von 1437 auf 4672 Milliarden Äquivalent-Euro verdreifacht haben soll. Wer damals schon gelebt hat, wird sich erinnern, dass sich – abgesehen davon, dass es noch keine SUVs und nur wenig Mobiltelefone gab – das allgemeine Konsumniveau hier im Land nicht wesentlich geändert hat.

    Zweitens also ist die Inflation selbst eine wacklige Größe, womit ich endlich zum Link komme, der mich zur vorliegenden Diatribe inspiriert hat, weil ich ihn verkopfzahlen wollte: Labournet berichtet, dass rund die Hälfte der 8.4 Millionen MieterInnen in deutschen Großstädten mehr als 30% ihres Einkommens für Miete augeben müssen. Das fand ich schon für sich relevant, ich wollte aber vor allem den Punkt machen, dass solche Leute bei explodierenden Mietpreisen eine weit höhere Inflation haben werden als Menschen, die keine Miete zahlen müssen.

    Da VermieterInnen in der Regel eher reich und MieterInnen in der Regel eher arm sind, bedeuten Mieten, die stärker steigen als die Inflation, eine Art kalte Umverteilung von unten nach oben bei gegebenem BIP (ob pro Kopf oder anders). Die Inflationsschätzung basiert ja auf einem Warenkorb, den das statistische Bundesamt (Destatis) zusammenstellt, und wenn Leute viel mehr für Miete ausgeben als im Warenkorb repräsentiert und die Mieten viel stärker steigen als die Preise im Rest des Warenkorbs, ist ihre „persönliche Inflation“ viel höher als die Zahl aus den Nachrichten. Die BIP-pro-Kopf-Metrik nicht nur wegen ungleicher Einkommensverteilung zweifelhaft, sondern auch, weil sie obendrauf noch eine innere Kaufkraftkorrektur bräuchte.

    Das hatte ich nun auf der Basis der rasant steigenden Mieten illustrieren wollen und habe auf den Seiten des Statistischen Bundesamts herumgestöbert, um mein Gefühl zu erhärten, dass Mieten weit über der Inflation steigen. Das Gefühl hat seine Grundlage in meinem persönlichen WG-Zimmer-Index für Heidelberg. Ausweislich durchschnittlicher Aushänge würde ich für 1990 den mittleren Kurs etwa bei 150 Euro sehen, inzwischen eher bei 500 Euro (unter Annahme der DM-Euro-Konversion von 2001). Die Mieten hätten sich also in dreißig Jahren also gut verdreifacht, was einer Verdopplungszeit von 18 Jahren oder einer jährlichen Inflation von 75/18, also 4% entspricht; die berichtete Inflation lag in der Zeit von kurzen Phasen abgesehen jedoch deutlich unter 2 Prozent.

    Nun, es stellt sich raus: Das Konzept der je nach sozialer Schicht verschiedenen Inflationsrate illustriert das Amt selbst recht schön und bietet sogar einen Rechner für die persönliche Inflationsrate an – Kompliment an dieser Stelle dafür, dass da ein SVG-Download angeboten wird (wie überhaupt die Webseite den Eindruck hinterlässt, dass hier Leuten mit Verstand und Spaß bei der Sache relativ freie Hand gelassen …

  • Kohlendioxid auf dem Balkon

    Nicht offensichtlich korrelierte Kurven von CO_2, Windgeschwindigkeit und Temperatur

    CO2-Konzentrationen auf meinem Straßenbalkon, zusammen mit Windgeschwindigkeiten und Temperaturen. Das ist ein SVG, es lohnt sich also durchaus, in einem separaten Browserfenster in den Plot zu zoomen.

    Ich habe neulich eine längere Zeitreihe mit CO2-Konzentrationen auf meinem „vorderen” Balkon genommen. Zur Einordnung: Das Messgerät steht so etwa 10 Meter über und 15 Meter neben einer halbwegs viel befahrenen Straße. Ob das wohl etwas mit den wilden Schwankungen zu tun hat, die in der Kurve oben vor allem um den 9.11. herum zu sehen sind? Muss ich meine Einschätzung von neulich, einzelne Autos seien selbst im mittleren Nahbereich im CO2 kaum nachzuweisen (nun: an der frischen Luft, natürlich), revidieren?

    Verheizt jemand 100000 Tonnen Kohlenstoff am Tag?

    Wer die Kurven von Windgeschwindigkeit[1] und CO2-Konzentration vergleicht, könnte schon glauben wollen, ohne externe Frischluftzufuhr (also bei niedrigen Windgeschwindigkeiten) gehe das CO2 lokal merklich nach oben. Wirklich überzeugen kann mich aber keine Korrelation zwischen den verschiedenen geplotteten Größen.

    Darum gehe ich die Frage zunächst deduktiv an: woher könnten die enormen Schwankungen der CO2-Konzentration wohl kommen? Wir reden hier von einer Spanne zwischen 260 ppm und über 400 ppm, wobei es vorkommen kann, dass ich innerhalb von wenigen Stunden 100 ppm mehr CO2 sehe. Der langfristig ansteigende Trend macht mir übrigens weniger Sorgen: Wenn die Photosyntheserate Richtung Winter dramatisch sinkt, die Emission aber z.B. wegen Heizung eher zunimmt, ist das angesichts der beschränkten globalen Durchmischung der Atmosphäre auf der Erde zu erwarten[2], auch wenn das vielleicht nicht gerade innerhalb von zwei Wochen vonstatten gehen sollte.

    Mit den Werkzeugen aus dem Artikel zu meiner Heizleistung von neulich kann mensch abschätzen, was so eine Konzentrationsschwankung in einer lokal gut durchmischten Atmosphäre in, sagen wir, verbranntem Kohlenstoff bedeuten würde.

    Dafür muss ich erst überlegen, wie viele CO2-Teilchen ΔNCO2, oder der Bequemlichkeit halber eher welche CO2-Stoffmenge ΔnCO2 = NCO2 ⁄ A („in mol”) es braucht, um die Konzentration (in ppm, also CO2-Molekülen pro Million Teilchen insgesamt) innerhalb eines angenommenen Volumens V um das Δcppm zu erhöhen, das ich aus dem Plot ablese. Gemäß meinen Rezepten von neulich ist das:

    ΔnCO2 = (V)/(Vm)⋅Δcppm⋅106, 

    wobei Vm wieder das Normvolumen ist (22.4 Liter pro mol); das A von oben war die Avogadro-Konstante. Um herauszukriegen, wie viel Kohlenstoff (sagen wir, in Kilogramm) ich verbrennen muss, um diese Änderung quasi durch „frisches“ CO2 hinzukriegen, muss ich das nur noch mit dem Atomgewicht von Kohlenstoff uC multiplizieren.

    Das Atomgewicht ist, weil Kohlenstoffkerne meist 6 Protonoen und 6 Neutronen enthalten, mit 12 g/mol gut abgeschätzt (ganz genau ist das nicht, vor allem weil in der Atmosphäre auch etwas C-13 und sogar ein wenig C-14 herumschwebt). In dieser Kopfzahl steht das Gramm aus historischen Gründen. Das Mol wurde so definiert, dass die Zahl der Nukleonen im Kern so in etwa das Atomgewicht liefert, als in der Wissenschaft das cgs-System (aus Zentimeter, Gramm und Sekunde) seine große Zeit hatte. Würde mensch das Mol in den heutigen SI-Zeiten (na gut: die meisten AstronomInnen bleiben dem cgs verhaftet und reden zum Beispiel über Energien in erg) definieren, wäre die Avogadro-Konstante um einen Faktor 1000 (nämlich den Faktor zur SI-Einheit Kilogramm) größer.

    Wie auch immer: Wenn ich mir mal vorstelle, dass das, was ich da auf meinem Balkon messe, repräsentativ für den Umkreis von 10 km und bis in eine Höhe von 2 km wäre (mensch ahnt schon: Ich eröffne hier eine Reductio ad absurdum), komme ich auf ein Volumen von

    V = 2⋅π⋅(10  km)2⋅(2  km) ≈ 1.3⋅1012  m3

    was mit Vm ≈ 0.02 m3 ⁄  mol, einer Änderung von 100 ppm, die mensch als Sprung am 9. und 10.11. sehen kann, sowie der Formel oben auf

    ΔmC  = uC(V)/(Vm)⋅Δcppm⋅106  ≈ 0.012 kg ⁄ mol(1.3⋅1012  m3)/(0.02 m3 ⁄  mol)⋅100⋅10 − 6  ≈ 8⋅107  kg

    oder achzigtausend Tonnen verbrannten Kohlenstoff führt. Das klingt nach richtig viel und ist es auch. Aber das Volumen, das ich hier betrachte, sind eben auch 1200 Kubikkilometer, und wer sich erinnert, dass ein Kubikmeter eines normalen Gase bei Normalbedingungen um die 1 kg wiegt, kann leicht ausrechnen, dass die Luft in diesem Volumen 1.2⋅1012  kg (oder 1.2 Milliarden Tonnen – Luft in großen Mengen ist überhaupt nicht leicht) wiegen wird. Dieser ganze Kohlenstoff macht also ungefähr 0.07 Promille (oder 70 Milionstel) der Masse der Atmosphäre aus, was ganz gut mit den 100 ppm in Teilchen zusammengeht, die wir in die ganze Rechnung reingesteckt haben.

    Andersrum gerechnet

    Tatsächlich kann mensch die Kohlenstoffmasse, die eine Erhöhung der Teilchenkonzentration in einem Gasvolumen bewirkt, auch so herum abschätzen. Der Umrechnungsfaktor von Teilchen- zu Massenkonzentration ist der Faktor zwischen den Dichten von CO2 und Luft. Das Verhältnis dieser Dichten ist wiederum das der jeweiligen Atommassen, solange jedes Teilchen das gleiche Volumen einnimmt; das schließlich folgt aus der Annahme, dass die Gase ideal sind, was wiederum für unsere Abschätzungen überallhin gut genug ist.

    Für CO2 ist das mit den überwiegend vorkommenden Isotopen von Sauerstoff und Kohlenstoff 16 + 16 + 12 = 44, für Luft, wenn wir nur auf den Stickstoff N2 schauen, 14 + 14 = 28. Demnach macht 1 ppm in der Teilchenzahl von CO2 44 ⁄ 28 ≈ 1.6 ppm in der Masse aus, solange die CO2-Konzentration so gering ist, dass tatsächlich N2 die Dichte dominiert.

    Andererseits macht Kohlenstoff nur 12 ⁄ 44 ≈ 0.3 an der Masse im CO2 aus, die Zunahme an Kohlenstoff ist demnach nur ein Drittel von dem gerade berechneten 1.6, also etwas wie 0.5. Folglich werden aus 100 ppm Änderung in der Teilchenzahl etwas wie 100⋅0.5 = 50  ppm Änderung in der Masse; wer das genauer rechnet, bekommt auf diese Weise natürlich das gleiche Resultat wie oben raus.

    Wie herum mensch das auch rechnet, es ist klar, dass niemand in der kurzen Zeit so viel Kohlenstoff verbrennt. Ein schneller Reality Check: Meine Kohlendioxid-Kopfzahl war, dass die BRD 2/3 Gigatonnen im Jahr emittiert, was mit dem C/CO2-Verhältnis von 0.3 von oben ungefähr 200 Megatonnen Kohlenstoff entspricht, oder irgendwas wie gut 500000 Tonnen am Tag. Damit wäre die Zunahme, die ich hier sehe, rund ein Sechstel des gesamten Kohlenstoffbudgets der BRD, und mehr, wenn der Anstieg schneller als in einem Tag vonstatten geht: Das ist (fast) natürlich Quatsch.

    Aber was ist es dann? Noch immer gefällt mir die These ganz lokaler Schwankungen nicht. Wenn hier wirklich nur das CO2 von Autos und Heizungen nicht mehr weggepustet würde, müsste die Korrelation zwischen CO2 und Wind viel deutlicher sein.

    Ist es eine die Abgasfahne des GKM?

    Nächster Versuch: Rund 12 km westlich von meiner Wohnung läuft das Großkraftwerk Mannheim („GKM“). Wenn das Volllast fährt und meine Wohnung in seine Abgasfahne kommt, könnte das so ein Signal geben?

    Nun, so ein Kraftwerk liefert ungefähr 1 Gigawatt elektrische Leistung (wie mir der Wikipedia-Artikel dazu gerade verrät: darunter 15% des deutschen Bahnstroms), was bei einem Wirkungsgrad von 1/3 (ok, bei modernen Kohlekraftwerken ist das noch ein wenig mehr, aber als Kopfzahl taugt es) auf 3 Gigawatt thermische Leistung führt (tatsächlich nennt die Wikpedia eine Bruttoleistung von 2146 MW für das GKM).

    Aus den 394 kJ/mol, die bei der Verbrennung von Kohlenstoff frei werden (vgl. den Artikel zu meiner thermischen Leistung) könnte mensch jetzt die CO2-Emission aus der Bruttoleistung ableiten, aber ich bin mal faul und sehe beim WWF nach, der für Kraftwerke dieser Größenordnung ansagt, für eine Kilowattstunde Strom (wir sind dann also wieder bei der Nutzleistung) werde rund ein Kilogramm CO2 emittiert.

    Wenn das Kraftwerk also Volldampf (rund ein GW netto) macht, wird es etwa

    109  W⋅0.001 kg ⁄ Wh = 106 kg ⁄ h

    CO2 emittieren, also etwa 1000 Tonnen, was wiederum mit unserem 0.3-Faktor zwischen Kohlenstoff und CO2 zu einem Kohleverbrauch von 300 Tonnen pro Stunde führt.

    Damit leert das Kraftwerk unter Vollast ein Großes Rheinschiff in zehn Stunden – das scheint mir zwar schon sehr schnell zu gehen, ist aber auch nicht gänzlich unplausibel. Gegenrechnung: Das WWF-Dokument von oben nennt 7.7⋅109  kg ⁄ a als CO2-Emission des GKM im Jahr 2006. Mit der Ur-Kopfzahl π ⋅ 1e7 Sekunden pro Jahr übersetzt sich das in eine mittlere Emission von etwa 200 kg pro Sekunde oder gut 1000 Tonnen pro Stunde. Das passt fast zu gut, denn als jemand, der das Kraftwerk von seiner Leseecke aus sehen kann, kann ich zuverlässig sagen, dass das Ding keineswegs durchläuft. Andererseits hatte das Kraftwerk 2006 auch noch einen Block weniger, und überhaupt ist in der Rechnung genug Luft für Stillstandszeiten.

    Nehmen wir …

  • Kohlendioxid und die thermische Leistung von Menschen

    Mit meinem zyTemp-Kohlendioxid-Messgerät – das, für das ich neulich Software gebastelt habe – bin ich natürlich gleich in die Welt gezogen, um mal zu sehen, wo es überall CO2 (und mithin plausiblerweise Corona-Aerosol) geben wird.

    Der Wind und die Seuche

    Nachdem mich ja zunächst sehr überrascht hat, wie deutlich sich die Anwesenheit von Menschen in rasch steigendem CO2-Gehalt der Luft in Innenräumen niederschlägt, war meine zweite große Überraschung, dass sich umgekehrt im Freien nichts tut. Also, richtig gar nichts. Selbst Autos, die mindestens eine Größenordnungen mehr CO2 emittieren als Menschen (vgl. unten), fallen schon aus ein paar Metern Entfernung im Wesentlichen nicht mehr auf. Ich musste mich schon an Kreuzungen neben die Ampeln stellen, um überhaupt ein schwaches Signal zu bekommen. Und das war kaum mehr als ein leichtes Oszillieren um ein paar ppm, während die wartenden Autos vor sich hinstanken und dann losbrausten. So sehr es nach Abgasen stank – CO2 ist im Nahbereich von Autos kein Problem.

    Die gute Nachricht ist also: Wenn CO2 ein guter Indikator ist, wie schlimm es mit Aerosol sein kann – real verschwindet Aerosol im Regelfall aus hinreichend ruhiger Luft durch Niederschlag, was CO2 nicht tut – ist praktisch sicher, dass an der frischen Luft bei nicht völlig irren Wetterlagen SARS-2 allenfalls durch Tröpfchen übertragen wird.

    Umgekehrt war meine Sorge ja immer der öffentliche Verkehr, und so habe ich mit Hingabe in verschiedenen Zügen gemessen. Als Referenz: Frischluft liegt derzeit hier irgendwo zwischen 280 und 350 ppm CO2. In einem halb vollen ICE habe ich zwischen 800 und 1400 ppm gemessen (interessanterweise nicht so ganz korreliert mit den Bahnhofsstopps; die Bahn kennend, vermute ich eine Nicht-so-ganz-wie-gedacht-Funktion der Lüftung in dem Wagen, in dem ich saß). Ein vollbesetzter IC-Zug der SBB war zwischen 800 und 1050 dabei, ein leerer Nahverkehrszug bei etwa 400, ein halb voller eher bei 700.

    Bei solchen Dynamiken ist wohl klar, dass hinreichend viel frisches Aerosol in der Luft sein wird, jedenfalls, solange nicht alle Passagiere mit richtig sitzenden FFP2-Masken dahocken, und sowas habe ich noch nicht mal dort gesehen, wo es wie in Berlin und Bayern gesetzlich gefordert ist oder war. Es muss also im letzten Winter weit mehr Ansteckungen in Zügen gegeben haben als das RKI in seinen Ausbruchshistogrammen (z.B. S. 12 am 9.3.2021) mit den kleinen roten Säulen andeutet. Aber ok, sie haben ja immer dazugesagt, „Clustersituationen in anonymen Menschengruppen (z.B. ÖPNV, Kino, Theater)“ seien fast sicher unterrepräsentiert.

    Atmende Blumen

    Aber ich hatte auch anderweitig viel Spaß mit dem Gerät. So war ich neulich verreist, und in der Wohnung verlief die CO2-Konzentration so:

    Graph mit Periodizitäten

    CO2-Konzentrationen in meinem Wohnzimmer während der Abwesenheit aller BewohnerInnen. Zeiten sind in UTC.

    Wohlgemerkt: Da war niemand. Es könnte sein, dass sich hier einfach Schwankungen in der Außenluft reflektieren; aber ich glaube zunächst mal, dass wir hier einer Birkenfeige beim Stoffwechsel zusehen; 6 Uhr UTC, wenn die Kurve sich nach unten wendet, entspricht 8 Uhr Lokalzeit und damit wohl der Zeit, in der es in dem Zimmer hell genug für Photosynthese werden dürfte; der große Peak rund um 18 Uhr am 28.9. wäre schön konsistent damit, dass die Pflanze sich zur Ruhe setzt und dazu kurz mal ihre Mitochondrien anwirft; der folgende Abfall wäre dann wieder ein Mischungseffekt, denn der Sensor lag (mehr zufällig) praktisch in den Zweigen des Ficus. Warum er, das angenommen, den Peak am 29.9. doch deutlich früher gemacht hat? Nun, vielleicht war ja Mistwetter? Oder vielleicht ist das auch alles ganz anders: das bräuchte definitiv mehr Forschung.

    Rauchmelder diagnostizieren Blasenschwäche

    Graph mit einigen Spitzen

    CO2-Konzentrationen in meiner Diele. Zeiten sind in UTC.

    Wenig überraschend zeigt sich, dass die CO2-Konzentrationen dramatisch personenbezogene Daten sind. Der zweite Graph illustriert das an einem relativ harmlosen Beispiel: Der Sensor steht jetzt in der Diele, vor meiner Zimmertür. Deutlich zu sehen ist, dass ich an dem Tag gegen 23 Uhr geschlafen habe, oder jedenfalls, dass meine Schlafzimmertür dann zu war. Und dann bin ich kurz vor zwei mal wach gewesen, weil ich am Abend etwas viel Tee getrunken hatte. am Morgen aufgestanden bin ich um sieben, kurz vor acht habe ich mal gelüftet, und um halb neun bin ich gegangen.

    Wer da etwas länger auf diese Weise zuschaut, findet viel über die BewohnerInnen von Wohungen heraus – angefangen davon, wann wie viele Menschen wo in der Wohnung sind –, und das im Zweifelsfall auch automatisiert unter vielen Menschen. Ich habe dabei lediglich zwei Messwerte pro Minute genommen. Das ginge, so würde ich schätzen, für eine ganze Weile mit den zumindest hier im Haus recht verbreiteten per Funk auslesbaren Rauchmeldern ganz gut, ohne dass ihre Batterien gleich alle wären – für die Betreiber und, weil die Krypto von den Teilen schon aus Stromspargründen sehr wahrscheinlich lausig ist, vermutlich auch ungefähr für jedeN, der/die sich hinreichend intensiv für das Leben der Anderen interessiert.

    Nachdenken nur für 50W?

    Schließlich bin ich jeden Tag wieder aufs Neue fasziniert, wie schnell ich in meinem Büro schlechte Luft verbreite.

    Graph mit zwei recht gleichmäßigen Anstiegen

    CO2-Konzentrationen in meinem Büro; ich komme von der Mittagspause zurück, arbeite, und lüfte ein Mal. Zeiten sind in UTC.

    An dieser Kurve ist viel zu sehen, unter anderem, dass sich offenbar die Luft in dem Raum doch recht schnell mischt; das würde jedenfalls schön erklären, warum es beim Lüften kurz nach 12 Uhr UTC so eine Delle nach unten gibt: Das ist die Frischluft von außen, die ziemlich direkt an den Sensor weht, sich dann aber innerhalb von fünf Minuten mit meinen im Raum gebliebenen Abgasen mischt.

    Diese schnelle Homogenisierung ist wesentlich für eine Überlegung, die sich für mich da aufdrängt: Wie viel CO2 mache ich eigentlich? Das geht so:

    In den 96 Minuten von 10:30 bis 12:06 habe ich die Konzentration von 808 auf 1245 ppm erhöht, was einer Rate von

    ((1245 − 808)  ppm)/((96⋅60)  s) = 0.077  ppm ⁄ s

    entspricht[1] (ich habe das nicht aus dem PNG, sondern noch im Plotprogramm selbst abgelesen). Ein zweiter Datenpunkt ist nach Lüften und Mischen: Da ging es von 12:17 bis 14:08 von 837 auf 1288 ppm, was auf eine Rate von 0.068 ppm/s führt.

    Aus den beiden Werten würde ich grob schätzen, dass ich die CO2-Konzentration in meinem Büro so etwa mit 0.07 ppm/s erhöhe, wenn ich normal arbeite; ich nenne diese Rate hier kurz δ. Unter der sicher falschen, aber vielleicht noch hinnehmbaren Annahme, dass kein CO2 entweicht und der nach den Beobachtungen plausiblen Annahme voller Durchmischung im Raum kann ich nun abschätzen, was mein Stoffwechsel so tut.

    Was es dazu braucht, ist das Wissen, dass bei einem idealen Gas (was die Luft nicht ist, aber für die Abschätzung reicht es) bei „Normalbedingungen“ (die bei mir im Zimmer glücklicherweise auch nicht ganz perfekt realisiert sind) ein Mol 22.4 Liter Volumen einnimmt[2]. Unter Kopfzahl-Aspekten kann ich nicht genau sagen, warum ich mir da drei Stellen gemerkt habe. In Wirklichkeit sind 20 l/mol natürlich genau genug als Kopfzahl. Ich nenne das unten Vm.

    Das ist eine Aussage über die Zahl der Gasmoleküle in einem Volumen V, denn ein Mol sind ungefähr 6e23 (so schreibe ich wieder kurz für 6⋅1023) Teilchen („Avogadro-Konstante“; außerhalb von Kopfzahlen ist die inzwischen exakt festgelegt und definiert das Mol). Mein Büro ist so in etwa fünf Meter lang, 2.5 Meter breit und drei Meter hoch, hat also V = 40 Kubikmeter Rauminhalt. Das heißt, dass sich darin

    (40  m3)/(0.0224  m3 ⁄  mol) ≈ 1800  mol

    befinden. Das sind gegen 1e27 oder 1000000000000000000000000000[3] Moleküle. Diese Zahl hat einen Namen: das ist eine Quadrillarde. Aber klar: der Name ist selbstverständlich Quatsch. Ich musste ihn selbst nachsehen. Der wissenschaftliche Fachbegriff für solche Zahlen ist Gazillion. Für alle davon. Weshalb wir eben immer zehn hoch siebenundzwanzig sagen, was viel nützlicher ist.

    Und dann brauche ich noch die Energie (oder hier genauer die Enthalpie, normalerweise geschrieben als ΔH) die bei der Bildung eines Moleküls CO2 auch C und O₂ frei wird; konventionell geben die Leute das nicht für ein Molekül, sondern für ein ganzes Mol (ihr erinnert euch: ganz platt 6e23 Moleküle statt nur eins) an, und die Wikipedia verrät, dass das 394 kJ/mol sind.

    Jetzt baue ich das zusammen, nämlich die Erzeugungsrate von CO2 in physikalischen Einheiten (statt in ppm/s), δV ⁄ Vm, auf der einen Seite, und mein ΔH auf der anderen Seite. Es ergibt sich für meine Leistung:

    P = ΔHδV ⁄ Vm

    Wenn mensch da die Einheiten glattzieht und bedenkt, dass ppm/s eigentlich 1e-6/s ist, muss mensch was rechnen wie:

    P = 394⋅103  J ⁄ mol⋅0.07⋅10 − 6 ⁄  s⋅40  m3 ⁄ (0.0224  m3 ⁄  mol)

    (ich schreibe das so ausführlich, weil ich mich beim schnellen Hinschreiben prompt verrechnet habe), was rund 50 J/s (also 50 W) ergibt.

    Ich habe von irgendwoher im Kopf, dass ein …

  • Kopfzahlen 2: Wir fressen der Welt die Haare vom Kopf

    Im Hintergrund Politik vom 9.9.2021 habe ich die schockierendste Zahl dieses Jahres gehört. Das Thema wird dort so eröffnet:

    1,6 Milliarden Hektar Ackerflächen gibt es auf der Erde. Nach den Zahlen des Umweltbundesamtes wächst nur etwa auf einem Fünftel davon Nahrung für die menschliche Ernährung. Auf den übrigen vier Fünfteln wird dagegen Tierfutter und Biosprit produziert.

    Auch wenn mir klar war, dass bei der „Wandlung“ von Soja und Getreide in Steaks oder Eier zwischen 70% und 95% des Nährwerts verlorengehen[1] – „Wandlung“ ist hier eingestandenermaßen ein wenig euphemistisch –, hatte ich diese danach relativ naheliegende Konsequenz nicht auf dem Schirm: 80% der Äcker auf diesem Planeten gehen im Groben in „unsere“ (also die der reichen Länder) Völlerei. Derweil:

    Und trotzdem gehen immer noch mehr als 800 Millionen Menschen hungrig zu Bett. Und viele davon sind selbst Kleinbauern – und Kleinbäuerinnen. Sie erwirtschaften auf einem Bruchteil der weltweiten Ackerfläche bis zu 70 Prozent der menschlichen Nahrung, gesicherte Zahlen gibt es hier nicht […]

    Also: unsere tolle, marktgestählte, industrielle Landwirtschaft trägt plausiblerweise nur zu 30% zur Welternährung bei, obwohl sie den Großteil der intensiv zur Nahrungsmittelproduktion nutzbaren Landfläche in Anspruch nimmt (und um die 10% der CO2-Emissionen verursacht). Das war, was mich wirklich schockiert hat.

    Wenn „unsere“ Firmen im globalen Süden für die Produktion unseres Tierfutters und, schlimmer noch, unseres „Biosprits“ Land requirieren und den dortigen Kleinbauern wegnehmen („Landgrabbing“), ist das schlicht ein Hungerprogramm. Wieder mal frage ich mich, wie die Leute in, sagen wir, hundert Jahren auf uns zurückblicken werden.

    Kopfzahlen für große Flächen

    Unterdessen sind die 1.6 Milliarden Hektar von oben ein guter Anlass, meine Kopfzahlen für „große“ Flächen loszuwerden. Erstmal: Ein Hektar ist ein Quadrat, dessen Diagonale ein Mensch in etwa zwei Minuten durchläuft. Nämlich: Ein nicht allzu hektischer Mensch läuft so gegen 4 km/h oder etwas mehr als einen Meter pro Sekunde. Die Diagonale eines Quadrats mit 100 Meter Kantenlänge (eben ein Hektar) sind 100 Meter mal √2 oder rund 150 Meter[2]. Bei einem guten Meter pro Sekunde dauert es also rund 120 Sekunden von Ecke zu Ecke durch die Mitte.

    Ansonsten ist die bessere Einheit für große Flächen der Quadratkilometer, also 100 ha. Mithin: 1.6e9 ha (1.6 ⋅ 109 ist in meinem Eingabeformat ReStructuredText echt lästig zu schreiben, weshalb ich mir hier die in eigentlich allen nichtantiken Programmiersprachen übliche Schreibweise genehmige) sind 1.6e7 oder 16 Millionen km².

    Wie viel ist das? Etwas albernerweise weiß ich immer noch die Fläche der alten Sowjetunion, des in meiner Kindheit größten Staats der Erde: das waren 22 Millionen km². Es gibt also global etwas weniger Acker als das, was mal alles zur Sowjetunion gehörte. Ich denke, der zeitgemäße Ersatz sind einerseits Afrika[3] mit 30 Millionen km² und andererseits die USA und China mit jeweils rund 10 Millionen km². Ich finde, auf diese Weise kriegt mensch schon mal ein Gefühl, wie die global genutzte Ackerfläche auf einer Weltkarte aussähe – und wie viele Wüsten, Tundren, Hochgebirge, Wildnisse oder Parkplätze es so geben wird.

    A propos Welt: Die Erde hat bei einem Radius von etwa 6000 km eine Fläche von 4 π (6000 km)² oder 450 Millionen km² oder auch 15 Mal Afrika, wobei mensch nicht vergessen sollte, dass im Fall der Erde 70% der Fläche von Meeren eingenommen wird und also Afrika deutlich über 20% der Landfläche ausmacht.

    Zwecks Gefühl und Abschätzung merke ich mir noch, dass die BRD eine Fläche von rund 350'000 km² hat (oder, für Leute, die sich das so leichter merken können: eine Drittelmillion). Kombiniert mit der Kopfzahl für Afrika heißt das: die BRD passt 100 Mal in Afrika rein. Von der Fläche her. Vom Ressourcenverbrauch her… eher so zwei Mal[4].

    Die Fläche von Baden-Württemberg ist 35'000 km². Das ist bequem zu merken, weil es einen Faktor zehn kleiner ist als die BRD, und ist als Größenordnung für ernstzunehmende Bundesländer auch sonst ganz brauchbar (die Spanne reicht von 71'000 km² für Bayern bis 16'000 km² für Schleswig-Holstein, also alles grob innerhalb von einem Faktor zwei, was für viele Abschätzungen überallhin reicht).

    So eine Zahl im Kopf ist beispielsweise praktisch, wenn mensch am Neckar steht und abschätzen will, wie viel Wasser da wohl fließt: Sein Einzugsgebiet wird so etwa die Hälfte des Landes sein (fürs einfache Rechnen: 20'000 km²), und es wird da zwischen 500 und 1000 mm pro Jahr regnen (800 mm Niederschläge pro Jahr sind keine unvernünftige Schätzung für normale Gebiete in der BRD). Wegen einfacher Rechnung nehmen wir hier mal 1000 mm, und dann müssten über dem Einzugsgebiet jedes Jahr 20e3 km² ⋅ 1e6 m²/km² ⋅ 1 m an Wasser runterkommen, also irgendwas wie 20e9 m³. Einiges davon wird, gerade im Sommer, verdunsten oder auch von Planzen in Sauerstoff verwandelt, bevor es in Heidelberg vorbeikommt; das Problem verschiebe ich aufs Ende des übernächsten Absatzes.

    20 Milliarden Kubikmeter pro Jahr sind etwas unhandlich, wenn mensch gerade auf den Fluss guckt. Wie sieht es pro Sekunde aus? Nun, ein Jahr hat etwas wie 3e7 Sekunden (vgl. die klassische Kopfzahl in Kopfzahlen 1), also wird der mittlere Abfluss vom Neckar was wie 20/3 ⋅ 10², also rund 670 m³/s sein. Tatsächlich gibt die Wikipedia 145 m³/s für den Pegel Mannheim an.

    Gut: wir liegen einen Faktor vier zu hoch, aber das ist für so eine Abschätzung schon ok, zumal der tatsächliche Abfluss übers Jahr hinweg um weit mehr als so einen Faktor schwanken wird. Wers genauer haben will: das wirkliche Einzugsgebiet sind nur 13'934 km², und dann ist da der Evapotranspirationswert (vgl. Erläuterung in der Wikipedia), dessen Einfluss nicht ganz einfach anzubringen ist, schon, weil einiges des verdunsteten Wassers ja noch im Einzugsgebiet wieder abregnet oder -taut. Egal: Ein Faktor vier ist oft gut genug.

    Letzte Kopfzahlen in dieser Rubrik: Größere europäische Städte wie Berlin oder Hamburg haben so gegen 1000 km² (in Wirklichkeit: 892 bzw. 755), kleinere Städte wie Heidelberg eher so 100 km² (in Wirklichkeit: 109).

    [Alle Flächenangaben hier aus den jeweils erwartbaren Wikipedia-Artikeln]

    [1]Das sind FAO-Schätzungen, die z.B. die gesetzliche Unfallversicherung grafisch schön aufgemacht hat. Die FAO-Quellen habe ich auf die Schnelle nicht im Netz gefunden.
    [2]Eine nicht direkt flächige Kopfzahl obendrauf: √2 ist ungefähr 1.44, und der Kehrwert ungefähr 0.7. Ein wenig flächig ist das aber auch: Die Fläche eines A4-Blatts ist (theoretisch genau) (√2)-(2⋅4) m², für A3 ist sie (√2)-(2⋅3) m² usf. Messt und rechnet selbst oder lest einfach im Wikipedia-Artikel zu Papierformaten nach, warum das so ist.
    [3]Asien (55 Millionen km²) eignet sich nicht so gut als Referenz, weil zu viele Leute Europa als separaten Kontinent abrechnen und zumindest ich mir nie sicher wäre, ob meine Fläche mit oder ohne Europa zählt (die 55 Millionen zählen den ganzen Kontinent, also mit den Gebieten westlich von Ural und kaspischem Meer).
    [4]CO2-Emission der BRD aus Kopfzahlen 1: 2/3 Gigatonnen; für Afrika insgesamt gibt das dort zitierte Our World in Data-CSV 1.4 Gigatonnen.
  • Kopfzahlen: Kohlendioxid

    Es gibt eine Handvoll Zahlen, die ich versuche, so ungefähr im Kopf zu haben. Ich nenne die gerne Kopfzahlen, auch wenn das Wort laut Duden was ganz anderes bedeutet.

    Die klassische Kopfzahl ist natürlich die Zahl der Sekunden in einem Jahr, mit guter Genauigkeit π ⋅ 1e7 (ich schreibe hier aus Bequemlichkeit und Computergewohnheit 107 als 1e7). Überlegungen des Typs „ich habe eine Milliarde Datensätze und schaffe 3000 pro Sekunde, also brauche ich für das ganze Ding ungefähr 300000 Sekunden oder halt 3e5/3e7, also ein hundertstel Jahr oder vier Tage“ finde ich sehr hilfreich. Würde ich Mathematik an einer Schule unterrichten, würde ich Depressionen kriegen, wenn meine Schülis sowas nicht hinkriegen würden, nachdem ich ein Jahr auf sie eingeredet habe. Gut, dass ich kein Schullehrer bin.

    Heute nun hat mich die Deutsche Umwelthilfe (DUH) angeschrieben, weil sie Spenden haben will für Klagen gegen BMW, Daimler und Wintershall[1]. Die Brücke zu den Kopfzahlen: sie sagen darin, Wintershall sei allein für rund 80 Megatonnen CO2 im Jahr verantwortlich.

    Um solche Angaben ein wenig einordnen zu können, hatte ich mir vor zehn Jahren zwei Kopfzahlen zurechtgelegt: Die BRD emittierte rund eine Gigatonne, die Welt rund dreißig Gigatonnen CO2. Demnach macht Wintershall rund 8% des CO2-Ausstoßes der BRD aus; das ist nicht unplausibel, aber ich dachte mir, das ist ein guter Anlass, meinen schon etwas länger gehegten Plan umzusetzen, solche Kopfzahlen im Blog zu notieren und zu aktualisieren. Wie steht es nun also, zehn Jahre nach 1 und 30 Gigatonnen?

    Für halbwegs überschaubare Infos zu den BRD-Emissionen hatte ich ganz naiv auf die Publikationen zum Emissionshandel des UBA gehofft, aber zumindest der Juli-Bericht ist in der Hinsicht nicht sehr ergiebig: Was genau heißt es, dass in der Kalenderwoche 27 Emissionsrechte über 280 Millionen Tonnen gehandelt wurden (außer, dass ein Haufen Leute nicht sehr nützliche Arbeit hatten)?

    Aber das Umweltbundesamt hat glücklicherweise eine andere Seite mit nicht marktkontaminierten Informationen. Demnach wären 2020 in der BRD 644 Millionen Tonnen CO2 emittiert worden. Auf drei Stellen genau ist das natürlich lächerlicher Unfug; ich wäre überrascht, wenn das auf 10% irgendeiner sinnvollen Definition von Emission entspräche. Aber dennoch: 2/3 Gigatonnen klingen nach einer brauchbaren Kopfzahl für die aktuelle Kohlendioxid-Emission direkt aus der BRD. Natürlich wären dazu die importierten Emissionen (z.B. aus brasilianischem Sojaanbau für „unser“ Fleisch oder chinesischer Zement- und Stahlproduktion für „unsere“ Häuser und Elektronik) zu rechnen, aber das wird dann kompliziert und letztlich spekulativ.

    Neu merken sollte ich mir den Quellen-Split, den sie dort aufmachen, wieder bereinigt um allzu mutige Claims bezüglich Genauigkeit: Energie 1/3, Haushalte 1/5, Straßenverkehr ein gutes Fünftel, Industrie (wozu dann auch z.B. Hausbau gehört) 1/4.

    Für die globale Emission gibt der einschlägige Artikel der Wikipedia 57 Gigatonnen CO2-Äquivalent an, wo dann allerdings jede Menge tiefes Voodoo reingerechnet ist („including 5 Gt due to land use change“).

    Um dem tiefen Voodoo zu entkommen (und nur das Einsteiger-Voodoo der Emissionsschätzung zu behalten), kann mensch zum aus meiner Sicht relativ vertrauenswürdigen Our World in Data gehen, das eine Kohlendioxid-Seite anbietet, die wiederum auf github-Daten verweist, wo schließlich CO2 und Treibhausgas-Äquivalente separat ausgewiesen sind. Deutschland hat dabei für 2019 700 Mt; das passt im Rahmen meiner Erwartungen gut zu unseren 2/3 Gt für 2020 von oben. Für die Welt (freundlicherweise gibt es die in dem Datensatz schon vorkumuliert unter „World“) und 2019 stehen da mit absurden acht Stellen 36441.388 Mt. Schon zwei Stellen Genauigkeit sind da sicher überoptimistisch, und so wäre meine Kopfzahl für die Weltemission jetzt „um die 35 Gt“.

    Mein Spickzettel für diese Runde Kopfzahlen ist also:

    • Emission in der BRD: 2/3 Gt, davon anteilig 1/3 Energie, 1/4 Industrie, je rund 1/5 Verkehr und Haushalte.
    • Emission in der Welt: 35 Gt, womit die BRD direkt ungefähr 1/50 der Welt-Emission ausmacht.
    [1]Dass mich die DUH immer noch in ihrem CRM-System hat, obwohl ich ihnen eigentlich nur vor Jahren mal gespendet habe – die erfolgreichen Fahrverbots-Klagen haben mich schon sehr begeistert – finde ich jetzt nicht so großartig, aber wer sich so effektiv dem Autowahnsinn entgegenstellt, darf in menem Buch auch mal nicht ganz so korrekt mit Daten umgehen.

Seite 1 / 1

Letzte Ergänzungen