Tag CO2

  • A DB User on Amtrak: Boston to Chicago

    A few cars of a train in corrugated-alumnium look with a blue stripe connecting the windows.

    My carriage of the Lake Shore Limited train from Boston to Chicago.

    To at least make good use of the all the pollution I caused with my recent transatlantic flight, I'm combining business in Cambridge, MA with business in Tucson, AZ. And to avoid further flight shame, I am doing the intra-US leg of the journey by train, that is, Amtrak. Now that I have managed to get into the train from Boston to Chicago (advertised when booking as Lake Shore Limited, though that name doesn't come up often on the train or in on-board announcements), I plan to write a bit of a travelogue as I go.

    Departing in Anguish (13:40)

    I'm seeing all this through the eyes of a regular if unhappy user of Deutsche Bahn (DB; cf. the Bahn tag on this blog if you can read German). Thus, I immediately felt at home when the train was delayed at Boston's South Station, except things were quite a bit more nerve-wrecking here.

    You see, riding on the DB I'm used to knowing in advance on which track a train will depart. DB tells you that in the schedules they thankfully still post in the stations. Of course, they occasionally lie about which platform a delayed train will end up being redirected to, but still: It feels reassuring when one stands on a platform and can be reasonably sure that if and when the train departs (usually delayed, of course), you cannot miss it.

    A screen showing departures to Chicago, Needham Heights, Worcester, track all TBD.  That's at 12:37, where the next trains depart 12:50.

    Not so over here. The displays say “track TBD“ until something like five minutes before departure. Well, five minutes before the scheduled departure of my train the display changed to “12:50 South Station Delayed“ – no word of Chicago any more. I'd certainly have panicked had I not closely watched the displays, even more so because had I missed that train, I'd probably have reached Tucson with a delay of two days given how sparse the connections are.

    Someone must have noticed that something was awry on the display, because it changed again a short while later, to “12:50 Back Bay Delayed“. Back Bay, in case you've not been to Boston before, is a rather posh part of the city itself. Well… at least the departure time still matched the actual train. But then some indication of what order of magnitude of delay to expect be would have helped soothe my anxiety a bit.

    After five minutes of anguish the confusing line on the display eventually showed a “Track 2” instead of “Delayed“, I rushed there, and at the remote end of the platform (the South Station is a railhead), a surprisingly short train – three or four coaches – was ready for boarding. Whoa.

    Legroom Galore

    I was somewhat concerned things might become tight because the ticket selling machine in Boston claimed the train was 80% full. Well – at least for now it's not; perhaps 50% of the seats are taken. Instead, there's a (by DB standards) surprising amount of legroom:

    Seats of a train carriage, where the distance to the next row is of the order of airline first class.

    And now we're going roughly westwards, though a land of woods, lakes, and parking lots. We've just passed Worchester. And I halfway feel like I'm in Once Upon a Time in the West every time the engine hoots. It does this quite a lot here in central Massachusetts with its relatively tightly-knit road network.

    The First Hours (16:30, 42.4N 73.1W)

    We are still crossing Western Massachusetts, where you get to see, as I said, lots of trees and lakes:

    A lake with trees in (mild) autum colour behind it in warm-ish sunlight.  In the foreground a few motion-blurred structures.

    Meanwhile, before we entered Springfield, MA, a conductor walked through all the cars and called out the station. This felt oddly anachronistic, in particular because there were two additional announcement on the loudspeaker about only certain doors being available. But I still liked it. You see, it made me feel I could have asked a question, perhaps on a connecting train, if I had needed that. Granted, you couldn't do this sort of personalised service on a DB train with its (usually) much more frequent stops, and it certainly helps that this train has just three cars.

    In Springfield, I also got a first taste of the disappearing railroad blues (as extolled in the 1972 song City of New Orleans):

    A rusty steel pergola

    I'm rather sure this used to be a platform, and there once was a roof on top of the upper beams. Ah well – how many trains will there stop in Springfield? I think it's already outside of the area served by the MBTA communter rail and then… I'd expect that to be a very lonely station.

    A Break at Albany, NY (18:30)

    Now, that's a variation on train travel I've not yet seen anywhere else: The train has just stopped in Albany, NY – for a bit more than an hour. Almost everyone left the train. That's probably a rational behaviour since Amtrak subsequently cut power and even the toilets won't work any more. At least there are some emergency lights in the cars.

    Nachtrag (2023-11-03)

    Well – the power loss is a fairly compelling consequence of changing the engine, which this stop partly was about (see below). So, I should probably tone down the “cut” here. It's more that the power source was gone given HEP. Later on, however, my impression was that they're locking the toilets during stops at the station anyway. I'm not sure why they would do that, though, as in contrast to the Transsiberian (where they lock the Toilets like 5 minutes before entering a station), the Amfleet cars have closed wastewater systems (or so the Wikipedia claims).

    The idea might be that people grab something to eat in the station hall; this mode of nourishment is popular on the Transsiberian, where they stop for about 30 minutes every 1000 kilometers or so to swap locomotives, and at least the locals get off and buy all kinds of stuff in little shops set up on the platforms. I frankly had not expected something remotely similar in the US.

    On the other hand, the station hall in Albany has absolutely nothing in common with the dingy platforms of the stations along the Transsiberian. Actually, it is more reminiscent of an airline terminal than of what you would expect knowing DB stations:

    A high room with a marble floor and ads suspended from the ceiling

    Only… there's just one cafe-and-convenience place in there, which didn't really appeal to me. That's the food option. Hm. I suppose if I wrote a user manual for Amtrak, I'd research reasonable food places that will feed you so that you are back in the train within one hour. On the other hand, I think the first car of our train is a dinining car; it's locked at the moment, but perhaps it will open later?

    Right now there has been a bump at the train's end – who knows, perhaps they were just waiting for another part of the train to join us?

    Back and Forth (19:05)

    Hu? They said the train would leave at 19:04 (of course, 7:04 pm), and then suddenly the thing started moving at 18:58, which made the (few) people in the car seriously doubt whether they were on the right train. And even though I had been on that train since Boston and they had promised it would go to Chicago, I started to worry, too.

    Then, after a few hundred meters, the train stopped and went back into the station. Um… exciting. There's clearly some serious shunting going on. That's something familiar for DB users: Mildly scary things happen and nobody tells you what's going on.

    A minute later: another fairly violent bump. So – are we longer now? And shouldn't we be already be out of Albany for, what, four minutes now? Ah, in all fairness: someone from Amtrak just came into the (still dark) car and explained that something is „a little bit… delayed“. I feel almost at home.

    Nachtrag (2023-11-03)

    Over the next day I figured out what was going on: The Lake Shore Limited actually has two branches, the main one – including the sleeper cars – coming in from New York City. That's why the train was so short in Boston and until Albany, NY. There, the Boston branch was waiting for the New York part to come in. When it was there, the two parts were merged and then continued on together to Chicago. They probably even said as much in some announcement, but… well, another communality between DB and Amtrak is that the only announcements you can clearly understand are the ones you don't need.

    The one thing I still have not worked out: why did the train have four (4!) engines in front of it when it arrived in Chicago?

    Wifi and Emptyness (20:30)

    Another thing feels as if I were in a DB train …

  • Namen, die morgen in aller Munde sein könnten: Dansgaard, Oeschger, NGRIP und Heinrich

    Ein Plot von δ18O (zwischen 0 und 2.5 Promille) über dem Abstand von Zentralgrönland (zwischen 0 und 20000) .  Bunte Punkte und schwarze Kreuze versammeln sich fast ausschließlich unterhalb der Diagonalen, eine türkise Gerade deutet eine schwach fallende Tendenz zwischen (0, 2) und (12000, 1.2) an.

    Das ist Abbildung 4 aus dem unten diskutierten Fohlmeister et al-Paper; das „NGRIP“ auf der Abszisse ist (im Effekt) ein Ort in Grönland, auf der Ordinate ist etwas, das mit irgendeiner Sorte Klimaänderung verknüpft sein wird. Mehr dazu unten.

    Ich fürchte, ich lebe im Hinblick auf die Klimawissenschaft ein wenig hinter dem Mond, denn: Ich habe bis neulich noch nie etwas von Dansgaard-Oeschger-Ereignissen (jedenfalls unter diesem Namen) gehört, und das, obwohl die sowohl extrem gruselig sind als auch ziemlich alte Hüte – die das Konzept einführenden Arbeiten sind um 1990 herum erschienen. Auch der Popstar der deutschen Klimawissenschaft, Stefan Rahmstorf, hat schon darüber geschrieben[1].

    Ich hingegen habe erst vor drei Wochen beschlossen, dass ich mir besser mal die Namen „Dansgaard“ und „Oeschger“ merke, bevor deren Unkenntnis eine peinliche Bildungslücke wird („Corona? Wie der Draht im Laserdrucker?“). Da nämlich hörte ich den Beitrag Was Tropfsteinhöhlen über das weltweite Klima verraten in der DLF-Forschung aktuell-Sendung vom 30.8.

    Warum soll mensch sich die Namen merken? Nun, im Rahmen des Klimawandels mag es durchaus sein, dass wir ein „inverses” Dansgaard-Oeschger Ereignis bekommen, über das gegen Ende des DLF-Beitrags der PIK-Klimaforscher Nils Boers sagt:

    Also ich bin da noch nicht überzeugt, dass es wahrscheinlich in diesem Jahrhundert passieren würde, ich bin da eher mit dem letzten IPCC-Bericht, der sagt, dass es in diesem Jahrhundert unwahrscheinlich ist.

    Wenn es denn passiert, dann hätte man, wie auch bei den Dansgaard-Oeschger-Ereignissen, massive Veränderungen der Monsun-Systeme, nur in die andere Richtung. Die intertropische Konvergenzzone würde sich nach Süden verschieben, was im Amazonas und im subtropischen Südamerika zu sehr komplexen Veränderungen der Niederschlagmuster führen würde, wo unklar ist, ob das den Amazonas eher positiv oder eher negativ beeinflussen würde.

    In Afrika ist es eine relativ einfache, vergleichsweise relativ einfache Situation, da würde sich einfach der westafrikanische Monsun so weit nach Süden verschieben, dass die Regionen, die aktuell an diesen Monsun angepasst sind, also auch vor allem die Gesellschaften, die Ökosysteme, dass die wirklich vor massive Probleme gestellt würden. Sehr ähnlich sähe es in Indien aus, ebenfalls massive Niederschlags-Reduktionen und möglicherweise ein Abbrechen des indischen Sommermonsuns, was dann auf einen Schlag über eine Milliarde Menschen sehr negativ beeinflussen würde, und ähnlich würde es auch in Südostasien aussehen.

    In Europa hätte man Abkühlung von, sagen wir mal, zwei bis zehn Grad, je nachdem, wie weit man nach Norden geht, aber in den mittleren Breiten, bei uns, wären die Temperaturunterschiede und auch die Niederschlagsunterschiede eher moderat. Die wirklich schlimmen Folgen wären in den Tropen.

    Dansgaard-Oeschger und ihre Vorgeschichte

    Um zusammenzufassen, was im Beitrag vor dieser Aussage kommt: die Dansgaard-Oeschger-Ereignisse sind Episoden einer sehr raschen (also: während vielleicht so eines Jahrzehnts) Erwärmung während der letzten Eiszeit (für ältere Eiszeiten gibt es, glaube ich, noch keine Daten in entsprechend hoher Auflösung). Die Amplitude dieser Änderung kann in Gegend von Grönland 10 K betragen, global ergeben sich allerlei wilde Wetterkapriolen. So in etwa: El Niño auf Steroiden und im hohen Norden.

    Warum das Klima dann und wann aus eiszeitlichen Verhältnissen in welche aufgetaucht ist, die mehr unseren heutigen ähneln, will offenbar niemand so ganz sicher versprechen, aber mein Außenseiter-Eindruck ist, dass doch alle glauben, der Zustand außerhalb der Dansgaard-Oeschger-Ereignisse sei der, wenn „der Golfstrom aus ist”. Im DLF-Beitrag wird das diskutiert als Unterbrechung der Atlantic Meridional Overturning Circulation (AMOC) – auf Deutsch der thermohalinen Zirkulation im Atlantik.

    Boers' Katastrophenszenario ist also der Zustand, wenn wir umgekehrt mal kurz in den Eiszeit-Grundzustand fallen. Spätestens seit dem Roland Emmerich-Reißer The Day After Tomorrow ist das eine relativ populäre Geschichte, doch den offiziellen Namen dafür habe ich auch erst neulich gelernt: Heinrich-Ereignis.

    In aller Kürze fließt dabei wegen steigender Temperaturen zu viel Süßwasser von Grönland in den Nordatlantik. Dann wird das ehemals warme, normalerweise salzreiche und damit dichtere Wasser aus niedrigen Breiten nicht mehr absinken, weil es zu sehr verdünnt und damit gegenüber dem Tiefenwasser nicht mehr dichter ist. Damit wird es auch nicht mehr untermeerisch zurück nach Süden fließen, und damit kann oben kein warmes Wasser mehr aus dem Süden nachkommen. Wie gesagt: „Golfstrom aus“.

    Wer sich mit der Gaia-Hypothese anfreunden kann, könnte sagen: Die Erde zieht die Notbremse gegen ein Abschmelzen der Eiskappen rund um den Nordpol.

    Reden wir lieber über Sauerstoff-Isotope

    Gegenüber diesen fast schon hollywoodesken Katastrophenszenarien ist das Paper, um das es im Interview eigentlich ging, nachgerade entspannend.

    Es handelt sich um „Global reorganization of atmospheric circulation during Dansgaard–Oeschger cycles“ von Jens Fohlmeister und KollegInnen aus dem Umfeld des Potsdamer Instituts für Klimafolgenforschung. Der DOI des Artikels, 10.1073/pnas.2302283120, führt (noch) auf eine Paywall. Wer dank Uni-Angehörigkeit da durch kommt, wird mit einem grässlichen Javascript-PDF-Renderer vom Verlag bestraft (was denken sich die Leute eigentlich? Dass ich mir bei der Wahl meines PDF-Renderers nichts gedacht habe?) Aber freut euch: Das Paper liegt unter (immerhin) CC-BY-NC-ND[2], so dass ich es hier ganz legal vernünftig verbreiten kann.

    Ich habe zunächst schon deshalb einen Haufen Wohlwollen für die Arbeit, weil sie sich zentral auf Archivdaten stützt. Da ich glaube, dass viel zu viele mit großem Aufwand erhobene Daten von viel zu wenig Hirnen überdacht werden, halte ich das für vorbildlich.

    Außerdem kann ich sehr lange über der Abbildung 1 grübeln, in der allerlei Signale in Klimaarchiven korreliert werden mit bekannten Dansgaard-Oeschger-Ereignissen (ihr merkt schon, ich versuche mich hier an Mnemotechnik durch häufiges Ausschreiben). Nicht zuletzt bin ich überrascht, wie viel der Eiszeit in diesen Warm-Einschüben (in Grau) verging. Was sich die damals schon allenthalben herumspringenden diversen Homo-Spezies wohl bei diesen Kapriolen gedacht haben?

    Grübeln kann ich, weil die Korrelation der meisten Signale per nacktem Auge nicht überzeugt: Kann sein, dass da im grauen Bereich was anderes passiert als im weißen, kann aber auch nicht sein. Zugegeben: ordentliche Tests dürften fast immer eine robuste Korrelation ergeben. Für einen spezifischen Satz von Signalen versucht das das Fohlmeister-Paper, und zwar für Veränderungen im Isotopen-Verhältnis von 18O zu 16O, kurz δ18O genannt.

    Isotopentrennung: Warum, wann und, na ja, nochmal warum?

    Die mikroskopische Theorie dahinter ist einfach und plausibel: Ein Wasserteilchen mit dem schweren Sauerstoff ist, wenn es die gleiche Energie hat wie eines mit dem normalen 16er-Sauerstoff („im thermischen Gleichgewicht“, was in der Regel eine ausgezeichnete Annahme ist), etwa 5% langsamer als das normale. Das kommt von der kinetischen Energie E = mv2 ⁄ 2; wenn ihr das nach v auflöst und die Energien gleichsetzt, ist das Verhältnis der Geschwindigkeiten gleich der Wurzel des Verhältnisses der Massen, das hier 0.9 ist.

    Wenn das schwere H₂18O langsamer unterwegs ist, kommt es plausiblerweise weniger leicht aus einem Wassertropfen raus. Es wird daher im zurückbleibenden Wasser angereichert und im Dampf abgereichert sein; je mehr aus einem Wasserkörper verdunstet (also vielleicht: je wärmer es ist), desto höher ist das 18O darin angereichert.

    Zusätzlich ist das 18O, das in den Dampf kommt, ja immer noch langsamer und wird daher eher in beginnenden Tröpfchen steckenbleiben und dann irgendwann runterregnen, so dass das in der Atmosphäre verbleibende Wasser nochmal an schwerem Sauerstoff abgereichert sein wird.

    Fohlmeister et al hoffen zunächst auf den ersten Effekt: Je höher die Temperatur in einer Tropfsteinhöhle, desto höher ist die Verdunstungsungsrate, desto größer die Anreicherung, desto positiver das δ18O-Signal:

    Speleothem [d.h. aus Tropfsteinen] δ18O is enriched compared to δ18O in cave drip water by temperature-dependent fractionation processes during carbonate deposition on speleothem surfaces.

    Wenn das der einzige Dreher am δ18O wäre, wäre das ein ideales Klimasignal, denn – und ich finde das auch immer wieder verblüffend – schon fünf Meter unter der Erde ist vom Jahreszeitengang der Temperatur nichts mehr zu sehen, und vom Wetter schon gar nichts. Leider jedoch ist die Welt nicht so, was Fohlmeister et al durch ihre Qualifikation „compared to δ18O in cave drip water“ reflektieren: Das Wasser kommt ja woher, und die Isotopenzusammensetzung von Regenwasser kann ziemlich schwanken. Der Wikipedia-Artikel mit dem hübschen Titel δ18O sagt nur qualitativ:

    Folglich enthält das Oberflächenwasser der Ozeane in den Subtropen größere Mengen an 18O, denn dort ist die Verdunstungsrate erhöht. Geringere Mengen an 18O gibt es im Ozeanwasser mittlerer Breitengrade, wo es mehr regnet.

    Trotz dieser Vagheit stecken hinter all dem echte Präzisionsmessungen: Bei der englischen Wikipedia findet sich das hier als typische Größenordnungen des 18O-Gehalts:

    Grönländisches Eiswasser 0.1981%
    Luft 0.204%
    Meerwasser 0.1995%

    (wobei ich nicht weiß, ob „Luft“ nur den Wasseranteil der Luft meint; da ist ja glücklicherweise durchaus auch kräftig molekularer Sauerstoff drin). Um nun zu δ18O-Zahlen zu kommen, müssen winzige Signale dieser Art noch voneinander abgezogen werden – es ist beeindruckend, dass bei diesem numerischen Alptraum irgendwas Konsistentes rauskommt.

    Ich glaube, die Arbeit versucht sich mit folgender Passage aus dem Problem wahrscheinlich mit dem Klima schwankenden δ18O im Regenwasser rauszuwinden:

    [E]specially as we investigate climate-driven changes in δ18O of two climate states, climate-independent cave site-specific offsets will cancel. Hence, drip water δ18O variations as derived …
  • Eine neue Nexus-Nabe und ihr Fußabdruck

    Nahaufnahme einer Fahrrad-Schaltnabe mit einem Sonnenreflex auf einer Speiche.

    Weil ich wartungsarme Technik schätze, war in allen meinen Fahrrädern eine Schaltnabe verbaut, zunächst ein Sachs-Dreigang, dann über einige Jahrzehnte hinweg die Zweizug-Fünfgang-Nabe des gleichen Herstellers (dämlicherweise „Pentasport“ genannt), zumal bei denen mit damals noch reichlich verfügbaren Ersatzteilen aus Torpedo-Naben (das war der auch nicht allzu erfreuliche Handelsname der Dreigang-Teile) oft noch einiges zu retten war.

    Vor sechs Jahren, im November 2017, bin ich dann auf eine Acht-Gang-Nabe von Shimano („Nexus“) umgestiegen, insbesondere, weil die Ersatzteilversorgung für die Sachs-Naben kritisch wurde und ich das Elend mit SRAM nicht mehr ansehen wollte – SRAM hatte zwischenzeitlich die Sachs-Nabenfertigung übernommen und nach einhelliger Meinung hingerichtet. Ich hatte dabei die naive Hoffnung, mit einer fabrikneuen Nabe könnte das werden wie bei meinem SON-Nabendynamo: Montieren und vergessen; beim SON hat das seit 2007 gut geklappt, das Teil ist wirklich beeindruckend wartungsfrei.

    Der Fußabdruck von YOLO

    Meine Nexus hingegen hat während der letzten paar Monate immer unangenehmere Geräusche – ich möchte fast von distress signals sprechen – von sich gegeben. Ich war hin- und hergerissen zwischen „Nachschauen und dann ärgern, weil du keine Ersatzteile kriegst“ und YOLO. YOLO hat gewonnen, wodurch das Knacken und Gangverlieren immer schlimmer wurde. Letzte Woche war es dann endgültig nicht mehr tragbar, weshalb ich gestern ein neues Laufrad montiert habe. Der Wechsel des ganzen Laufrads statt nur der Nabe lag nahe, weil auch die Felge schon ziemlich runter war[1] – aber klar: ich war durchaus auch dankbar, dass ich mir die Umspeicherei sparen konnte.

    Ich verspreche, vom Postmortem der alten Nabe zu berichten, wenn es soweit ist. Jetzt hingegen ist das eine gute Gelegenheit, meine größte Kritik am hier schon oft zitierten Fußabdruck-Standardwerk How Bad Are Bananas von Mike Berners-Lee loszuwerden. Zum Thema des CO₂-Fußabdrucks einer Fahrradmeile heißt es in der US-Ausgabe nämlich:

    Cycling a mile

    65 g CO2e powered by bananas

    90 g CO2e powered by cereals with milk

    200 g CO2e powered by bacon

    260 g CO2e powered by cheeseburgers

    2,800 g CO2e powered by air-freighted asparagus

    > If your cycling calories come from cheeseburgers, the emissions per mile are about the same as two people driving an efficient car.

    Auch wenn ich nichts einzuwenden habe gegen die Demo, wie CO₂-relevant vernünftiges (also pflanzliches, saisonales und eher regionales) Essen ist, gehört die ganze Abschätzung deutlich zu den zweifelhafteren des Buches. Zunächst rechnet Berners-Lee schon mal „50 calories per mile“[2]. Gemeint sind natürlich Kilokalorien, so dass das (mit ungefähr 4 Kilojoule auf die kcal und 1.6 Kilometern auf die Meile) in ordentlichen Einheiten 125 kJ auf den Kilometer sind.

    Gegenrechnung: AlltagsradlerInnen leisten, wenn sie sich anstrengen, etwa 100 Watt und fahren dabei einen Kilometer in, sagen wir, 150 Sekunden. Die mechanische Arbeit, die sie über diesen Kilometer leisten, beläuft sich also auf rund 15 kJ (ich würde auch alles zwischen 5 und 30 glauben). Um auf die Fußabdruck-relevante Eingangsenergie zu kommen, muss das noch durch den Wirkungsgrad geteilt werden. Es ist nicht ganz einfach, das für den menschlichen Organismus anzugeben oder auch nur sinnvoll zu definieren[3], aber viel weniger als ein Drittel sollte bei keiner sinnvollen Methodik rauskommen. Damit würde ich gegen Berners-Lees 125 kJ/km eher 50 kJ/km setzen.

    „Equipment“ fürs Radfahren?

    Natürlich hängt diese Größe stark von Wind und Steigung ab und ein wenig von Reifendruck, Getriebe und so fort. Außerdem streite ich in solchen Fragen nie über einen Faktor zwei. Dennoch würde ich die Emissionen aus dem Essen bei Berners-Lee wegen „braucht weniger“ gleich mal mindestens halbieren[4].

    Aber das ist ohnehin nicht mein wirkliches Problem mit seinen Abschätzungen. Das nämlich ist das hier:

    All my figures include 50 g per mile to take into account the emissions that are embedded in the bike itself and all the equipment that is required to ride it safely.

    Im Klartext: bis zu 70% der veranschlagten Emissionen beim vegetarischen Betrieb sind bei Berners-Lee Fahrradherstellung und „Equipment“. Das „safely“ lässt schon Böses ahnen, und in der Tat ist in einer Fußnote zu „safely“ zu lesen:

    In our input–output model of the greenhouse gas footprint of U.K. industries (for the chapter entitled “Under 10 grams”), sports goods typically have a carbon intensity of around 250 g per pound’s worth of goods at retail prices. If we make the very broad assumption that cycling goods are typical of this, and if we say that Her Majesty’s Revenue and Customs (HMRC) is being roughly fair to reimburse you at 20p (31 cents) per mile for business travel on a bike, then we would need to add about 50 g CO2e per mile to take account of the wear and tear on your bike, your waterproof gear, lights, helmet, and so on.

    Zum Thema „safely“ und „helmet“ verweise ich auf meine Ausführungen von vor einem Jahr, und das Licht gehört nun wirklich zu einem vernünftigen Fahrrad und braucht daher keine separate Betrachtung. Aber entscheidender: Berners-Lee will hier etwas wie einen Euro alle vier Kilometer für Fahrrad und Ausrüstung ausgeben (zur Frage, was das mit CO₂ zu tun hat, vgl. diese Fußnote von neulich). Wenn ich konservativ annehme, dass ich 4000 Kilometer im Jahr fahre, müsste ich demnach rund 1000 Euro im Jahr für Fahrradkram ausgeben.

    Das ist rund eine Größenordnung daneben; mit dem neuen Hinterrad werden es in diesem Jahr zwar fast 300 Euro werden, aber die letzte Nabe hat doch immerhin sechs Jahre gehalten. Und vielleicht lerne ich aus dem Postmortem der alten Nabe genug, um die neue etwas länger am Laufen zu halten. Klar, wenn ihr regelmäßig neue Räder, Wurstpellen-Klamotten und Spezialschuhe kauft, wird Berners-Lees Rechnung gleich viel plausibler – aber das hat mit Fahrradfahren nicht mehr viel zu tun; das ist dann Sport.

    Für vernünftige AlltagsradlerInnen, die logischerweise Alltagsklamotten tragen und ihre Räder überschaubar warten (meines habe ich jetzt schon 22 Jahre unterm Hintern), würde ich die 30 g CO₂e auf den Kilometer von Berners-Lee aus Produktion und Zubehör eher so auf 5 g korrigieren wollen. Mit ebenfalls entsprechend korrigierten 10 g aus dem Essen wären wir dann bei 15 g/km – wobei ich keine Sekunde bestreite, dass Radeln als Sport eher bei den 100 g/km liegen könnte, die Berners-Lee veranschlagt.

    (Kaum) mehr als ein Epsilon

    Einzuräumen bleibt, dass die ganze Betrachtung ziemlich irrelevant ist für den CO₂-Fußabdruck eines Durchschnittsmenschen in der BRD: In Wahrheit habe ich mich vor allem über Berners-Lees Präsupposition geärgert, mensch brauche „Ausrüstung“ zum Fahrradfahren (mal vom Fahrrad abgesehen). Jedenfalls: Wer 4000 km fährt, wird mit meiner Schätzung in einem Jahr 60 kg CO₂e verursachen, mit Berners-Lee dann halt 400 kg. Beides verschwindet praktisch vollständig in den 8 Tonnen pro Jahr, die wir in der BRD gegenwärtig pro Kopf so zu bieten haben.

    Ob das ein starkes Argument ist, sich nicht um den Fußabdruck des Fahrrads zu kümmern, ist wieder eine andere Frage, denn für BewohnerInnen der Zentralafrikanischen Republik wäre selbst meine niedrige Schätzung mehr als eine Verdoppelung ihres Fußabdrucks, wenn die im Menschenstoffwechsel-Post zitierten Daten von Our World in Data irgendwie hinkommen sollten.

    Und deshalb: Liebt euer Fahrrad! Repariert es und recycelt dabei alte Bauteile. Schande über meine Faulheit bei der neuen Nexus, ihren Speichen und ihrer Felge.

    [1]Wenn sich wer über runtergefahrene Felgen bei einer Rücktrittnabe wundert: Da ich doch ziemlich viel in den Bergen (also, na ja, im Odenwald halt, will sagen eher so zwischen 100 und 600 Metern) unterwegs bin, habe ich auch ans Hinterrad eine Felgenbremse gebastelt, damit mir die Rücktrittbremse bei längeren Abfahrten nicht abraucht.
    [2]Ich verleihe hiermit feierlich den König Æþelbyrht-Preis für grässliche Alltags-Einheiten an „Kalorien pro Meile“.
    [3]Vgl. dazu diese Fußnote.
    [4]Warum das im Rahmen des menschlichen Stoffwechsels emittierte CO₂ nicht zählt, habe ich im November 2022 diskutiert. Es geht also wirklich nur um den Fußabdruck bei der Produktion der Nahrungsmittel, aus denen die 50 kJ kommen.
  • Technoseum: Innovationen für den Umweltschutz von 1910

    Verschiedene kleine Geräte mit Walzen und Kurbeln in einer Vitrine arrangiert.

    Ratet, was das ist. Dann lest weiter.

    Erfreulicherweise verschafft mir mein Museumspass auch im Landesmuseum für Arbeit und Technik in Mannheim – Verzeihung, „Technoseum”, inzwischen – freien Eintritt.

    Da. Ich habe gleich damit aufgemacht: ich konnte das leicht bräsige „Arbeit und Technik“ gut leiden, schon, weil es den historischen Kompromiss der späten 1970er Jahre atmet. Ich stelle mir immer vor, dass Alt-Ministerpräsident Späth damals eine Art Propagandaabteilung für seine Daimler-Bosch-Spätzlesconnection bauen wollte, im seinerzeit noch viel gewerkschaftsgeprägteren Mannheim dabei aber viele Zugeständnisse machen musste. Wie viel Realität auch immer in dieser Fantasie stecken mag: mensch kann noch heute die Internationale hören im Museum, bekommt Einblick in die Elendsviertel der Gründerzeit und findet zwischen all den Wunderwerken dann und wann auch Einsprengsel von Technikfolgenabschätzung.

    Vor diesem Hintergrund war ich bei meinem Museumspass-Besuch neulich hocherfreut, dass ein paar der bunten „Zeitreise“-Klötze weiter an die Gründerjahre des Landesmuseums erinnern. Auf ihnen leitet immer noch ein Botschafter der späten achtziger Jahre in herzigen Videos in noch fernere Zeiten:

    Vier Klötze in kräftigen Farben, Sitzklötze in Blau, ein Monitorklotz in rot.  Auf dem Monitor eine Anzeige „Zeitreisen/Bitte nähertreten“.

    Museumspädagogik der späten 1980er: Ich oute mich hier als Fan.

    Ihr habt geraten, was am Anfang des Texts zu sehen ist?

    Aber eigentlich will ich ja verraten, was die Dinger im Foto oben sind. Nämlich: Das sind verschiedene Maschinen, die erlaubten, Wechselklingen für Nassrasierer zu schärfen und so deren Lebensdauer zu vervielfachen. Das war erkennbar ein nenenswerter Markt, so zwischen 1900 und 1920.

    Ich fand das bemerkenswert, weil zwar Rasierausrüstung aktuell vermutlich bei fast niemandem nennenswert ökologischen Fußabdruck ausmacht, das aber nur daran liegt, dass wir ansonsten so viel Dreck machen. All die Sprays, Geräte, Wässerchen und Einweg-Klingenhalter, die die breite Mehrheit der Menschen beiderlei Geschlechts mittlerweile auf die Entfernung von Haaren verwendet, dürfte schon einige zehn Kilo CO₂-Äquivalent im Jahr ausmachen[1] – pro Nase. Das wäre vermutlich schon im Prozentbereich des gesamten Fußabdrucks eines Menschen von 1910 gewesen, wenn es sich nicht gerade um Fürstinnen oder Soldaten handelte.

    So gesehen betrachtet ihr oben eine der berühmten technischen Lösungen, die uns bei der Bewältungung der Klimakrise helfen sollen, nur, dass die Rede von der Innovation bei Kram aus dem Kaiserreich wirklich nicht mehr passt [Pflichtmitteilung: Ich bleibe überzeugt, dass es für die Klimakrise keine technische Lösung gibt; sie ist ein fundamental wirtschaftliches, also soziales Problem und braucht daher auch soziale Lösungen; im vorliegenden Fall schlage ich Großentspannung in Sachen Körperbehaarung vor.]

    Ich hoffe, mit diesen Blech- und Messingwundern aus der ausgehenden Gaslichtzeit alle Steampunk-Fans des Internets hierher gelockt zu haben. Herzlich willkommen, und wo ihr schon da seid, habe ich ein weiteres Schmankerl aus dem Landesmuseum für euch:

    Ein in Kiloampere geeichter Strommesser und ein Voltmeter, rund, auf Marmorgrund, darüber en Blechschind in Sans-Serif: Turbodynamo II.

    „Turbodynamo II“ klingt wie albernes Technobabble aus Star Trek, ist aber echt. Wenn ich das Arrangement richtig interpretiere, gehörte das gute Stück zum Kleinkraftwerk, das die Waggonfabrik Fuchs – in einem Produkt der Firma könnt ihr im Technoseum Dampfzug fahren – Ende des 19. Jahrhunderts in Heidelberg hat errichten lassen. Die dazugehörige Dampfmaschine wird im Landesmuseum normalerweise ein paar Mal am Tag in Aktion vorgeführt, wenn auch mit anderswo erzeugtem Dampf, so dass niemand Kohle schaufeln muss. Dennoch: Steampunks, kommt nach Mannheim.

    Ein letztes Exponat habe ich noch zu bieten, und zwar eins aus der aktuellen Sonderausstellung zur Geschichte des Rundfunks:

    Auf eine Holzplatte montierte elektrische Bauteile, vor diesen ein großer Drehregler.

    Das ist ein frühes Radio (ein Audion), das eine unbekannte Person im Deutschland der 1920er Jahre gebaut hat.

    Aus diesem Exponat habe ich Hoffnung geschöpft, denn es stellt sich heraus, dass in dieser Zeit der Selbstbau von Radios bei Strafe verboten war; der Grund war wahrscheinlich ein wenig, dass die Erhebung der Rundfunkgebühr durch die Kontrolle des Gerätehandels erleichtert werden sollte.

    Doch versichert die Ausstellung, die Regierung habe sich vielmehr um ausländische Spione besorgt, die durch Radiobasteln leichter mit ihren Auftraggebern hätten kommunizieren können. Die Sorge war auch ganz sicher berechtigt. Der Irrsinn aber, dass eine Obrigkeit aus Angst um ihre Herrschaft ihren Untertanen das Basteln verbietet, der hatte hier keinen Bestand, zumal größere Teile der Bevölkerung eben doch Radios bastelten.

    Der derzeit als Einbahnstraße erscheinende Weg zu immer mehr „Sicherheitsgesetzen“ ist nicht unumkehrbar, schon gar nicht, wenn hinreichend viele Menschen die unerfreulichen Vorstellungen der Obrigkeit von „Sicherheit“ nicht teilen.

    An der Stelle muss ich meine Prinzipien der Trennung von Arbeit und Blog verletzen und eine Anekdote aus den späten neunziger Jahren erzählen. Ich habe damals am ADS gearbeitet, einer großen Datenbank mit fast allem, was in der Astronomie jemals wissenschaftlich publiziert wurde. Weil damals die Leitungen über den Atlantik insgesamt in etwa die Kapazität eines heutigen Haushaltsanschlusses hatten, unterhielten wir Spiegel in etlichen Ländern, darunter auch in Frankreich.

    Die französische Regierung jedoch – ich kratze die Kurve zurück zum Thema – hatte damals ihrer Bevölkerung nennenswerte Kryptographie verboten (kein Witz!), und so durfte das Institut, das den Spiegel betrieb, auch keinen sshd laufen lassen (ich erfinde das nicht). Und deshalb hatten wir für den französischen Spiegel extra irgendeinen haarsträubenden Hack, um trotzdem irgendwie rsyncen zu können. Auch dieser Unsinn ist ein paar Jahre später – längst hatte natürlich praktisch jedeR Netzwerkende in Frankreich ssh, und überall unterstützten auch Browser in Frankreich https – stillschweigend zu Grabe getragen worden.

    Erstaunlicherweise hat das Staatswesen die nicht mehr durch Kryptoverbote gehemmten Umtriebe der Spione seitdem überlebt – und wenn die Freie Kryptographie der Gesellschaft überhaupt einen Schaden zugefügt hat, war der jedenfalls ungleich kleiner als, ich sag mal, die Verheerungen durch Sarkozy, Hollande oder gar Macron.

    Ihr seht: Obrigkeitlicher Zugriff auf die Technologiewahl ihrer Untertanen ist kein Privileg von Kaisern oder mit Freikorps paktierenden Reichspräsidenten. Das machen auch ganz regulär unsere – <hust> demokratisch legitimierten – Regierungen. Aber Menschen, die in Zeiten von Chatkontrolle und Hackertoolparagraphen leben, erzähle ich damit wohl nichts Neues.

    [1]In dem hier schon öfter zitierten Standardwerk „How Bad Are Bananas“ schätzt Mike Berners-Lee (inflationsbereinigt) 500 g CO₂-Äquivalent pro für Supermarkt-Essen oder ein Auto ausgegebenem Dollar – übrigens gegenüber 6 kg, wenn ihr für den Dollar US-amerikanisches Benzin zu 2010er Preisen gekauft habt. Ganz grob dürftet ihr also auch für einen für plausible Konsumgüter ausgegeben Euro innerhalb eines Faktors drei ein halbes Kilo CO₂ rechnen müssen. Wer dann 100 Euro fürs Enthaaren (ist das realistisch? Ich mach dabei ja nicht mit…) ausgibt, darf dafür zwischen dreißig Kilo und dreihundert Kilo CO₂e veranschlagen (um in die Nähe der höheren Schätzung zu kommen, müsstet ihr jedoch ganz schön viele Schaumdosen mit interessanten Treibmitteln kaufen).
  • Unerwartete Konsequenzen am Klo

    Ich bin ein großer Fan von Geschichten, in denen Leute etwas tun, das über ein paar verwinkelte Ecken noch was ganz anderes bewirkt, das zumindest nicht offensichtlich erwartbar ist, so etwa wie bei den Akazien, die verkümmerten, weil sie mit Elektrozäunen vor Elefanten geschützt wurden.

    Ganz erheblich profaner ist die Geschichte rund um die Handtuchspender bei uns am Institut. Bis April diesen Jahres hatten wir dazu Geräte, die mit einem recht raffinierten Mechanismus sehr lange waschbare Stofftücher abrollten. Das war einerseits prima, weil die Hände so wirklich trocken wurden und nicht viel Papier nach einfachem Gebrauch weggeworfen wurde. Andererseits wurde jedes Handtuch-Äquivalent effektiv nur ein Mal benutzt, so dass die Rollen häufig gewechselt werden mussten. Mit Logistik, Waschen und Trocknen wird die Ökobilanz der Stofftücher vermutlich nicht nennenswert besser gewesen sein als die der üblicheren Papierhandtücher.

    Um die Ökobilanz am CO₂-Fußabdruck einzuordnen: Händetrocknen ist eines der Paradebeispiele von Mike Berners-Lee[1] für Handlungsweisen, die viele Menschen für wichtig halten, die aber für ihren tatsächlichen Fußabdruck fast keine Rolle spielen. Für ein Mal Händetrocknen schätzt er je nach Methode:

    3 g CO2e Dyson Airblade [obwohl so eine Airblade eher zu den Geräten gehören wird, bei denen der Herstellungsaufwand relativ zum Energieverbrauch während des Betriebs verschwindet, hätte ich gerade bei der Hi-Tech-Lösung gerne was zu vergegenständlichten Emissionen gelesen]

    10 g CO2e one paper towel

    20 g CO2e standard electric drier

    Wenn ich im Jahr 600 Mal meine Hände im Institut abtrockne (also rund drei Mal pro Arbeitstag), ist das so oder so schlimmstenfalls das Äquivalent von einem Kilo Käse (das Berners-Lee auf 12 kg CO₂e schätzt). Mit der Kopfzahl der BRD-Emission (2/3 Gt/a) ist zum Vergleich der mittlere Footprint pro Einwohner auf etwas wie 8000 kg abzuschätzen. Die Handtücher sind also für Normalos weit unterhalb von einem Promille, und selbst Ökos müssten sich hier im Land schon ganz schön bösen chronischen Durchfall zuziehen, um mit betrieblichem Händetrocknen auch nur auf ein halbes Promille ihres Fußabdrucks zu kommen.

    Wie auch immer: die schönen Stoffhandtuchspender sind inzwischen verschwunden, vielleicht aus Kostengründen, vielleicht, weil der Lieferant sie nicht mehr anbietet, vielleicht wirklich, weil sie alles in allem eher beim Fußabdruck von Berner-Lees „standard electric dryer“ rausgekommen sind. Stattdessen hat die Uni ziemlich flächendeckend das hier beschafft:

    Ein Papierhandttuchspender mit einer aufgeklebten zweisprachigen Nachricht: „Wegen Verstopfungsgefahr: Nur Toilettenpapier KEIN Handtuchpapier und ähnliches herunterspülen! Danke!

    Neue Handtuchspender an der Uni Heidelberg mit liebevollem Denglisch. Ich weiß nicht, wer es geschrieben hat, aber „constipation“ (Verstopfung im Darm, statt clogging) und „Wash down“ (ein Getränk kippen, statt flush) riecht durchaus nach subtilem Insider-Humor mit Fäkalhintergrund. Ich vermute Kommunikationsguerilla.

    Wie der aufgeklebte Zettel schon vermuten lässt, hatte der ökologisch vielleicht zweitrangige Schritt ernsthafte und jedenfalls von mir unerwartete Konsequenzen an anderer Stelle: Keinen Monat nach der Abschaffung der Stoffrollen drückte es übelriechendes Abwasser aus der Toilette im Erdgeschoss, und für 24 Stunden musste, wer musste oder Teewasser wollte, ins Nebengebäude gehen.

    Diagnose: heruntergespülte Papierhandtücher hatten das Abwasserrohr komplett dicht gemacht. Mit den alten Stoffhandtüchern wäre das nicht passiert. Also: Es ist nicht passiert.

    Ich habe übrigens auch eine Konsequenz gezogen, selbst wenn mein CO₂-Fußabdruck leider so oder so praktisch unbeeinflusst ist. Dafür liefert meine Konsequenz jede Menge Hitchhiker-Bonuspunkte. Ich habe nämlich ein privates Handtuch ins Büro gehängt, das ich nun viele Male verwende und dazu jeweils zum Klo trage („every day is Towel Day“). Weil ich das Handtuch schon hatte, trockne ich meine Hände damit fast CO₂-frei.

    Nur: wo soll in einem Büro ein Haken zum Aufhängen von Handtüchern herkommen? Nun, ich hatte irgendwann während einer schrecklich langweiligen Telecon eine alte Festplatte aus der SATA-Ära zerlegt. Schmeißt die Dinger auf keinen Fall weg, bevor ihr die Magnete der Schrittmotoren erbeutet habt, denn die sind großartig. Zum Beispiel können sie zusammen mit einer Büroklammer und einem Heizkörper einen prima Handtuchhaken machen, der mir bereits seit zwei Monaten taugt:

    Foto des im Fließtext beschriebenen Murkses.
    [1]Berners-Lee, M. (2011): How Bad Are Bananas, Vancouver: Greystone, ISBN 978-1-55365-832-0
  • Die „Klima Arena“ in Sinsheim

    Interessant beleuchteter Museums-Innenraum mit ein paar Menschen und einem Themenglobus

    Es leuchtet und schimmert viel im Inneren der Hopp'schen „Klima Arena”. Der Themenglobus hat mir aber durchaus noch das eine oder andere beigebracht.

    Seit heute bin ich Inhaber eines Museumspasses und werde also in den nächsten 12 Monaten einige Museen in der weiteren Umgebung des Oberrheingrabens erkunden. Den Anfang machte heute (vielleicht relativ bescheiden angesichts der Konkurrenz) die „Klima Arena“ (jaja, Deppenleerzeichen. Ich kann nichts dafür), die sich in der Sinsheimer Hopp-Vorstadt befindet, also grob neben dem Stadion des lokalen Männerfußball-Bundesligavereins.

    Und so gleich mal ein heißer Tipp: Wenn ihr da hinwollt und es gerade beqeuem ist, steigt an der S-Bahn-Station Sinsheim-Arena aus. Das ist vielleicht etwas weiter als vom Hauptbahnhof aus, aber dafür bekommt ihr eine hautnahe Einführung in den Mobilitätsteil der Klimafrage, zunächst mit dem Technikmuseum und seinen glücklicherweise stillgelegten Überschalljets, dann durch die A6 und schließlich durch endlose Wege über Parkplätze für Fußballfans und SchwimmbadnutzerInnen, die, ihren Nummernschildern nach zu urteilen, teils über 100 km angefahren waren.

    Blick durch ein Gitter auf eine helle Beleuchtung eines Stadionrasens

    Die Wanderung zur „Klima Arena“ zeigt eine besonders bizarre Energieverschwendung: Hopps Fußballclub beleuchtet aus irgendwelchen Gründen seinen Rasen.

    Wie schon angedeutet: Hinter der „Klima Arena“ steckt Dietmar Hopp, der durch die Warenwirtschafts-Software von SAP reich geworden ist. Da vieles dafür spricht, dass SAP das Bruttosozialprodukt deutlich gedrückt hat (Beispiel), ist die Kombination aus Klimaschutz und Computerspielen vielleicht weniger exotisch als mensch meinen könnte.

    Dennoch überrascht nicht, dass sich die „Klima Arena“ schwer tut mit der Ansage, dass weniger Arbeit und auch dringend weniger Produktion der einzig aussichtsreiche und vernünftige Weg zu Klimaschutz ist; an eine auch nur beiläufige Erwähnung des Wortes „Kapitalismus“ in den zahlreichen Texten kann ich mich nicht erinnern. Ebenso erwartbarerweise ist alles voll mit großen Monitoren und Beamern, die zusammen gewiss den Strom eines mittleren Windrades schlucken werden. Klar spielt da die Verheißung von Wundertechniken eine erhebliche Rolle in verschiedenen Exponaten.

    Augenrollen lässt sich auch nicht vermeiden, wenn allerlei offensichtlich gescheiterte Politiken kritiklos dargestellt werden. Ein recht optimistisches Klimamodell etwa wird eingeführt mit diesem Text:

    Alle übrigen Treibhausgase verschwinden in gleichem Maße wie Kohlendioxid, da auch für sie Strafzahlungen geleistet werden müssen.

    Ganz falsch ist so eine Erwartung paralleler Entwicklungen von CO₂ und anderen Treibhausgasen nicht. Nur hat der Emissionshandel schon beim Kohlendioxid nicht für „Verschwinden“ gesorgt. Es hat noch nicht mal für eine erkennbare Verlangsamung der galloppierenden Zunahme gereicht in den Jahren seit Kyoto (1997: ca 23 Gt/yr; aktuell: um die 35 Gt/yr). Wie das Montreal-Protokoll zeigt, geht sowas durchaus auch anders, wenn mensch nicht auf einen Mumpitz wie Emissionshandel, sondern auf klare Regulierung setzt (und allen Göttern sei dank, denn ansonsten würden wir jetzt alle ein Abo auf Sonnencreme mit Lichtschutzfaktor 50 brauchen).

    Andererseits muss mensch nicht lange auf den interaktiven Videowänden rumtatschen, bevor mensch mit dem Rebound-Effekt bekannt gemacht wird (also: wenn wir effektivere Motoren bauen, verstärken wir die Panzerung der Autos und bauen Klimaanlagen ein, so dass wir am Schluss mehr statt weniger Sprit verschleudern). Eigentlich sollte sich danach all die Spekulation über technologische Wunder erledigt haben. Und wirklich spricht die „Klima Arena“ netto deutlich mehr über saisonales und regionales Essen als über Elektro-Flugtaxis.

    Tatsächlich habe ich ein paar Dinge gelernt, so etwa die Kopfzahl, dass ein Atomkraftwerk wie Phillipsburg I rund eine halbe Megatonne wiegt (und mithin auch so viel Krempel weggeschafft werden muss bis zur „grünen Wiese“). Mit der Kopfzahl 25 Tonnen pro Standardcontainer kann mensch abschätzen, dass rund 20'000 solche Dinger gebraucht würden, um den Schutt wegzuschaffen und zu lagern. Oder auch: ein AKW entspricht mengenmäßig dem Schwefeldioxid, das bei der Explosion des Hunga Tonga Hunga Ha'apai freigesetzt wurde (vgl).

    Ausschnitt eines Themen-Globus mit Ackerland-Bedeckung: die südliche Sahel-Zone ist sehr rot.

    An dem großartigen Globus, auf den mensch so circa 50 verschiedene Themenkarten projizieren und manipulieren kann, habe ich gelernt (vgl. Bild), dass im Süden der Sahelzone, im Norden von Nigeria eine Region äußerst dichten Ackerbaus liegt, so in etwa vergleichbar mit der Poebene. Ich hatte mir da bisher immer eher eine karge Steppe mit ein paar graszupfenden Ziegen vorgestellt. Was der Klimawandel dort anrichten wird, will mensch sich gar nicht vorstellen.

    Während mich der Globus hinriss, fand ich den „immersiven“ Film über eine Reise zum kaputten Amazonas-Regenwald im Jahr 2100 (oder so) in einer als Eisberg verkleideten Röhre aus vielleicht 100 großen Monitoren und Fußbodenrüttlern eher albern. Gewiss, die Kontrastierung von beeindruckenden Waldaufnahmen der Gegenwart mit einer simulierten Einöde nach dem Klimawandel mag das eine oder andere Herz rühren. Aber das Verhältnis von technischem Aufwand zu inhaltlichem Ertrag wirkt schon sehr dürftig.

    Das gilt noch mehr für ein in die Handlung reingezwungenes albernes Spielchen um eine Bruchlandung in Cape Canavaral (inklusive Palmen im Salzwasser). Wenn ihr keinen Wert auf Cringe legt oder enttäuscht wärt, wenn bei all dem Technik-Verheiz immer noch Tearing auf den Monitoren zu sehen ist: Spart euch diesen Teil der Ausstellung vielleicht eher.

    Während der Immersionstunnel noch als Folge von Ansagen des Hauptsponsors Richtung „macht mal ordentlich was mit Technik” durchgeht, fand ich einige völlig danebengegangene Visualisierungen unerklärlich. Hier zum Beispiel sollen die drastisch verschiedenen Wassermengen illustriert werden, die für die Produktion verschiedener Gemüse draufgehen:

    Foto von tropfenförmigen Gewisten mit Zahlen von 8 bis 1256 drauf, wobei die 8 vielleicht halb so groß ist wie die 1256.

    Zwischen acht und 1256 Litern liegt ein Faktor 150, und es ist für viele Menschen schon nicht einfach, sich klar zu machen, was das bedeutet (es ist so in etwa das Verhältnis zwischen dem Einkommen einer Putzkraft und eines Vorstandes in einem modernen Unternehmen…). Da hilft es nichts, wenn die Tropfen alle ungefähr gleich groß sind – das ist, im Gegenteil (sicher nicht beabsichtigte) Irreführung.

    Dieser Vorwurf geht tatsächlich eher an die noch von Theo Waigel ins Leben gerufene Deutsche Bundesstiftung Umwelt, in deren Sonderausstellung zu „planetaren Leitplanken“ dieses Exponat lag. Aber auch die Stammausstellung macht das nicht besser. Seht euch diese Visualisierung der Emissionen verschiedener Verkehrsträger pro Personenkilometer an:

    Übereinandergeschraubte Radreifen von Fernbus, Eisenbahn, Elektroauto, mit daraufgeschriebenen spezifischen Emissionen, die nichts mit der Größe der Räder zu tun haben.

    Es ist ja ein lustiger Gag, die (Rad-) Reifen verschiedener Verkehrsträger ins Museum zu stellen, aber wenn dabei 21 g/Pkm (der Fernbus, ganz unten) gigantisch groß aussiehen und 62 g/Pkm (das Elektroauto, 2. von oben) ziemlich klein, dann klappt das nur, wenn mensch viel Vertrauen in die Urteilskraft des Publikums hat. Und in dem Fall bräuchte es keine Museumspädagogik.

    Demgegenüber nimmt die Museumsgastronomie Thema und auch Nachricht der „Klima Arena” auf und ist immerhin ganz vegetarisch, wenn auch von den (in der Ausstellung durchaus empfohlenen) „regional und saisonal“ nicht viel zu schmecken war.

    Weniger zur Nachricht der Einrichtung passt, dass, wer sich den garstigen Anmarsch sparen und Bus fahren will, gut planen muss. Zumindest von der „Arena“ zum Hauptbahnhof zurück fährt zum Beispiel nichts zwischen 13:04 und 16:03. Dafür fährt gleich nach Museumsschluss um 17:00 ein Bus in ein paar Minuten zum Sinsheimer Bahnhof, wo schon der Zug nach Heidelberg steht. Insofern ist schon bemerkenswert, dass wir die einzigen waren, die diesen Weg gewählt haben. Also: das Thema der Ausstellung bedenkend, jetzt.

  • Neun Monate Umwelt-CO₂, Teil II: Hochpass, Tiefpass, Spektrum

    Eher wolkiges grünes Wabern mit der Zeit auf der Abszisse und Frequenzen von 1/3 bis 3 pro Tag auf der Ordinate.  Dann und wann sind Strukturen bei ganzzahligen Frequenzen erkennbar.

    Am Ende des Posts verrate ich, welche Bewandnis es mit diesem hübschen, nachgerade frühlingshaften Muster hat. Und auch, wie mensch sowas selbst macht.

    Ich habe letztes Jahr neun Monate lang CO₂-Konzentrationen auf meinem Balkon gemessen, in der Hoffnung, ein wenig hinter die Gründe für die doch überraschend großen Konzentrationsschwankungen zu kommen, für die ich bei einer ersten Messung im November 2021 nur sehr spekulative Erklärungen gefunden habe (Stand Februar vor allem: die lokale Heizung und eventuell das Kraftwerk in Rheinau oder die Chemiefabriken in Ladenburg oder Ludwigshafen). Ich habe dann neulich an der Kalibration der Daten gespielt und bin zum Schluss gekommen, dass sie nach Maßstäben von KonsumentInnenelektronik recht ordentlich sein dürften.

    Jetzt möchte ich ein wenig in den Daten rumfummeln. „Explorative Datenanalyse“ nennen das Leute, die das mit dem Fummeln nicht zugeben wollen, und in der ernsthaften Wissenschaft wird zurecht etwas die Nase gerümpft, wenn jemand sowas macht: Es stecken in jedem hinreichend großen Datensatz fast beliebig viele Korrelationen, und wer sie sucht, wird sie auch finden. Leider sind (fast) alle davon Eigenschaften des Datensatzes bzw. der Messung, nicht aber des untersuchten Gegenstands.

    Andererseits: Ohne Induktion (was in normale Sprache übersetzt „Rumspielen, bis mensch einen Einfall hat“ heißt) gibt es, da muss ich Karl Popper ganz heftig widersprechen, keine Erkenntnis, und Deduktion kann mensch nachher immer noch machen (also, ich jetzt nicht, weil das hier mein Freizeitvergnügen ist und keine Wissenschaft).

    Erstmal glätten

    Meine ganz große Enttäuschung mit dem Datensatz war ja, dass sich fast kein Jahreszeiteneffekt gezeigt hat; natürlich werde ich hier, mitten im dichtbesiedelten Oberrheingraben, kein so hübsches Signal bekommen wie die Leute mit der klassischen Messung am Mauna Loa – davon, dass ich eine Schwingung von ein paar ppm nachvollziehen könnte, ganz zu schweigen. Aber ich hatte im September 2021 unter 300 ppm gemessen, während es im Herbst auf die global eher aktuellen 400 bis 500 ppm hochging. Ich hatte gehofft, den Weg zurück zu den 300 ppm im Laufe des Sommers beobachten zu können. Doch leider ist in den (Roh-) Daten erstmal nur Gekrakel:

    Plot: Kurve, die fast immer zwischen 400 und 500 ppm zittert. Auf der Abszisse die Zeit zwischen Ende Dezember 2021 und Mitte September 2022.

    Wenn in einem Datensatz nur Gekrakel ist, es aber einen langfristigen Effekt geben soll, hilft oft Glätten. Dabei ersetzt mensch jeden Punkt durch einen geeignet gebildeten Mittelwert über eine größere Umgebung dieses Punktes, wodurch kurzfristiges Gewackel wie in meinen Rohdaten stark unterdrückt wird und die langfristigen Trends besser sichtbar werden sollte. Es gibt noch einen zweiten Gewinn: Mensch kann das so gewonnene Mittel von den Daten abziehen und hat sozusagen destilliertes Gewackel (den „hochfrequenten Anteil“), der auf diese Weise auch ein klareres Signal zeigen mag.

    Im einfachsten Fall lässt sich so eine Glättung in ein paar Zeilen Python schreiben, und das auch noch relativ effizient als gleitendes Mittel unter Verwendung einer zweiendigen Queue aus Pythons großartigem Collections-Modul: Um das Mittel zu berechnen, addiere ich auf einen Akkumulator, und das, was ich da addiere, muss ich wieder abziehen, wenn der entsprechende Wert aus dem Fenster rausläuft. Dazu gibts noch die Subtilität, dass ich Zeit und Konzentration in der Mitte des Fensters zurückgeben will. Das führt auf so eine Funktion:

    def iter_naively_smoothed(in_file, smooth_over):
        queue = collections.deque()
        accum = 0
        for time, co2 in iter_co2(in_file):
            queue.append((time, co2))
            accum += co2
            while time-queue[0][0]>smooth_over:
                _, old = queue.popleft()
                accum -= old
            time, base_co2 = queue[len(queue)//2]
            yield time, accum/len(queue), base_co2-accum/len(queue)

    Als Plot sehen die über drei Tage[1] geglättete Konzentrationskurve und die Residuen so aus:

    Zwei Kurven, oben eine wellige Linie (die geglättete Kurve), unten eine sehr zackige Punktwolke.

    Die Ränder, vor allem der linke, sind dabei mit Vorsicht zu genießen, da dort fast nichts geglättet ist; die Funktion ist so geschrieben, dass dort die Fenster klein sind. So oder so: auch die geglättete Kurve hat keine nennenswerte Tendenz. Allenfalls die beiden großen Ausschläge bei den Tagen 80 und 110 könnten ein Signal sein.


    „Tag 80” ist jetzt keine wirklich intuitive Angabe, aber ich wollte in den Plots nicht mit läsitgen Kalenderdaten operieren. Für die Interpretation wären sie jedoch schon ganz gut. Wie komme ich von Messtag auf ein bürgerliches Datum?

    Die Daten kommen original mit Unix-Timestamps, also der Zahl der Sekunden seit dem 1.1.1970, 0:00 Uhr UTC, und sie fangen mit 1640612194 an. Um ausgehend davon bürgerliche Daten auszurechnen, muss mensch wissen, dass ein Tag 86400 Sekunden hat. Pythons datetime-Modul liefert dann:

    >>> import datetime
    >>> datetime.datetime.fromtimestamp(1640612194+80*86400)
    datetime.datetime(2022, 3, 17, 14, 36, 34)
    >>> datetime.datetime.fromtimestamp(1640612194+110*86400)
    datetime.datetime(2022, 4, 16, 15, 36, 34)

    Mitte März und Mitte April ist also möglicherweise was Interessantes passiert. Da gucke ich nochmal drauf, wenn ich demnächst Wetterdaten einbeziehe.

    Die andere Seite, die Residuen, kann ich für eine saubere Fassung des Tagesplots aus Teil 1 verwenden. Weil längerfristige Schwankungen bei ihnen rausgerechnet sind, sollte ein regelmäßiger Tagesgang in den Residuen deutlicher herauskommen als im ganzen Signal. Dazu nehme ich wieder den Rest bei der Division durch 86400 (siehe oben), und die Warnungen wegen Zeitzonen aus dem Kalibrationspost gelten immer noch.

    Ein Dichteplot, der im Groben flach verläuft, aber zwischen 10'000 und 25'000 Sekunden auf der Abszisse deutlich fransig ist.

    Dass da „am Morgen” (15000 Sekunden sind etwa 4:15 Uhr UTC, also 5:15 MEZ und 6:15 MESZ) irgendwas passiert, dürfte ein robustes Signal sein, und es kommt ohne die niederfrequenten Signale deutlich besser raus. Mit etwas Wohlwollen könnte mensch vielleicht sogar zwei Berge im Abstand von einer Stunde sehen, was dann Normal- und Sommerzeit entspräche. Da der Sensor nicht weit von der Bundesstraße 3 stand, liegt als Erklärung zunächst Berufs- und Pendelverkehr nahe.

    Wenn der Tagesgang tatsächlich mit dem Berufsverkehr am Morgen zu tun hat, müsste sich eigentlich ein Signal im Wochenrhythmus zeigen, denn zumindest Sonntags ist es hier am Morgen deutlich ruhiger als an Werktagen. Die Projektion auf die Woche ist einfach: Statt den Rest bei der Division durch 86'400 nehme ich jetzt den Rest bei der Division durch 604'800, die Zahl der Sekunden in einer Woche. Das Ergebnis zeigt, vielleicht etwas überraschend, das Tagessignal eher deutlicher; ein Wochensignal hingegen ist weniger überzeugend erkennbar:

    Ein pinkes Siebengebirge mit grob gleichhohen Gipfeln.

    Vielleicht ist an den Tagen drei und vier etwas weniger los – welche Wochentage sind das? Nun, ich dividiere hier Unix-Timestamps; ihr erinnert euch: Die Sekunden seit dem 1.1.1970. Welcher Wochentag war dieser 1.1.?

    $ cal 1 1970
        January 1970
    Su Mo Tu We Th Fr Sa
                 1  2  3
     4  5  6  7  8  9 10
    11 12 13 14 15 16 17
    18 19 20 21 22 23 24
    25 26 27 28 29 30 31

    Weil die Unix-Epoche so eine große Rolle im heutigen Leben spielt[2], nehme das mal als erweiterte Kopfzahl: Er war ein Donnerstag. Und so sind die Tage 3 und 4 tatsächlich Samstag und Sonntag. Meine Autoabgas-These ist mir durch diese Prüfung etwas sympathischer geworden. Vermutlich fallen die Abgase nur bei wenig Wind und wenig Thermik (das ist praktisch die berüchtigte Dunkelflaute…) auf, so dass das dunkle Band mit hoher Punktdichte mehr oder minder bei der Null bleibt, jedoch immer wieder Spitzen mit bis zu 100 ppm extra in der Rush Hour auftreten. Wenn das hier Wissenschaft wäre, müsste ich mich jetzt auf die Suche nach Daten aus der Verkehrszählung machen.

    Und ich müsste überlegen, ob die Zacken im dunklen Band nicht doch ein echtes Signal sind. Speziell der Durchhänger so um die 180'000 Sekunden (also in der Nacht von Freitag auf Samstag) ist eigentlich kaum wegzudiskutieren. Aber was könnte gerade da plausiblerweise mehr frische Luft heranführen? Oder ist das, weil die Freitagnacht wegen Spätcorona noch besonders ruhig war?

    In Sachen Spitzen am Morgen hätte ich eine Alternativhypothese zu den Autoabgasen: Das könnte nämlich wieder der lokale Brenner sein. Dann wäre das, was da zu sehen ist, die Warmwasserbereitung zur Morgendusche. Attraktiv ist diese These schon allein, weil mir 6:15 eigentlich ein wenig früh vorkommt für das Einsetzen der Rush Hour nach Heidelberg rein; es ist ja nicht so, als seien da noch viele nennenswerte Industriebetriebe, in denen die Leute um sieben stechen müssten. Allerdings: in einem Wohnblock mit so vielen Studis wie meinem hier ist 6:15 auch keine plausible Zeit für massenhaftes Duschen…


    Was ich gerade gemacht habe, ist ein Spezialfall einer gerade für uns AstrophysikerInnen extrem wichtigen Technik – ich habe nämlich ein Signal nach Frequenzen aufgeteilt. Bis hierher hatte ich nur in zwei Bänder, ein hohes und ein tiefes. Mit der Fourieranalyse geht das viel allgemeiner: Mensch steckt ein Signal rein und bekommt ein Spektrum heraus, eine Kurve, die für jede Frequenz sagt, wie stark Schwingungen auf dieser Frequenz zum Signal beitragen.

    Mit dem Universal-Werkzeugkasten scipy kriegt mensch so ein Spektrum in anderthalb Zeilen Python:

    from scipy import signal
    f, power = signal.periodogram(samples[:,1], fs=86400/24/120)

    Dabei übergebe ich nur meine Konzentrationsmessungen, nicht die zugehörigen Zeiten, weil die periodogram-Funktion nur mit gleichmäßig gesampleten Daten zurechtkommt. Das sind meine Daten zum Glück: zwischen zwei Messungen liegen immer 30 Sekunden, und es sind auch keine Lücken in den Daten.

    Die halbe Minute Abstand zwischen zwei Punkten übergebe ich im Argument fs, allerdings als Frequenz (der Kehrwert der Periode) und umgerechnet in die Einheit „pro …

  • Papierrascheln am DLF

    Ich bin ein so großer Fan von Live-Programmen und vor allem Nachweisen ihrer Authentizität, dass ich hier einen eigenen Tag für diese habe: Live. Deshalb war ich auch begeistert, als ich in der Forschung aktuell-Sendung vom 5.12.2022[1] folgende, wie ich finde, professionell gemanagte Panne verfolgen durfte:

    Transkript der Sprecherin: Der Kohleausstieg wird im rheinischen Revier um… Ah, jetzt habe ich die falsche Meldung gelesen, tut mir leid (blättern) grad mal kurz die Richtige (leise distress signals) Wir wechseln bitte einmal kurz das Thema und machen die letzte zuerst… Der Kohleausstieg wird im rheinischen Revier um acht Jahre vorgezogen…

    Ich verstehe nicht ganz, wie es zu dieser Panne gekommen ist, aber erstens finde ich großartig, dass die SprecherInnen im DLF hörbar noch von Papier ablesen.

    Das ist auch nicht nur Nostalgie eines Menschen, der in seiner Jugend viel Tagesschau angeschaut hat. Tatsächlich ist das wahrscheinlich auch von einer CO₂-Perpektive nicht schlecht. Mike Berners-Lee[2] schätzt für ein Blatt Papier 10 g CO₂-Äquivalent. Na gut, bei ihm ist ein Papierhandtuch, also relativ mieses Papier und recyclet, aber andererseits schätzt er 400 g für ein Paperback, was gut zu 10 g pro A4-Seite passt. Für einen „einfachen“ Computer – also ein Tablet – schätzt er 200 kg CO₂e.

    Damit entspräche die Herstellung eines Tablets, das die SprecherInnen statt des Papiers verwenden würden, 200/0.01 = 20'000 Seiten Papier. Wenn pro Sendung 10 Seiten draufgehen, sind das 2000 Tage oder fünf Jahre. Wahrscheinlich hält kein täglich für eine Sendung verwendetes Tablet so lange.

    Zugegeben: das ist Unfug, denn die Seiten müssen ja auch bedruckt werden, und dazu braucht es Drucker und Toner (zusätzlich zu den Rechnern, auf denen die zu druckenden Texte geschrieben werden, aber die würde es beim Tablet auch brauchen), und die machen wahrscheinlich bereits einen größeren CO₂-Fußabdruck als Strom und Netzwerk, der beim Betrieb von so einem Tablet. Und dann sind 200 Kilo CO₂e über fünf Jahre für so eine Sendung ohnehin praktisch vernachlässigbar; so grob entspricht das (wiederum mit Berners-Lee) einer Recherche-Reise vom DLF-Standort Köln zum Wendelstein und zurück im ICE.

    Aber kurz zurück zur Frage, warum ich das Stück für erhaltenswert halte: ich finde, dass sich die Sprecherin Britta Fecke hier eigentlich recht elegant aus der Affäre gezogen hat. Deshalb verstehe ich nicht ganz, warum der DLF das in der Online-Version rausgeschnitten hat (wo das bei Minute 9:38 sein müsste; solche Schnitte machen sie nicht immer). Und ich finde es schade, denn zumindest mein Herz wärmt es, wenn da Papier raschelt und zu hören, ist, wie Leute Probleme lösen.

    [1]Ich habe das erst jetzt „live“ gehört, weil ich die Mitschnitte der Sendungen höre, wie ich Zeit habe. Wie schon seit Jahrzehnten kommt mein Material vom Livestrom, nicht aus dem RSS des DLF oder so.
    [2]Berners-Lee, M. (2011): How Bad Are Bananas, Vancouver: Greystone, ISBN 978-1-55365-832-0; nicht, dass ich nicht Berners-Lees Mahnung teilen würde, nicht jede Schätzung da drin auf die Goldwaage zu legen, aber für so schnelle Betrachtungen wie diese hier taugt das Buch bestimmt.
  • Neun Monate Umwelt-CO2, Teil I: Taugen die Daten?

    Im vergangenen Jahr habe ich meine CO₂-Messung am Balkon bis Mitte September laufen lassen, vor allem, weil ich sehen wollte, wie die Konzentrationen im Laufe der Zeit auf unter 300 ppm sinkt. So weit unten (relativ zum gegenwärtigen globalen Mittelwert von um die 400 ppm) lag zu meiner damaligen Überraschung die Konzentration mal ganz am Anfang meiner CO₂-Messungen, im September 2021. Ich hatte eigentlich erwartet, dass all das Grün im Sommer nach und nach auch in diesem Jahr dafür sorgen würde.

    Daraus ist nichts geworden. Im Groben ist die CO₂-Konzentration über Frühling und Sommer 2022 konstant geblieben:

    Plot: Kurve, die fast immer zwischen 400 und 500 ppm zittert. Auf der Abszisse die Zeit zwischen Ende Dezember 2021 und Mitte September 2022.

    (Alle Plots in diesem Post von TOPCAT). Mag sein, dass es einfach zu trocken war in diesem Jahr – mag aber auch sein, dass meine ersten Experimente einfach in besonders frischer Luft stattfanden. Schließlich kämen natürlich noch Kalibrationsprobleme in Betracht; ich habe nicht versucht, meine Messungen mit denen anderer zu abzugleichen.

    Der Negativbefund hat mich aber dazu gebracht, die Daten im Hinblick auf statistische und vor allem systematische Fehler genauer unter die Lupe zu nehmen. Darum geht es in diesem Post.

    Zunächst stellt sich die Frage, ob die generelle Zittrigkeit der Kurve eigentlich Rauschen des Sensors ist oder etwas anderes – von Anfang an haben mich ja die teils erheblichen Konzentrationsschwankungen verblüfft. Nun: angesichts der hohen Korrelation benachbarter Messwerte kommen diese jedenfalls nicht aus statistischen Fehlern im Sensor. Ich greife mal den 26. Mai (einen Donnerstag) heraus:

    Plot: Kurve, die ein wenig vor sich hin wackelt, bei der aber aber aufeinanderfolgende Punkte klar korreliert sind.

    Wenn das Wackeln ein statistischer Fehler wäre, dann wäre die Linie, die ich durch die Punkte gemalt habe, völliges Gekrakel und nicht erkennbarer Verlauf. Ich will gerne glauben, dass da ein Rauschen irgendwo unterhalb von 10 ppm drin ist. Der Rest ist irgendein Signal.

    Welcher Natur das Signal ist, ist eine Frage, die sich allenfalls mit dem ganzen Datensatz beantworten lässt. Angesichts der überragenden Bedeutung der Sonne für Physik und Leben auf der Erde geht der erste Blick auf der Suche nach systematischen Fehlern oder auch echter Physik bei solchen Zeitreihen erstmal auf die Tagesverläufe. Um da eine Idee des Verhaltens des ganzen Datensatzes zu bekommen, habe ich mir die Punktdichte in einem Plot von Tageszeit gegen CO₂-Konzentration angesehen (ich „falte auf den Tag“):

    Plot: Heatmap, die bei 1.5e4 und 5.5e4 auf der Abszisse Bäuche hat

    Die Abszisse hier verdient einen kurzen Kommentar: Sie zeigt den Rest bei der Division meiner Timestamps durch 84600, ausgedrückt in Stunden. Meine Timestamps sind in Sekunden, und 84600 ist einfach 24 mal 3600, also die Zahl der Sekunden an einem Tag. Mithin steht hier etwas wie eine Tageszeit.

    Ganz so einfach ist das aber nicht, weil meine Timestamps immer in UTC laufen, während die Umgebung der Willkür der Zeitzonen unterworfen ist; die 15 auf der Abszisse entspricht also manchmal 16 Uhr bürgerlicher Zeit (nämlich, wenn die Umgebung MEZ hatte) und manchmal 17 Uhr (wenn ihr Sommerzeit verordnet war). Aber schon rein optisch liegt nicht nahe, dass viel mehr zu sehen wäre, wenn ich die politischen Kapriolen nachvollziehen würde, um so weniger, als die Sonne die ja auch nicht nachvollzieht.

    Die Bäuche in der dunkleren Fläche, also einer besonders hohen Dichte von Punkten, entsprechen nun Tageszeiten, zu denen es häufiger mal hohe CO₂-Konzentrationen auf meinem Balkon gab. Das könnte ein Signal der Lüftung unserer Wohnung (oder vielleicht sogar der unserer Nachbarn) sein. Es ist aber auch plausibel, dass es der Reflex der Verkehrsdichte ist. Der Balkon befindet sich etwa 10 Meter über und 20 Meter neben einer recht viel befahrenen Straße, weshalb im September 2021 die Unsichtbarkeit der CO₂-Emissionen der Fahrzeuge mit meine größte Überraschung war. Mit hinreichend viel Statistik und Mitteln über hinreichend viele Wetterlagen zeigen sich die Autos (vielleicht) eben doch.

    Zwei Eisschachteln beschwert mit einem rostigen Stahlriegel

    Die Messanordnung; das wird für die Kalibration noch wichtig…

    Wenn Effekte so sehr auf zusammengekniffenen Augen beruhen wie hier beim Tagesverlauf, hilft es nichts: Da braucht es einen zweiten Blick auf innere Korrelationen der Daten, um zu sehen, ob sich da schlicht systematische Fehler zeigen oder ob es wirklich die Autos sind. Klar: besser wäre es natürlich, mit bekannten Konzentrationen oder einfacher einem bekannt guten Messgerät zu kalibrieren, also zu sehen, welche Anzeige das Gerät für welchen wahren Wert hat.

    Aber das ist aufwändig, und zumeist zeigen sich Systematiken mit ein paar plausiblen Annahmen („Modelle“) auch schon in den Daten selbst. Zur plausiblen Modellierung lohnt es sich, das Messprinzip des Geräts zu betrachten. Der Sensor ist im Groben eine Infrarot-Leuchtdiode, die in einem der Spektralbereiche sendet, in denen Kohlendioxid stark absorbiert (weswegen es ja den Treibhauseffekt macht). Das Signal wird dann von einer Fotodiode (oder etwas ähnlichem) aufgefangen, und die Schwächung des Signals ist ein Maß für die Konzentration von CO₂ zwischen LED und Fotodiode.

    Allerdings sind alle Halbleiter temperaturempfindlich, und irgendwas, das im Infrarotbereich empfängt, wird schon zwei Mal viel Kalibration brauchen, um Temperatursystematik wegzukriegen. Mit Sicherheit tut die eingebaute Software schon viel in der Richtung. Aber ein Dichteplot zwischen Temperatur und Konzentration zeigt durchaus einen ganzen Haufen Struktur:

    Dichtplot: Etwas wie Australien mit einem langen Schwanz nach Nordosten, dazu noch ein abgetrennter Schnips bei 50 Grad und 650 ppm.

    Manches davon ist ziemlich sicher Physik, so insbesondere, dass die ganz hohen Konzentrationen bei niedrigen Temperaturen auftreten – das ist ein Jahreszeiteneffekt. Anderes ist ganz klar Instrumentensignatur, am klarsten das abgetrennte Schwanzende jenseits von 50 Grad Sensortemperatur. Offenbar[1] ist die Kalibrationskurve (also: Welches Signal von der Fotodiode soll bei welcher Temperatur welche CO₂-Konzentration ausgeben?) abschnittsweise definiert, und beim Abschnitt über 50 Grad wird sich wohl wer bei den Hundertern vertippt haben. Im Tagesplot entspricht dieses Schwänzchen übrigens dem abgesetzten Häubchen am Nachmittag.

    Im Neunmonatsplot zeigen sich die Punkte dort in ein paar der Spitzen zwischen dem 18. Juli und dem 4. August, nur dass sie dort mit den „normalen“ Daten mit einer Linie verbunden sind und nicht als abgesetzt auffallen; Grundregel Nummer 312: Vorsicht beim Verbinden mit Linien. In einem Scatterplot, bei dem Punkte in dem abgetrennten Schwanzende rot gefärbt sind, sind die Unstetigkeiten (und mithin die Fehlkalibration des Geräts) offensichtlich:

    Eine grüne Kurve mit Lücken.  Die Lücken sind jeweils Hauben in rot, die 100 ppm über den Enden der Lücken schweben.

    In meinem Datensatz betrifft das 1027 von 724'424 Datenpunkten – eigentlich sollte ich die wegwerfen, aber wenn mensch einfach 100 von ihnen abzieht, kommen weitgehend glatte Kurven raus, und so wird das schon nicht völlig unvernünftig sein. Ich bin auch ganz glücklich mit meiner Erklärung des Vertippers bei der Hunderterstelle der abschnittsweise definierten Kalibrationskurve.

    Mir gefällt aber auch die offensichtliche Korrelation von Temperatur und CO₂ zwischen 30 und 50 Grad nicht[2], die sich in der „Fahne nach Nordosten“ im T-Kalibrationsplot zeigt. Mein, na ja, Modell würde da keine Korrelation[3], also einen ebenen Verlauf geradeaus „nach Osten“ erwarten lassen.

    Soweit das Modell zutrifft, ist die ganze Steigung nur eine weitere Fehlkalibration der Temperaturabhängigkeit der Photodiode. Mithin sollte mensch wahrscheinlich oberhalb von 30 Grad etwas wie (T − 30) ⁄ 20⋅50  ppm (weil: über die 20 Grad oberhalb von 30 Grad Celsius geht die Fahne um rund 50 ppm nach oben) abziehen. Gegen Ende des Posts erwähne ich, warum ich die Korrektur am Ende auf (T − 25) ⁄ 25⋅80  ppm erweitert habe.

    Zur näheren Untersuchung habe ich die Punkte aus der Fahne in einer normalen CO₂-Zeitreihe rosa eingefärbt, die Temperatur dazugeplottet und bin dabei zunächst auf ein Ereignis gestoßen, das mir sehr merkwürdig vorkam:

    Zwei Kurven.  Oben CO2, wo aus einer pinken Basis plötzlich ein grüner Gipfel rauswächst, unten die Temperatur, bei der sich nichts tut.

    Ich habe immer noch keine Ahnung, was hier passiert ist: Wenn nicht einfach nur das Instrument durchgedreht ist, dann muss von irgendwoher ein Schwung kohlendioxidreiche Luft gekommen sein, die aber an der Temperatur unter der Eisdose nichts geändert hat. Wenn der Spike von einer Wohnungslüftung käme, wäre das sehr seltsam, denn wenn die Leute die Fenster zu hatten – und nur dann hätte sich CO₂ anreichern können – wäre die Luft innen je nach Bauphysik fast sicher kühler oder wärmer gewesen als draußen. Hm. Mein bestes Angebot: Luft ist ein schlechter Wärmeleiter, und welches Lüftchen auch immer hier wehte, hat den sonnenbeschienenen Sensor einfach nicht kühlen können.

    Ach so: die Kurve ist beim Ergeignis grün, obwohl sich an der Temperatur nichts geändert hat, weil bei den hohen CO₂-Konzentrationen die ensprechenden Punkte aus der kleinen Nase über der Nordost-Fahne im T-Kalibrationsplot zu liegen kommen. Pink ist aber nur gemalt, was in der Fahne selbst ist.

    Fruchtbarer ist die Betrachtung des parallelen Verlaufs von CO₂ und Temperatur zwischen 13 und 16 Uhr. Diese Parallelität besteht tatsächlich nur für die pinken Punkte. Es gibt keine plausible Physik, die CO₂ und Temperatur (auf diesen Skalen) gleich schwingen lassen würde. Wenn ich mit meiner Augenmaß-Kalibrationsfunktion von oben korrigiere, verschwindet dieses Signal auch tatsächlich fast vollständig:

    Zwei Kurven wie eben, nur ist dieses Mal oben co2-(temp-30)/20*50 geplottet, und der parallele Verlauf der beiden Kurven ist auch wirklich fast weg.

    Beachtet die obere Achsenbeschriftung; das ist die Nachkalibration, die ich zunächst angebracht habe; mit meiner verbesserten Nachkalibration ab 25°C bleibt etwas mehr Signal übrig:

    Zwei Kurven wie eben; die rekalibrierte, die jetzt wieder irgendwas im Rhythmus der Temperatur macht.

    Dass die Flanken des „Störsignals“ jetzt steiler sind, finde ich eher beruhigend, denn ich glaube, dass das etwas mit direkter Sonneneinstrahlung zu tun hat (die die Infrarotdiode ganz bestimmt stört), und Licht und Schatten gehen natürlich viel schneller als die Erwärmung von Luft und Gerät. In der Tat würde Streulicht von der Sonne so tun, als käme etwas mehr Licht beim Sensor an, als wäre also etwas weniger CO₂ im Strahlengang. Wenn ihr scharf schaut: im Plot sieht es aus, als sei die CO₂-Schätzung niedriger, wenn die Temperatur ansteigt (also vermutlich die Sonne schien) und höher, wenn sie das nicht tat. Wäre das hier Wissenschaft, müsste ich dieser Spur genauer nachgehen. So, wie es ist, kann …

  • Kohlenstoff-Stoffwechsel des Menschen: Nur über Bande schlimm

    Foto einer Prozession mit viel Weihrauch

    Machen diese Priester, die da 2013 duch Barcolona prozedieren, mehr Treibhauseffekt durch ihren Qualm oder durch ihre Atemluft? Das zumindest rechne ich hier nicht aus.

    Mich hat neulich wer gefragt, wie viel CO2 ein durchschnittlicher Mensch so emittiert, und mit meiner Kopfzahl vom letzten Jahr, um die 35 Gigatonnen CO2-Äquivalent Gesamtemission weltweit, geteilt durch die geschätzten 8 Milliarden Menschen, die letzte Woche durch die Presse gingen, habe ich mal munter „vier Tonnen“ gesagt und anschließend die zweite Kopfzahl von damals, 2/3 Gt für die BRD mit 80 Millionen EinwohnerInnen zu „eher so acht Tonnen für dich und mich“ verarbeitet, „nicht zu vergessen ein paar Tonnen obendrauf für Fertigwaren und Futter, die wir importieren und die derzeit für oder gegen China, Brasilien oder Indonesien zählen.“

    Aber darum ging es ihm nicht. Er wollte wissen, was ein Mensch so ausatmet, was wir also einfach nur durch unseren Stoffwechsel emittieren. Dafür hatte ich spontan keine brauchbaren Kopfzahlen und habe (ahem: deshalb) erstmal eingewandt, dass das, wie unten ausgeführt, ziemlich irrelevant ist. Dennoch ist das keine per se schlechte Frage, und so habe ich meinen Post zur menschlichen Leistung hervorgekramt und daraus für mich und vergleichbare Menschen eine Wärmefreisetzung zwischen 8 und 16 MJ am Tag (also Megajoule, Millionen Joule) abgelesen. So ein Ärger: Das hatte ich eigentlich schon damals zur Kopfzahl erklärt, aber dann doch wieder vergessen.

    Vier Kilo pro Tag

    Zur CO2-Bilanz unserer Kohlenstoff-Verstoffwechselung hatte ich in meinen Überlegungen zur thermischen Leistung schon etwas geschrieben. Eine kurze Erinnerung daran: Tiere wie der Mensch betreiben sich vor allem, indem sie Phosphor von ATP abspalten, was ihnen für jedes Mol ATP 31 kJ Energie bringt. Für 30 Mol ATP atmen wir ungefähr sechs Mol CO2 aus, womit wir auf die Stoffmenge von CO2 bezogen am Ende

    31 ( kJ)/(mol ATP)(30  mol ATP)/(6  mol CO2) = 155  kJ ⁄ mol CO2

    an Wärme abgeben können. Das ist die untere Grenze der mit dem Ausatmen von einem Mol CO2 verbundenen Wärmefreisetzung; in Wahrheit werden auch die Prozesse zur Herstellung von ATP aus den verschiedenen Nahrungsbestandteilen Wärme freisetzen. Die obere Grenze ist – im zitierten Post diskutiert – die Reaktionsenthalpie von Verbrennung von Kohlenstoff, nämlich 394  kJ ⁄ mol. Die folgende Abschätzung aus der Abwärme liefert jedenfalls eine obere Grenze der Emission.

    Wenn wir die 155 kJ/mol mit der Leistung eines Durchschnittmenschen verrechnen – wir nehmen jetzt mal den Mittelwert der oben erwähnten Grenzen, also 12'000 kJ/d –, ergibt sich für die CO2-Emission eines Menschen aus dem Stoffwechsel

    (1.2⋅104 kJ ⁄ d)/(155  kJ ⁄ mol) ≈ 80  mol ⁄ d.

    Wer nun bei „Mol“ nur düstere Erinnerungen an den Chemieunterricht hat: Das ist einfach Abkürzung für „ungefähr 6⋅1023 Moleküle“, und diese krumme Zahl ist so gemacht, dass mensch im Groben nur die Nukleonenzahlen der beteiligten Atome zusammenaddieren muss, um das Mol („Stoffmenge“) in Gramm („Masse“) zu wandeln. Als Kopfzahlen taugen 12 Nukleonen für den Kohlenstoff und 16 Nukleonen für den Sauerstoff[1]. Für Kohlendioxid mit zwei Sauerstoff- und einem Kohlenstoffatom ergeben sich also 44 Gramm aufs Mol.

    Mithin atmen wir so auf einen Faktor zwei – Tour de France-FahrerInnen ausgenommen –

    80  mol ⁄ d⋅0.044  kg ⁄ mol ≈ 3.5  kg ⁄ d

    Kohlendioxid aus. Mit der Kopfzahl 1 Kubikmeter aufs Kilogramm für Luft (jaja, CO2 ist ist etwas dichter als N2, das ja die Luft dominiert, aber Faktoren von 1.5 spielen hier keine große Rolle) ist das ganz nebenher schnell in ein Volumen gewandelt: Wir atmen was zwischen zwei und acht Kubikmeter reines CO2 am Tag aus, genug, um eine Grube zu füllen, die groß genug ist, um reinzufallen. Ein Glück, dass unter normalen Umständen CO2 nicht in solchen Gruben bleibt, oder wir würden uns regelmäßig durch unsere eigene Atmung umbringen.

    Fürze und AfD-Debatten

    Völlig vernachlässigbar im Hinblick auf den Treibhauseffekt sind übrigens Fürze. Die Wikipedia beziffert die auf rund einen Liter am Tag. Angenommen, es handele sich um pures Methan (das geruchlos ist, was zeigt, dass wir hier eine nicht ganz zutreffende Annahme machen), wäre das in etwa ein Gramm davon und damit klimatisch verschwindend gegenüber dem CO2, selbst dann, wenn mensch die Treibhauswirkung von Methan mit etwas wie einem Faktor 20 gegenüber Kohlendioxid ansetzt.

    Aufs Jahr gerechnet haben wir also rund eine Tonne CO2-Äquivalent aus dem Stoffwechsel. Das schien mir verdächtig nahe an den fossilen Emissionen, die ich oben auf vier Tonnen pro Jahr geschätzt habe[2]. Dass wir im Schnitt lediglich vier Mal mehr fossile Energie verbraten sollten als wir durch unsere Nahrung zu uns nehmen, erschien mir auf Anhieb völlig unplausibel. Deswegen habe ich eine Suchmaschine mit etwas wie "CO2-Emission" "Atmung" angeworfen, und ich habe etwas über meinen Bekannten herausgefunden, das ich wirklich nicht wissen wollte.

    Per (übrigens ziemlich lahmen) Faktencheck der Tagesschau stellt sich nämlich raus, dass das Thema „Uh, Menschen in Afrika atmen und machen fast so viel CO2 wie unsere Autos” von einem, nun, intellektuell eher einfach gestrickten Menschen etabliert wurde, der für die AfD im Bundestag sitzt. Gut: solche „Diskurse“ können Menschen auch über Ecken erreichen – vielleicht ist der Bekannte ja gar nicht in AfD-Echokammern unterwegs. Ich nehme das jetzt einfach mal ganz fest an.

    Ziemlich irrelevant

    Lahm ist der Tagesschau-Faktencheck übrigens nicht nur, weil er nicht mal versucht, ein – ja wirklich nicht allzu kompliziertes – physikalisches Argument zu machen, sondern einfach nur irgendeine Autorität zitiert und dann mit völlig albernen Mantissenlängen arbeitet (von „168” bis „2040“, quasi aufs Promille genau), sondern auch, weil er viel zu wenig darauf eingeht, warum genau die Frage nach dem Stoffwechselbeitrag gleichzeitig völlig irrelevant und dramatisch ist.

    Irrelevant ist sie, weil: „Das vom Menschen ausgeatmete CO2 stammt aus dem eigenen Stoffwechsel, war also bereits im biologischen Kreislauf vorhanden“. Weder dieser noch die folgenden Sätze im Faktencheck machen hinreichend klar, was der entscheidende Unterschied ist zwischen Mensch und Betonmischer ist.

    Menschen nämlich essen nach wie vor praktisch nur Dinge, die ungefähr im Jahr vorher Pflanzen waren, oder jedenfalls im Jahrzehnt vorher. Das steht im Gegensatz zu fossilem Kohlenstoff, also Kohlenstoff, der vor vielen Millionen Jahren mal Pflanze war (oder anderweitig aus der Atmosphäre genommen wurde). Während nun Kohlenstoff, der letztes Jahr Pflanze war, plausiblerweise auch demnächst wieder Pflanze sein wird und sich kaum in den Atmosphäre anreichern wird, wird Kohlenstoff, den wir von vor (hunderten) Millionen Jahren in die Gegenwart transportieren, das eher nicht so schnell können – und in der Tat verbleiben jedenfalls große Mengen davon augenscheinlich sehr lange in der Atmosphäre.

    Eine Art, das zu sagen, wäre: „Solange wir weder Zeug aus Kohle noch aus Erdöl essen, sind wir unmittelbar nicht schlimmer als die Tiere, die wir verdrängt haben.“ Das „woher“ in der Überschrift deutet diesen Gedanken zwar an, aber es hätte schon sehr geholfen, ihn etwas klarer als über den doch recht abstrakten Verweis auf den „biologischen Kreislauf“ auszusprechen.

    Wir verstoffwechseln also direkt nur sehr wenig fossilen Kohlenstoff; ich denke, ein paar Aromastoffe und und andere Spuren in üblichen Lebensmitteln dürften direkt aus Öl und Gas erzeugt werden, aber selbst Analogkäse wird immer noch aus „Milch-, Soja- oder Bakterieneiweiß und Pflanzenfette als Grundstoffe, teils auch Stärke“ (Wikipedia) gemacht. Solange das so ist, sind wir mit dem Stoffwechsel selbst notwendig im CO2-Gleichgewicht mit unserer Landwirtschaft, die ja ständig den Kohlenstoff aus der Atmosphäre binden muss, der in der Folge wiederum in unseren Därmen landet – wie weit diese Produktions-Konsumptions-Logik noch als „biologischer Kreislauf“ durchgeht, dürft ihr selbst entscheiden.

    Trotzdem schlimm

    Allerdings: auch das Gegenargument ist in der Praxis ungültig, denn es gilt nur für die Sorte Subsistenzlandwirtschaft, die möglicherweise verbreitet bleibt in den Teilen des globalen Südens, die wir noch nicht „in den Weltmarkt integriert haben“: Sie findet ohne Beteiligung fossiler Energieträger statt, der Kohlenstoff, der da verhandelt wird, ist also tatsächlich vom letzten Jahr oder, wo die BäuerInnen mal roden, vielleicht vom letzten Jahrhundert.

    Die marktkonforme Lebensmittelproduktion hingegen hat, zwischen Trockenlegung von Feuchtgebieten, Treckern und Supermärkten, einen gewaltigen Anteil an der Emission (mehr oder, etwa im Fall von Mooren, minder) fossilen Kohlenstoffs, je nach Rechnung zwischen 10% und 30%. Und so ist schon richtig, dass das Wachstum dem Klima den Rest gibt. Das Wachstum der Bevölkerung jedoch hat darauf nur insoweit einen Einfluss, als es normalerweise Wirtschaftswachstum nach sich zieht. Es ist aber nicht die Subsistenzbäuerin, es ist die Produktion für den Weltmarkt, die fossiles CO2 freisetzt.

    Das spiegelt sich in den Abschätzungen der Pro-Kopf-Emission von Treibhausgasen in Our World In Data wider[3]. Während ein Weltmarktbürger wie dieser mangelinformierte AfD-Mensch um die acht Tonnen CO2-Äquivalent emittiert, sind Menschen in der komplett abgehängten Zentralafrikanischen Republik mit 40 Kilogramm im Jahr dabei. 200 Menschen dort haben den Fußabdruck dieses einen AfDlers. Ginge es nur um die Kohlenstoffemissionen, könnten wir „im Westen“ durch eine sehr mäßige Rate von Selbstentleibung noch jede Menge Bevölkerungswachstum im globalen Süden mehr als ausgleichen.

    Aber einerseits ist das nur Teil der Gleichung, und andererseits soll sich ja eigentlich niemand aufhängen. Es bleibt also nicht nur im …

  • Nur ihr werdet wissen, ob wir es getan haben

    Foto einer Gletscherzunge zwischen Bergen

    So sah der Ochsentaler Gletscher im August 2017 ungefähr von da aus aus. Ich wäre neugierig, wie sich das inzwischen verändert hat.

    In Forschung aktuell vom 26. August gab es ein Segment über mögliche Zukünfte der Alpengletscher. Darin wird von einer Art Grabstein für den inzwischen (praktisch) weggeschmolzenen isländischen Gletscher Okjökull[1] berichtet, dessen an die Nachwelt gerichtete Inschrift ich wunderbar pathetisch fand und so treffend, dass ich ihn hier schon mal für meine ZeitgenossInnen wiedergeben will, die es wahrscheinlich nicht nach Island schaffen werden:

    Wir wissen, was passiert und was wir tun müssen. Nur ihr werdet wissen, ob wir es getan haben.

    Utopia.de hat auch ein Bild davon; und nachdem ich mal eine Suchmaschine nach dem Text gefragt habe, bin ich überrascht, dass die Geschichte, die offenbar so gegen 2018 ihren Anfang nahm, bisher an mir vorübergegangen ist.

    [1]Ich vermute, dass der mal hier war. Die Openstreetmap hat da nur noch „bare rock“ – auch von daher ist das also durchaus plausibel. Die Openstreetmap-Tiles kamen bei mir übrigens nur sehr langsam. Ich vermute fast, dass da so selten wer hinguckt, dass die Tiles gerade frisch für mich gerechnet wurden. Und: von dem Grabstein ist in der OSM keine Spur zu sehen. Kennt wer wen in Island, der/die das fixen könnte?
  • Eine Sturmfront zieht durch

    Gestern am frühen Abend ist auch bei uns das als „Zeynep“ durch die Presse ziehende Sturmtief angekommen. Ich hatte überlegt, meine CO₂-Messapparatur auf dem Balkon –

    Zwei Eisschachteln beschwert mit einem rostigen Stahlriegel

    (unter der einen Eisschachtel ist ein Raspberry Pi, unter der anderen das zyTemp-Gerät, und die sind getrennt, weil der Raspi durch seine Abwärme die Temperaturmessung sehr stören würde – abzubauen, denn die zwei Eisschachteln, die da den Regenschutz machen, könnten bei hinreichend starkem Wind durchaus die Kraft entwickeln, den Stahlriegel[1], der sie über der Elektronik festhält, wegzuheben. Nun, ich habe die Installation stehen lassen und bin jetzt froh drum, denn so konnte ich den dramatischen Temperatursturz über die stürmische Kaltfront hinweg live beobachten:

    Graph: Ein starker Abfall von 15 auf 8 Grad

    (Die Zeit läuft in UTC, der Sturm begann hier also ziemlich genau um 18 Uhr MEZ).

    Sieben Kelvin Temperatursturz in einer guten halben Stunde finde ich schon ziemlich sportlich. Stickstoff siedet bei normalem Luftdruck bei 77 Kelvin (oder ungefähr minus 200 Grad Celsius angesichts des absoluten Nullpunkts bei -273 Grad Celsius). Wenn das so weitergegangen wäre mit dem Temperaturabfall um 15 Kelvin pro Stunde, würden sich 14 Stunden später, also ungefähr gerade jetzt, die ersten Stickstoffpfützen bilden. Whoa.

    Was mich zur Überlegung bringt, wie wohl die Atmosphäre ausfrieren würde; der Siedepunkt von Flüssigkeiten sinkt ja mit abnehmendem Druck, und weil die Erdatmosphäre Stickstoff plus ein bisschen was ist, wird der Druck sofort dramatisch fallen, wenn er kondensiert. Daher wird der Stickstoff wohl schön langsam nach und nach runterregnen, ganz wie kurz vorher schon der Sauerstoff (der bei 90 Kelvin siedet, aber weil niemand freiwillig mit flüssigem Sauerstoff hantiert, hat dieser Wert weniger Kopfzahl-Potenzial, und „ein wenig über Stickstoff“ ist alles, was ich mir merke), dessen 23% (nach Masse, nach Volumen sind es 21%) ja auch schon ordentlich zum Luftdruck beitragen.

    Das ist beim Kohlendioxid anders: Es würde ohne nennenswerte Änderungen beim Luftdruck ausfrieren und bei knapp 200 Kelvin (oder -70 Grad Celsius) mit etwas Glück hübsche Flocken bilden (es kann erst bei Drücken von über 5 bar überhaupt flüssig werden) und friedlich ausschneien. Ich bin nicht sicher, ob das schon mal wer für den Mars ausgerechnet hat: Schneit es dort CO₂ oder friert es eher wie Reif aus?

    Aber ich schweife ab. Um halb sieben hatte sich gestern abend der rasche Temperaturabfall gefangen, und das ist der zweite bemerkenswerte Punkt: an der Stelle, also nachdem die Front durch war, sank der CO₂-Gehalt der Luft ziemlich schlagartig um 20 ppm oder fünf Prozent. Das finde ich fast noch bemerkenswerter, denn es heißt, dass an der Front selbst nicht viel Materieaustausch stattfindet.

    Dass sich Wetterfronten so ähnlich zu Schockfronten verhalten, war mir bisher nicht klar, und ich habe aus dem Stand keine gute Erklärung, warum das so sein sollte. So eine Wetterfront ist ja doch recht turbulent (kann ich noch aus frischer Erinnerung sagen) und definitiv weit im Unterschallbereich, anders als die Schockfronten bei uns in der Astrophysik, wo sie meist aussehen wie die Filamente, die das HST im Cygnus Loop aufgenommen hat:

    Feine Filamente vor Himmelshintergrund

    Liebe GeophysikerInnen oder MeteorlogInnen: Ich bin dankbar für Lesetipps.

    [1]Wer sich fragt, was das mal war: Kioske hatten (oder haben?) solche Stahltrümmer zum Beschweren von Zeitschriften; wenn sie noch aktiv sind, ist da eine Kunststoffhülle mit Werbung drumrum. Also: Augen auf bei Sperrmüll nach Kioskauflösungen, die Dinger sind wirklich praktisch.
  • Kopfzahlen: Vulkane, Massen, Volumen

    Foto einer Fumarole

    Meine tatsächliche Erfahrung mit vulkanischem Schwefel geht nicht weit über die paar Gramm hinaus, die die Solfatara an dieser Fumarole abgelagert hat.

    In Forschung aktuell vom 18.1. ging es um den Ausbruch des Hunga Tonga Hunga Ha'apai (spätestens seit dem Ausbruch des Eyjafjallajökull ist klar, dass viele Vulkane großartige Namen haben). Darin hieß es, dass bei der Eruption wohl um die 400'000 Tonnen Schwefeldioxid entstanden sind, und dass das nicht viel sei, weil ein wirklich großer Vulkanausbruch – als Beispiel dient der Pinatubo-Ausbruch von 1991 – 20 Millionen Tonnen Schwefeldioxid emittiert.

    Bei dieser Gelegenheit ist mir aufgefallen, dass mir diese 20 Millionen Tonnen spontan alarmierend wenig sagten. Und drum dachte ich mir, ich sollte mal ein paar Kopfzahlen zu eher großen Massen und – weil ein Kubikmeter Wasser eine Masse von einer Tonne hat, hängt das eng zusammen – Volumen sammeln.

    Einfach war noch, die 20 Megatonnen mit meiner praktischen Kohlendioxid-Kopfzahl von neulich, 2/3 Gigatonnen CO₂ pro Jahr aus der BRD, zu vergleichen. Nun ist SO₂ eine ganz andere Nummer als CO₂ (ich erinnere mich an atemberaubende Vulkanbesuche und den weit größeren Schrecken des Chemiepraktikums), aber als Vorstellung finde ich es hilfreich, dass so ein ordentlicher Vulkanausbruch in etwa so viel Schwefeldioxid freisetzt wie die BRD in zehn Tagen (nämlich: ein dreißigstel Jahr) Kohlendioxid.

    Was SO₂-Emissionen selbst angeht, sieht das natürlich ganz anders aus; laut einer Grafik des Umweltbundesamts hat die BRD am Höhepunkt der Saure-Regen-Bekämpfung 1990 lediglich knapp 6 Megatonnen pro Jahr emittiert, also rund ein Viertel Pinatubo, und ist jetzt bei einer halben Megatonne, also in etwa einem Hunga Tonga Hunga Ha'apai (der Name begeistert mich erkennbar). In diesem Zusammenhang gar nicht erwartet hätte ich, dass laut einer IMO-Studie von 2016 der Schiffsverkehr weltweit nur 10 Mt Schwefeldioxid emittiert haben soll, also kaum doppelt so viel wie die BRD 1990, und inzwischen, im Rahmen einer in einschlägigen Kreisen offenbar besorgt beäugten Initiative namens IMO 2020, noch eine ganze Ecke weniger emittieren dürfte.

    Nur vorsorglich: Wer den DLF-Beitrag gelesen hat, mag sich erinnern, dass der Pinatubo das Weltklima um ein halbes Kelvin abgekühlt haben wird. Die sechs Megatonnen Schwefeldioxid aus der 1990er BRD haben jedoch sicher nicht ein achtel Kelvin ausgemacht, und zwar, weil sie fast ausschließlich bodennah entstanden sind. Damit Schwefeldioxid ordentlich klimawirksam wird, muss mensch es in die Stratosphäre bringen. Das ist für einen zünftigen Vulkan kein Problem. Und wäre leider auch für Menschen möglich.[1]

    Wenn sich der Schwefel des Pinatubo wie im Foto oben niederschlägt, wie viel ist das dann? Nun, erstmal ist der Masseanteil von Schwefel im SO₂ recht leicht auszurechnen, denn üblicher Schwefel hat Atommasse 32, während Sauerstoff bei 16 liegt, zwei davon also auch bei 32. Damit ist die Hälfte der Masse von Schwefeldioxid Schwefel, und der Pinatubo hat 10 Megatonnen Schwefel ausgespuckt. Bei einer Dichte von 2000  kg ⁄ m3 (hätte ich geringer eingeschätzt, muss ich sagen) macht das 5⋅106  m3 aus und würde einen Würfel von (5⋅106)1 ⁄ 3 oder runden 170 Metern Kantenlänge füllen.

    Um so ein Volumen einzuordnen, erkläre ich nachträglich den Neckar-Abfluss aus dem Flächen-Post, 150 m3 ⁄ s im Jahresmittel, zur Kopfzahl. Dann entspricht der ganze Katastrophenschwefel des Pinatubo dem Wasser, das in 30 Kilosekunden (coole Einheit: gerade in der Röntgenastronomie wird die viel verwendet) oder knapp 10 Stunden durchläuft. Und das alles Schwefel. Whoa. Vielleicht nehmen wir doch lieber den nächstgrößeren Fluss:

    Foto: Rhein bei Köln

    Der Rhein bei Köln; als ich das Foto gemacht habe, wars eher heiß und Sommer, und so mag das sogar etwas weniger als Normalwasserstand sein.

    Im Rhein bei Köln fließen bei Normalwasserstand 2000  m3 ⁄ s (hatte ich nicht im Kopf, will ich mir als ein Dutzend Neckare merken), und da bräuchte der Pinatubo-Schwefel 2500 Sekunden oder eine Dreiviertelstunde. Immer noch beängstigend. Legen wir also nochmal eins drauf und nehmen den Amazonas. Der führt an der Mündung 70-mal mehr Wasser als der Rhein (was ungefähr 1000 Neckare wären). In dem wäre der Pinatubo-Schwefel in so etwa einer halben Minute durch. Puh. Aber auch nicht sehr tröstlich, denn, wie die Wikipedia ausführt, ist der Amazonas

    der mit Abstand wasserreichste Fluss der Erde und führt an der Mündung mehr Wasser als die sechs nächstkleineren Flüsse zusammen und ca. 70-mal mehr als der Rhein.

    Etwas anfassbarer, gerade für Menschen, die dann und wann im URRmEL sind, ist ein Transportcontainer. Die kurzen davon („TEU“) wiegen leer 2300 kg, voll fast 25 Tonnen und fassen[2] 33 m3. Unsere 5 Millionen Kubikmeter Pinatubo-Schwefel entsprichen also rund 150'000 solcher Container – oder rund 1000 ziemlich langen Güterzügen. Aber das Volumen wäre hier nicht mal das Problem: Angesichts des 25-Tonnen-Limits braucht es für die 10 Megatonnen Schwefel mindestens 400'000 Container (die nicht ganz voll sein dürfen).

    Für solche Containerzahlen braucht es Schiffe. Eines wie die Ever Given, die im letzten März im Suezkanal steckenblieb und vorher schon 2019 eine (liegende) Passagierfähre in Blankenese umgenietet hatte, trägt rund 20'000 TEUs. Für den Pinatubo-Schwefel bräuchte es mithin naiv gerechnet 20 Ever Givens[3].

    Beim Schiffgucken bin ich leider in der Wikipedia versunken. Als ich wieder rausgekommen bin, hatte ich albern viel Zeit mit der Liste der größten Schiffe verbracht und mir vorgekommen, mir als Kopfzahlen für große Massen die Titanic (50'000 Tonnen; moderne Kreuzfahrtschiffe oder Flugzeugträger kommen auch nur auf rund 100'000) und richtig große Tanker (500'000 Tonnen) zu merken, von denen entsprechend einer reichen würde für das angemessen verdichtete Schwefeldioxid vom Hunga Tonga Hunga Ha'apai. Und wo ich so weit war, habe ich festgestellt, dass ich die die 3000 Tonnen der großen Rheinschiffe aus meiner Kraftwerks-Abschätzung schon wieder vergessen hatte. Das erkläre ich jetzt auch zu einer Kopfzahl, im Hinblick auf die Sammlung, die ich demnächst anlegen werde.

    Während meiner Wikipedia-Expedition hat mich ein Artikel ganz besonders fasziniert: Fruchtsafttanker. Oh! Ein ganzes Schiff voll Orangensaft! Ein Paradies!

    Es gibt, so sagt die Wikipedia, „weltweit weniger als 20 Schiffe“, die als Fruchtsafttanker betrieben werden. Aber dafür trägt eines davon gleich mal über 10'000 Kubikmeter Saft. Dass es so etwas wirklich gibt, könnte mich glatt zum Kapitalismus bekehren.

    [1]Das heißt nicht, dass Seiteneffekte der Kohleverbrennung nicht doch kühlende Effekte gehabt hätten; vgl. etwa Klimawirkung von Aerosolen. Es gibt ernsthafte Spekulationen (die rauszusuchen ich jetzt zu faul bin), dass die CO₂-bedingte Erderwärmung erst ab den 1970er Jahren so richtig auffällig wurde, weil vorher erstaunliche Mengen Kohlenruß in der Atmosphäre waren Das große Fragezeichen dabei ist, ob dessen kühlende Wirkungen (Nebel- und Wolkenbildung) seine heizenden Wirkungen (etwa, indem er Schneeflächen verdreckt und damit ihre Albedo reduziert oder vielleicht sogar ähnliches mit Wolken anstellt) wirklich überwiegen.
    [2]Das Containervolumen ist über „Zwanzig Fuß mal ungefähr zwei Meter mal ungefähr zwei Meter als 2⋅2⋅20 ⁄ 3 oder rund 25 Kubikmeter so gut abschätzbar, dass ich da keine Kopfzahl draus machen würde.
    [3]In Wahrheit braucht es deutlich mehr als 20 Ever Givens. Als Tragfähigkeit des Schiffs gibt die Wikipedia nämlich 200'000 Tonnen (dabei ist mir wurst ob metrisch oder long), was bei 20'000 Containern bedeutet, dass ein Container im Schnitt nur 10 und nicht 25 Tonnen wiegen darf. Das reime ich mir so zusammen, dass einerseits auf diesen Schiffen vor allem 40-Fuß-Container fahren werden, die aber nur 30 Tonnen wiegen dürfen, also 2/3 der Maximaldichte der 20-Fuß-Container erlauben – und damit, dass in Containern normalerweise eher Stückgut ist, und selbst wenn an dem viel Metall sein sollte – ohnehin unwahrscheinlich in unserer Plastikgesellschaft – wirds normalerweise schwierig sein, das Zeug so eng zu packen, dass es am Schluss auch nur die Dichte von Wasser hat.
  • Werkstattbericht: Kohlendioxid auf dem Balkon

    Im November hatte ich mich gefragt, was wohl die recht deutlichen Spitzen der CO₂-Konzentration auf meinem Balkon verursachen mag, die sich da immer mal wieder zeigen. Um Antworten zu finden, habe ich seit Ende Dezember eine längere Messreihe laufen lassen und derweil vierstündlich Windrichtungen von der Open Weathermap aufgenommen. Das, so hoffte ich, sollte zeigen, woher der Wind weht, wenn die Konzentration auffällige Spitzen hat.

    Leider gibt ein schlichter optischer Vergleich von Konzentration (oben) und Windrichtung (unten; hier als Cosinus, damit das Umschlagen von 0 auf 360 Grad nicht so hässlich aussieht) nicht viel her:

    Zwei unterbrochene Kurven, die jeweils recht munter vor sich hinwackeln

    CO₂-Konzentration auf meinem Balkon und Windrichtung für Heidelberg aus der Open Weathermap zwischen Ende Dezember 2021 und Anfang Februar 2022. Die Lücken ergeben sich aus fehlenden Daten zur Windrichtung.

    Tatsächlich hilft es ein wenig, wenn mensch das anders plottet. Unten bespreche ich kurz das Programm, das Wind- und CO₂-Daten zusammenbringt. Dieses Programm produziert auch folgenden Plot in Polarkoordinaten:

    Scatterplot in Polarkoordinaten: Im Wesentlichen ein oranger Ring

    CO₂-Konzentration auf meinem Balkon gegen meteorologische Windrichtung (also: Herkunft des Windes, hier gezählt ab Nord über Ost, so dass das orientiert ist wie eine Landkarte) und farbkodierte Windgeschwindigkeit (in Meter pro Sekunde). Das ist ein PNG und kein SVG, weil da doch viele Punkte drauf sind und Browser mit so großen SVGs immer noch ins Schlingern kommen.

    Ich hatte mich seit einem Monat auf diesen Plot gefreut, weil ich erwartet habe, darin eine ordentliche „Beule“ zu sehen dort, wo die CO₂-Emission herkommt. Gemessen daran ist wirkliche Ergebnis eher ernüchternd. Dort, wo ich die Abgasfahne des Großkraftwerk Mannheim sehen würde, etwas unterhalb der 270°-Linie, ist allenfalls ein kleines Signälchen und jedenfalls nichts, was ich wirklich ernst nehmen würde.

    Etwas deutlicher zeichnet sich etwas zwischen 280 und 305 Grad ab, also Westnordwest. Das könnte die Ladenburger Chemieindustrie oder die BASF in Ludwigshafen sein; zu letzterer haben die kritischen Aktionäre im letzten Jahr angesagt, sie emittiere als Konzern 20 Megatonnen Kohlendioxid im Jahr. Wenn, was nicht unplausibel ist, die Hälfte davon am Standort Ludwigshafen anfällt, würden sich diese 10 Mt ganz gut vergleichen mit den 8 Mt, die ich neulich fürs Großkraftwerk gefunden hatte – die Abschätzung von dort, so eine Abgasfahne könne durchaus die Konzentrationsspitzen erklären, kommt also auch für die BASF hin. Allerdings wird deren Emission angesichts des riesigen Werksgeländes natürlich auch verteilter sein…

    Also: Überzeugend ist das alles nicht. Ein anderes Feature ist jedoch schlagend, wegen weniger Übermalung – die bei beiden Plots ein echtes Problem ist; nächstes Mal muss ich mit halbtransparenten Punkten arbeiten – noch mehr, wenn ich den Polarplot „ausrolle“, also den Winkel von unten nach oben laufen lasse:

    Scatterplot kartesisch: ein starker dunkler Klops bei 230 Grad

    In dieser Darstellung fällt ins Auge, dass die CO₂-Konzentration bei starken (dunkle Töne) Südwest- (um die 225°) -strömungen recht drastisch fällt. Das passt sehr gut zu meinen Erwartungen: Südwestwind schafft hier in der Rheinebene Luft durch die Burgundische Pforte, hinter der im Mittelmeerraum auch jetzt im Winter eifrig Photosynthese stattfindet. Wer drauf aufpasst, sieht die Entsprechungen auch im Polarplot von oben, in dem dann sogar auffällt, dass reiner Südwind gelegentlich noch besser photosynthetisierte Luft heranführt, auch wenn der Wind nicht ganz so stark bläst.

    Demgegenüber ist mir eigentlich alles, was sich im nordöstlichen Quadranten des Polarplots (und hier zwischen 0 und 90 Grad) abspielt, eher rätselhaft. Der doppelseitige Sporn bei genau 90 Grad ist vermutlich auf Datenmüll der Wetterstation zurückzuführen: Wahrscheinlich hat die einen Bias, der bei wenig Wind diese 90 Grad ausspuckt. Selbst nach meiner Interpolation (vgl. unten) ist das noch zu ahnen, wenn mensch die Verteilung der Geschwindigkeiten insgesamt (in rot) und die der Geschwindigkeiten rund um einen auffälligen Hügel rund um 90° Windrichtung herum (in blau) ansieht:

    Zwei Histogramme über Geschwindigkeiten, bei dem das blaue nur im linken Bereich ist

    Die elegante Schleife, die von (0, 500) über (70, 540) nach (90, 510) führt und die im Polarplot ganz alleine außen vor sich hinläuft, dürfte ziemlich sicher teils physikalisch sein. Dass das da so einen Ring macht, dürfte zwar ein Artefakt meiner gewagten Interpolation sein (vgl. Technics). Der Anstieg als solcher und wohl auch die grobe Verortung dürften aber ganz gut hinkommen. Sieht mensch sich das im zeitlichen Verlauf an, entspricht die Schleife der höchsten Spitze in der ganzen Zeitreihe.

    Nur leider ist im Nordosten von meinem Balkon nicht mehr viel: Ein paar Dutzend Häuser und dann der Odenwald, also für fast 10 km nur Bäume. Na gut, und ein Ausflugsrestaurant.

    Die aus meiner Sicht plausibelste Interpretation für diese Stelle basiert auf der Beobachtung, dass in der fraglichen Zeit (am 10.1.) wenig Wind wehte, die Temperaturen aber ziemlich niedrig lagen. Vielleicht schauen wir hier wirklich auf die Heizungen der Umgebung? Der Schlot unserer lokalen Gemeinschafts-Gasheizung ist in der Tat so in etwa im Nordosten des Balkons – und vielleicht wurde ja sonst nicht so viel geheizt?


    Die wesentliche Schwierigkeit in diesem Fall war, dass ich viel engmaschiger CO₂-Konzentrationen (alle paar Minuten) habe als Windrichtungen (bestenfalls alle vier Stunden), und zudem viele Windrichtungen aus welchen Gründen auch immer (offensichtlich wäre etwa: zu wenig Wind) fehlen. Auf der positiven Seite erzeugt mein Open Weathermap-Harvester weathercheck.py eine SQLite-Datenbank, so dass ich, wenn es nicht furchtbar schnell gehen muss, recht bequem interessante Anfragen laufen lassen kann.

    Mein Grundgedanke war, die beiden einem CO₂-Wert nächsten Wind-Werte zu bekommen und dann linear zu interpolieren[1]. Das ist schon deshalb attraktiv, weil die Zeit (als Sekunden seit 1.1.1970) als Primärschlüssel der Tablle deklariert ist und deshalb ohnehin ein Index darauf liegt.

    Dabei sind aber je nach Datenverfügbarkeit ein Haufen Fälle zu unterscheiden, was zu hässlichen if-else-Ketten führt:

    def get_for_time(self, time, col_name, default=None):
      res = list(self.conn.execute(f"SELECT timestamp, {col_name} FROM climate"
        " ORDER BY ABS(timestamp-?) LIMIT 2",
        (time-40000, time+40000, time)))
      if len(res)!=2:
        if default is not None:
          return default
        raise ValueError(f"No data points close to {time}")
      elif abs(res[0][0]-time)<200 and res[0][1] is not None:
        return res[0][1]
      elif res[0][1] is None or res[1][1] is None:
        if default is not None:
          return default
        raise ValueError("One or more limits missing.  Cannot interpolate.")
        t1, v1 = res[0]
        t2, v2 = res[1]
        return (v1*(t2-time)+v2*(time-t1))/(t2-t1)

    Die Fallunterscheidung ist:

    1. Es gibt überhaupt keine Daten innerhalb von einem halben Tag. Dann kann ich nur einen Fehler werfen; zumindest in unseren Breiten sind Windrichtungen eigentlich schon über kürzere Zeiträume hinweg nur lose korreliert.
    2. Innerhalb von 200 Sekunden der gesuchten Zeit gibt es einen tatsächlichen Messwert, und dieser ist nicht NULL. Dann gebe ich den direkt zurück.
    3. Einer der beiden Werte, die um die gesuchte Zeit herum liegen, fehlt (also ist NULL). Dann kann ich nicht interpolieren und muss wieder einen Fehler werfen. Hier wäre es nicht viel unplausibler als die Interpolation, wenn ich einfach einen nicht-NULL-Wert nehmen würde; aber es wäre doch nochmal ein Stückchen spekulativer.
    4. Ansonsten mache ich einfach eine lineare Interpolation.

    NULL-Werte machen die Dinge immer komplex. Aber wenn ihr euch überlegt, wie viel Stress sowas ohne SQL wäre, ist das, finde ich, immer noch ganz elegant. Im echten Code kommt noch etwas Zusatzkomplexität dazu, weil ich Winkel interpolieren will und dabei immer die Frage ist, wie mensch die Identität von 360 und 0 Grad einrührt.

    Eine vorsorgliche Warnung: aus der Art, wie ich den Spaltennamen hier reinfummele, folgt, dass, wer den Parameter kontrolliert, beliebiges SQL ausführen kann. Sprich: wer diesen Code irgendwie Web-zugänglich macht, darf keine unvalidierte Eingabe in col_name reinlassen.

    Eingestandenermaßen ist diese Sorte von datenbankbasierter Interpolation nicht furchtbar effizient, aber für die 100000 Punkte, die ich im Augenblick plotten will, reicht es. Siehe: Den Code.

    [1]Klar: Windrichtungen über Stunden linear zu interpolieren ist in den meisten Wetterlagen eher zweifelhaft. So, wie ich meine Plots mache, ist es aber nicht wesentlich verschieden davon, die Punkte über den Bereich zu verschmieren. Das wiederum wäre konzeptionell gar nicht so arg falsch.
  • Kohlendioxid auf dem Balkon

    Nicht offensichtlich korrelierte Kurven von CO_2, Windgeschwindigkeit und Temperatur

    CO2-Konzentrationen auf meinem Straßenbalkon, zusammen mit Windgeschwindigkeiten und Temperaturen. Das ist ein SVG, es lohnt sich also durchaus, in einem separaten Browserfenster in den Plot zu zoomen.

    Ich habe neulich eine längere Zeitreihe mit CO2-Konzentrationen auf meinem „vorderen” Balkon genommen. Zur Einordnung: Das Messgerät steht so etwa 10 Meter über und 15 Meter neben einer halbwegs viel befahrenen Straße. Ob das wohl etwas mit den wilden Schwankungen zu tun hat, die in der Kurve oben vor allem um den 9.11. herum zu sehen sind? Muss ich meine Einschätzung von neulich, einzelne Autos seien selbst im mittleren Nahbereich im CO2 kaum nachzuweisen (nun: an der frischen Luft, natürlich), revidieren?

    Verheizt jemand 100000 Tonnen Kohlenstoff am Tag?

    Wer die Kurven von Windgeschwindigkeit[1] und CO2-Konzentration vergleicht, könnte schon glauben wollen, ohne externe Frischluftzufuhr (also bei niedrigen Windgeschwindigkeiten) gehe das CO2 lokal merklich nach oben. Wirklich überzeugen kann mich aber keine Korrelation zwischen den verschiedenen geplotteten Größen.

    Darum gehe ich die Frage zunächst deduktiv an: woher könnten die enormen Schwankungen der CO2-Konzentration wohl kommen? Wir reden hier von einer Spanne zwischen 260 ppm und über 400 ppm, wobei es vorkommen kann, dass ich innerhalb von wenigen Stunden 100 ppm mehr CO2 sehe. Der langfristig ansteigende Trend macht mir übrigens weniger Sorgen: Wenn die Photosyntheserate Richtung Winter dramatisch sinkt, die Emission aber z.B. wegen Heizung eher zunimmt, ist das angesichts der beschränkten globalen Durchmischung der Atmosphäre auf der Erde zu erwarten[2], auch wenn das vielleicht nicht gerade innerhalb von zwei Wochen vonstatten gehen sollte.

    Mit den Werkzeugen aus dem Artikel zu meiner Heizleistung von neulich kann mensch abschätzen, was so eine Konzentrationsschwankung in einer lokal gut durchmischten Atmosphäre in, sagen wir, verbranntem Kohlenstoff bedeuten würde.

    Dafür muss ich erst überlegen, wie viele CO2-Teilchen ΔNCO2, oder der Bequemlichkeit halber eher welche CO2-Stoffmenge ΔnCO2 = NCO2 ⁄ A („in mol”) es braucht, um die Konzentration (in ppm, also CO2-Molekülen pro Million Teilchen insgesamt) innerhalb eines angenommenen Volumens V um das Δcppm zu erhöhen, das ich aus dem Plot ablese. Gemäß meinen Rezepten von neulich ist das:

    ΔnCO2 = (V)/(Vm)⋅Δcppm⋅106, 

    wobei Vm wieder das Normvolumen ist (22.4 Liter pro mol); das A von oben war die Avogadro-Konstante. Um herauszukriegen, wie viel Kohlenstoff (sagen wir, in Kilogramm) ich verbrennen muss, um diese Änderung quasi durch „frisches“ CO2 hinzukriegen, muss ich das nur noch mit dem Atomgewicht von Kohlenstoff uC multiplizieren.

    Das Atomgewicht ist, weil Kohlenstoffkerne meist 6 Protonoen und 6 Neutronen enthalten, mit 12 g/mol gut abgeschätzt (ganz genau ist das nicht, vor allem weil in der Atmosphäre auch etwas C-13 und sogar ein wenig C-14 herumschwebt). In dieser Kopfzahl steht das Gramm aus historischen Gründen. Das Mol wurde so definiert, dass die Zahl der Nukleonen im Kern so in etwa das Atomgewicht liefert, als in der Wissenschaft das cgs-System (aus Zentimeter, Gramm und Sekunde) seine große Zeit hatte. Würde mensch das Mol in den heutigen SI-Zeiten (na gut: die meisten AstronomInnen bleiben dem cgs verhaftet und reden zum Beispiel über Energien in erg) definieren, wäre die Avogadro-Konstante um einen Faktor 1000 (nämlich den Faktor zur SI-Einheit Kilogramm) größer.

    Wie auch immer: Wenn ich mir mal vorstelle, dass das, was ich da auf meinem Balkon messe, repräsentativ für den Umkreis von 10 km und bis in eine Höhe von 2 km wäre (mensch ahnt schon: Ich eröffne hier eine Reductio ad absurdum), komme ich auf ein Volumen von

    V = 2⋅π⋅(10  km)2⋅(2  km) ≈ 1.3⋅1012  m3

    was mit Vm ≈ 0.02 m3 ⁄  mol, einer Änderung von 100 ppm, die mensch als Sprung am 9. und 10.11. sehen kann, sowie der Formel oben auf

    ΔmC  = uC(V)/(Vm)⋅Δcppm⋅106  ≈ 0.012 kg ⁄ mol(1.3⋅1012  m3)/(0.02 m3 ⁄  mol)⋅100⋅10 − 6  ≈ 8⋅107  kg

    oder achzigtausend Tonnen verbrannten Kohlenstoff führt. Das klingt nach richtig viel und ist es auch. Aber das Volumen, das ich hier betrachte, sind eben auch 1200 Kubikkilometer, und wer sich erinnert, dass ein Kubikmeter eines normalen Gase bei Normalbedingungen um die 1 kg wiegt, kann leicht ausrechnen, dass die Luft in diesem Volumen 1.2⋅1012  kg (oder 1.2 Milliarden Tonnen – Luft in großen Mengen ist überhaupt nicht leicht) wiegen wird. Dieser ganze Kohlenstoff macht also ungefähr 0.07 Promille (oder 70 Milionstel) der Masse der Atmosphäre aus, was ganz gut mit den 100 ppm in Teilchen zusammengeht, die wir in die ganze Rechnung reingesteckt haben.

    Andersrum gerechnet

    Tatsächlich kann mensch die Kohlenstoffmasse, die eine Erhöhung der Teilchenkonzentration in einem Gasvolumen bewirkt, auch so herum abschätzen. Der Umrechnungsfaktor von Teilchen- zu Massenkonzentration ist der Faktor zwischen den Dichten von CO2 und Luft. Das Verhältnis dieser Dichten ist wiederum das der jeweiligen Atommassen, solange jedes Teilchen das gleiche Volumen einnimmt; das schließlich folgt aus der Annahme, dass die Gase ideal sind, was wiederum für unsere Abschätzungen überallhin gut genug ist.

    Für CO2 ist das mit den überwiegend vorkommenden Isotopen von Sauerstoff und Kohlenstoff 16 + 16 + 12 = 44, für Luft, wenn wir nur auf den Stickstoff N2 schauen, 14 + 14 = 28. Demnach macht 1 ppm in der Teilchenzahl von CO2 44 ⁄ 28 ≈ 1.6 ppm in der Masse aus, solange die CO2-Konzentration so gering ist, dass tatsächlich N2 die Dichte dominiert.

    Andererseits macht Kohlenstoff nur 12 ⁄ 44 ≈ 0.3 an der Masse im CO2 aus, die Zunahme an Kohlenstoff ist demnach nur ein Drittel von dem gerade berechneten 1.6, also etwas wie 0.5. Folglich werden aus 100 ppm Änderung in der Teilchenzahl etwas wie 100⋅0.5 = 50  ppm Änderung in der Masse; wer das genauer rechnet, bekommt auf diese Weise natürlich das gleiche Resultat wie oben raus.

    Wie herum mensch das auch rechnet, es ist klar, dass niemand in der kurzen Zeit so viel Kohlenstoff verbrennt. Ein schneller Reality Check: Meine Kohlendioxid-Kopfzahl war, dass die BRD 2/3 Gigatonnen im Jahr emittiert, was mit dem C/CO2-Verhältnis von 0.3 von oben ungefähr 200 Megatonnen Kohlenstoff entspricht, oder irgendwas wie gut 500000 Tonnen am Tag. Damit wäre die Zunahme, die ich hier sehe, rund ein Sechstel des gesamten Kohlenstoffbudgets der BRD, und mehr, wenn der Anstieg schneller als in einem Tag vonstatten geht: Das ist (fast) natürlich Quatsch.

    Aber was ist es dann? Noch immer gefällt mir die These ganz lokaler Schwankungen nicht. Wenn hier wirklich nur das CO2 von Autos und Heizungen nicht mehr weggepustet würde, müsste die Korrelation zwischen CO2 und Wind viel deutlicher sein.

    Ist es eine die Abgasfahne des GKM?

    Nächster Versuch: Rund 12 km westlich von meiner Wohnung läuft das Großkraftwerk Mannheim („GKM“). Wenn das Volllast fährt und meine Wohnung in seine Abgasfahne kommt, könnte das so ein Signal geben?

    Nun, so ein Kraftwerk liefert ungefähr 1 Gigawatt elektrische Leistung (wie mir der Wikipedia-Artikel dazu gerade verrät: darunter 15% des deutschen Bahnstroms), was bei einem Wirkungsgrad von 1/3 (ok, bei modernen Kohlekraftwerken ist das noch ein wenig mehr, aber als Kopfzahl taugt es) auf 3 Gigawatt thermische Leistung führt (tatsächlich nennt die Wikpedia eine Bruttoleistung von 2146 MW für das GKM).

    Aus den 394 kJ/mol, die bei der Verbrennung von Kohlenstoff frei werden (vgl. den Artikel zu meiner thermischen Leistung) könnte mensch jetzt die CO2-Emission aus der Bruttoleistung ableiten, aber ich bin mal faul und sehe beim WWF nach, der für Kraftwerke dieser Größenordnung ansagt, für eine Kilowattstunde Strom (wir sind dann also wieder bei der Nutzleistung) werde rund ein Kilogramm CO2 emittiert.

    Wenn das Kraftwerk also Volldampf (rund ein GW netto) macht, wird es etwa

    109  W⋅0.001 kg ⁄ Wh = 106 kg ⁄ h

    CO2 emittieren, also etwa 1000 Tonnen, was wiederum mit unserem 0.3-Faktor zwischen Kohlenstoff und CO2 zu einem Kohleverbrauch von 300 Tonnen pro Stunde führt.

    Damit leert das Kraftwerk unter Vollast ein Großes Rheinschiff in zehn Stunden – das scheint mir zwar schon sehr schnell zu gehen, ist aber auch nicht gänzlich unplausibel. Gegenrechnung: Das WWF-Dokument von oben nennt 7.7⋅109  kg ⁄ a als CO2-Emission des GKM im Jahr 2006. Mit der Ur-Kopfzahl π ⋅ 1e7 Sekunden pro Jahr übersetzt sich das in eine mittlere Emission von etwa 200 kg pro Sekunde oder gut 1000 Tonnen pro Stunde. Das passt fast zu gut, denn als jemand, der das Kraftwerk von seiner Leseecke aus sehen kann, kann ich zuverlässig sagen, dass das Ding keineswegs durchläuft. Andererseits hatte das Kraftwerk 2006 auch noch einen Block weniger, und überhaupt ist in der Rechnung genug Luft für Stillstandszeiten.

    Nehmen wir …

  • Kohlendioxid und die thermische Leistung von Menschen

    Mit meinem zyTemp-Kohlendioxid-Messgerät – das, für das ich neulich Software gebastelt habe – bin ich natürlich gleich in die Welt gezogen, um mal zu sehen, wo es überall CO2 (und mithin plausiblerweise Corona-Aerosol) geben wird.

    Der Wind und die Seuche

    Nachdem mich ja zunächst sehr überrascht hat, wie deutlich sich die Anwesenheit von Menschen in rasch steigendem CO2-Gehalt der Luft in Innenräumen niederschlägt, war meine zweite große Überraschung, dass sich umgekehrt im Freien nichts tut. Also, richtig gar nichts. Selbst Autos, die mindestens eine Größenordnungen mehr CO2 emittieren als Menschen (vgl. unten), fallen schon aus ein paar Metern Entfernung im Wesentlichen nicht mehr auf. Ich musste mich schon an Kreuzungen neben die Ampeln stellen, um überhaupt ein schwaches Signal zu bekommen. Und das war kaum mehr als ein leichtes Oszillieren um ein paar ppm, während die wartenden Autos vor sich hinstanken und dann losbrausten. So sehr es nach Abgasen stank – CO2 ist im Nahbereich von Autos kein Problem.

    Die gute Nachricht ist also: Wenn CO2 ein guter Indikator ist, wie schlimm es mit Aerosol sein kann – real verschwindet Aerosol im Regelfall aus hinreichend ruhiger Luft durch Niederschlag, was CO2 nicht tut – ist praktisch sicher, dass an der frischen Luft bei nicht völlig irren Wetterlagen SARS-2 allenfalls durch Tröpfchen übertragen wird.

    Umgekehrt war meine Sorge ja immer der öffentliche Verkehr, und so habe ich mit Hingabe in verschiedenen Zügen gemessen. Als Referenz: Frischluft liegt derzeit hier irgendwo zwischen 280 und 350 ppm CO2. In einem halb vollen ICE habe ich zwischen 800 und 1400 ppm gemessen (interessanterweise nicht so ganz korreliert mit den Bahnhofsstopps; die Bahn kennend, vermute ich eine Nicht-so-ganz-wie-gedacht-Funktion der Lüftung in dem Wagen, in dem ich saß). Ein vollbesetzter IC-Zug der SBB war zwischen 800 und 1050 dabei, ein leerer Nahverkehrszug bei etwa 400, ein halb voller eher bei 700.

    Bei solchen Dynamiken ist wohl klar, dass hinreichend viel frisches Aerosol in der Luft sein wird, jedenfalls, solange nicht alle Passagiere mit richtig sitzenden FFP2-Masken dahocken, und sowas habe ich noch nicht mal dort gesehen, wo es wie in Berlin und Bayern gesetzlich gefordert ist oder war. Es muss also im letzten Winter weit mehr Ansteckungen in Zügen gegeben haben als das RKI in seinen Ausbruchshistogrammen (z.B. S. 12 am 9.3.2021) mit den kleinen roten Säulen andeutet. Aber ok, sie haben ja immer dazugesagt, „Clustersituationen in anonymen Menschengruppen (z.B. ÖPNV, Kino, Theater)“ seien fast sicher unterrepräsentiert.

    Atmende Blumen

    Aber ich hatte auch anderweitig viel Spaß mit dem Gerät. So war ich neulich verreist, und in der Wohnung verlief die CO2-Konzentration so:

    Graph mit Periodizitäten

    CO2-Konzentrationen in meinem Wohnzimmer während der Abwesenheit aller BewohnerInnen. Zeiten sind in UTC.

    Wohlgemerkt: Da war niemand. Es könnte sein, dass sich hier einfach Schwankungen in der Außenluft reflektieren; aber ich glaube zunächst mal, dass wir hier einer Birkenfeige beim Stoffwechsel zusehen; 6 Uhr UTC, wenn die Kurve sich nach unten wendet, entspricht 8 Uhr Lokalzeit und damit wohl der Zeit, in der es in dem Zimmer hell genug für Photosynthese werden dürfte; der große Peak rund um 18 Uhr am 28.9. wäre schön konsistent damit, dass die Pflanze sich zur Ruhe setzt und dazu kurz mal ihre Mitochondrien anwirft; der folgende Abfall wäre dann wieder ein Mischungseffekt, denn der Sensor lag (mehr zufällig) praktisch in den Zweigen des Ficus. Warum er, das angenommen, den Peak am 29.9. doch deutlich früher gemacht hat? Nun, vielleicht war ja Mistwetter? Oder vielleicht ist das auch alles ganz anders: das bräuchte definitiv mehr Forschung.

    Rauchmelder diagnostizieren Blasenschwäche

    Graph mit einigen Spitzen

    CO2-Konzentrationen in meiner Diele. Zeiten sind in UTC.

    Wenig überraschend zeigt sich, dass die CO2-Konzentrationen dramatisch personenbezogene Daten sind. Der zweite Graph illustriert das an einem relativ harmlosen Beispiel: Der Sensor steht jetzt in der Diele, vor meiner Zimmertür. Deutlich zu sehen ist, dass ich an dem Tag gegen 23 Uhr geschlafen habe, oder jedenfalls, dass meine Schlafzimmertür dann zu war. Und dann bin ich kurz vor zwei mal wach gewesen, weil ich am Abend etwas viel Tee getrunken hatte. am Morgen aufgestanden bin ich um sieben, kurz vor acht habe ich mal gelüftet, und um halb neun bin ich gegangen.

    Wer da etwas länger auf diese Weise zuschaut, findet viel über die BewohnerInnen von Wohungen heraus – angefangen davon, wann wie viele Menschen wo in der Wohnung sind –, und das im Zweifelsfall auch automatisiert unter vielen Menschen. Ich habe dabei lediglich zwei Messwerte pro Minute genommen. Das ginge, so würde ich schätzen, für eine ganze Weile mit den zumindest hier im Haus recht verbreiteten per Funk auslesbaren Rauchmeldern ganz gut, ohne dass ihre Batterien gleich alle wären – für die Betreiber und, weil die Krypto von den Teilen schon aus Stromspargründen sehr wahrscheinlich lausig ist, vermutlich auch ungefähr für jedeN, der/die sich hinreichend intensiv für das Leben der Anderen interessiert.

    Nachdenken nur für 50W?

    Schließlich bin ich jeden Tag wieder aufs Neue fasziniert, wie schnell ich in meinem Büro schlechte Luft verbreite.

    Graph mit zwei recht gleichmäßigen Anstiegen

    CO2-Konzentrationen in meinem Büro; ich komme von der Mittagspause zurück, arbeite, und lüfte ein Mal. Zeiten sind in UTC.

    An dieser Kurve ist viel zu sehen, unter anderem, dass sich offenbar die Luft in dem Raum doch recht schnell mischt; das würde jedenfalls schön erklären, warum es beim Lüften kurz nach 12 Uhr UTC so eine Delle nach unten gibt: Das ist die Frischluft von außen, die ziemlich direkt an den Sensor weht, sich dann aber innerhalb von fünf Minuten mit meinen im Raum gebliebenen Abgasen mischt.

    Diese schnelle Homogenisierung ist wesentlich für eine Überlegung, die sich für mich da aufdrängt: Wie viel CO2 mache ich eigentlich? Das geht so:

    In den 96 Minuten von 10:30 bis 12:06 habe ich die Konzentration von 808 auf 1245 ppm erhöht, was einer Rate von

    ((1245 − 808)  ppm)/((96⋅60)  s) = 0.077  ppm ⁄ s

    entspricht[1] (ich habe das nicht aus dem PNG, sondern noch im Plotprogramm selbst abgelesen). Ein zweiter Datenpunkt ist nach Lüften und Mischen: Da ging es von 12:17 bis 14:08 von 837 auf 1288 ppm, was auf eine Rate von 0.068 ppm/s führt.

    Aus den beiden Werten würde ich grob schätzen, dass ich die CO2-Konzentration in meinem Büro so etwa mit 0.07 ppm/s erhöhe, wenn ich normal arbeite; ich nenne diese Rate hier kurz δ. Unter der sicher falschen, aber vielleicht noch hinnehmbaren Annahme, dass kein CO2 entweicht und der nach den Beobachtungen plausiblen Annahme voller Durchmischung im Raum kann ich nun abschätzen, was mein Stoffwechsel so tut.

    Was es dazu braucht, ist das Wissen, dass bei einem idealen Gas (was die Luft nicht ist, aber für die Abschätzung reicht es) bei „Normalbedingungen“ (die bei mir im Zimmer glücklicherweise auch nicht ganz perfekt realisiert sind) ein Mol 22.4 Liter Volumen einnimmt[2]. Unter Kopfzahl-Aspekten kann ich nicht genau sagen, warum ich mir da drei Stellen gemerkt habe. In Wirklichkeit sind 20 l/mol natürlich genau genug als Kopfzahl. Ich nenne das unten Vm.

    Das ist eine Aussage über die Zahl der Gasmoleküle in einem Volumen V, denn ein Mol sind ungefähr 6e23 (so schreibe ich wieder kurz für 6⋅1023) Teilchen („Avogadro-Konstante“; außerhalb von Kopfzahlen ist die inzwischen exakt festgelegt und definiert das Mol). Mein Büro ist so in etwa fünf Meter lang, 2.5 Meter breit und drei Meter hoch, hat also V = 40 Kubikmeter Rauminhalt. Das heißt, dass sich darin

    (40  m3)/(0.0224  m3 ⁄  mol) ≈ 1800  mol

    befinden. Das sind gegen 1e27 oder 1000000000000000000000000000[3] Moleküle. Diese Zahl hat einen Namen: das ist eine Quadrillarde. Aber klar: der Name ist selbstverständlich Quatsch. Ich musste ihn selbst nachsehen. Der wissenschaftliche Fachbegriff für solche Zahlen ist Gazillion. Für alle davon. Weshalb wir eben immer zehn hoch siebenundzwanzig sagen, was viel nützlicher ist.

    Und dann brauche ich noch die Energie (oder hier genauer die Enthalpie, normalerweise geschrieben als ΔH) die bei der Bildung eines Moleküls CO2 auch C und O₂ frei wird; konventionell geben die Leute das nicht für ein Molekül, sondern für ein ganzes Mol (ihr erinnert euch: ganz platt 6e23 Moleküle statt nur eins) an, und die Wikipedia verrät, dass das 394 kJ/mol sind.

    Jetzt baue ich das zusammen, nämlich die Erzeugungsrate von CO2 in physikalischen Einheiten (statt in ppm/s), δV ⁄ Vm, auf der einen Seite, und mein ΔH auf der anderen Seite. Es ergibt sich für meine Leistung:

    P = ΔHδV ⁄ Vm

    Wenn mensch da die Einheiten glattzieht und bedenkt, dass ppm/s eigentlich 1e-6/s ist, muss mensch was rechnen wie:

    P = 394⋅103  J ⁄ mol⋅0.07⋅10 − 6 ⁄  s⋅40  m3 ⁄ (0.0224  m3 ⁄  mol)

    (ich schreibe das so ausführlich, weil ich mich beim schnellen Hinschreiben prompt verrechnet habe), was rund 50 J/s (also 50 W) ergibt.

    Ich habe von irgendwoher im Kopf, dass ein …

  • Kopfzahlen 2: Wir fressen der Welt die Haare vom Kopf

    Im Hintergrund Politik vom 9.9.2021 habe ich die schockierendste Zahl dieses Jahres gehört. Das Thema wird dort so eröffnet:

    1,6 Milliarden Hektar Ackerflächen gibt es auf der Erde. Nach den Zahlen des Umweltbundesamtes wächst nur etwa auf einem Fünftel davon Nahrung für die menschliche Ernährung. Auf den übrigen vier Fünfteln wird dagegen Tierfutter und Biosprit produziert.

    Auch wenn mir klar war, dass bei der „Wandlung“ von Soja und Getreide in Steaks oder Eier zwischen 70% und 95% des Nährwerts verlorengehen[1] – „Wandlung“ ist hier eingestandenermaßen ein wenig euphemistisch –, hatte ich diese danach relativ naheliegende Konsequenz nicht auf dem Schirm: 80% der Äcker auf diesem Planeten gehen im Groben in „unsere“ (also die der reichen Länder) Völlerei. Derweil:

    Und trotzdem gehen immer noch mehr als 800 Millionen Menschen hungrig zu Bett. Und viele davon sind selbst Kleinbauern – und Kleinbäuerinnen. Sie erwirtschaften auf einem Bruchteil der weltweiten Ackerfläche bis zu 70 Prozent der menschlichen Nahrung, gesicherte Zahlen gibt es hier nicht […]

    Also: unsere tolle, marktgestählte, industrielle Landwirtschaft trägt plausiblerweise nur zu 30% zur Welternährung bei, obwohl sie den Großteil der intensiv zur Nahrungsmittelproduktion nutzbaren Landfläche in Anspruch nimmt (und um die 10% der CO2-Emissionen verursacht). Das war, was mich wirklich schockiert hat.

    Wenn „unsere“ Firmen im globalen Süden für die Produktion unseres Tierfutters und, schlimmer noch, unseres „Biosprits“ Land requirieren und den dortigen Kleinbauern wegnehmen („Landgrabbing“), ist das schlicht ein Hungerprogramm. Wieder mal frage ich mich, wie die Leute in, sagen wir, hundert Jahren auf uns zurückblicken werden.

    Kopfzahlen für große Flächen

    Unterdessen sind die 1.6 Milliarden Hektar von oben ein guter Anlass, meine Kopfzahlen für „große“ Flächen loszuwerden. Erstmal: Ein Hektar ist ein Quadrat, dessen Diagonale ein Mensch in etwa zwei Minuten durchläuft. Nämlich: Ein nicht allzu hektischer Mensch läuft so gegen 4 km/h oder etwas mehr als einen Meter pro Sekunde. Die Diagonale eines Quadrats mit 100 Meter Kantenlänge (eben ein Hektar) sind 100 Meter mal √2 oder rund 150 Meter[2]. Bei einem guten Meter pro Sekunde dauert es also rund 120 Sekunden von Ecke zu Ecke durch die Mitte.

    Ansonsten ist die bessere Einheit für große Flächen der Quadratkilometer, also 100 ha. Mithin: 1.6e9 ha (1.6 ⋅ 109 ist in meinem Eingabeformat ReStructuredText echt lästig zu schreiben, weshalb ich mir hier die in eigentlich allen nichtantiken Programmiersprachen übliche Schreibweise genehmige) sind 1.6e7 oder 16 Millionen km².

    Wie viel ist das? Etwas albernerweise weiß ich immer noch die Fläche der alten Sowjetunion, des in meiner Kindheit größten Staats der Erde: das waren 22 Millionen km². Es gibt also global etwas weniger Acker als das, was mal alles zur Sowjetunion gehörte. Ich denke, der zeitgemäße Ersatz sind einerseits Afrika[3] mit 30 Millionen km² und andererseits die USA und China mit jeweils rund 10 Millionen km². Ich finde, auf diese Weise kriegt mensch schon mal ein Gefühl, wie die global genutzte Ackerfläche auf einer Weltkarte aussähe – und wie viele Wüsten, Tundren, Hochgebirge, Wildnisse oder Parkplätze es so geben wird.

    A propos Welt: Die Erde hat bei einem Radius von etwa 6000 km eine Fläche von 4 π (6000 km)² oder 450 Millionen km² oder auch 15 Mal Afrika, wobei mensch nicht vergessen sollte, dass im Fall der Erde 70% der Fläche von Meeren eingenommen wird und also Afrika deutlich über 20% der Landfläche ausmacht.

    Zwecks Gefühl und Abschätzung merke ich mir noch, dass die BRD eine Fläche von rund 350'000 km² hat (oder, für Leute, die sich das so leichter merken können: eine Drittelmillion). Kombiniert mit der Kopfzahl für Afrika heißt das: die BRD passt 100 Mal in Afrika rein. Von der Fläche her. Vom Ressourcenverbrauch her… eher so zwei Mal[4].

    Die Fläche von Baden-Württemberg ist 35'000 km². Das ist bequem zu merken, weil es einen Faktor zehn kleiner ist als die BRD, und ist als Größenordnung für ernstzunehmende Bundesländer auch sonst ganz brauchbar (die Spanne reicht von 71'000 km² für Bayern bis 16'000 km² für Schleswig-Holstein, also alles grob innerhalb von einem Faktor zwei, was für viele Abschätzungen überallhin reicht).

    So eine Zahl im Kopf ist beispielsweise praktisch, wenn mensch am Neckar steht und abschätzen will, wie viel Wasser da wohl fließt: Sein Einzugsgebiet wird so etwa die Hälfte des Landes sein (fürs einfache Rechnen: 20'000 km²), und es wird da zwischen 500 und 1000 mm pro Jahr regnen (800 mm Niederschläge pro Jahr sind keine unvernünftige Schätzung für normale Gebiete in der BRD). Wegen einfacher Rechnung nehmen wir hier mal 1000 mm, und dann müssten über dem Einzugsgebiet jedes Jahr 20e3 km² ⋅ 1e6 m²/km² ⋅ 1 m an Wasser runterkommen, also irgendwas wie 20e9 m³. Einiges davon wird, gerade im Sommer, verdunsten oder auch von Planzen in Sauerstoff verwandelt, bevor es in Heidelberg vorbeikommt; das Problem verschiebe ich aufs Ende des übernächsten Absatzes.

    20 Milliarden Kubikmeter pro Jahr sind etwas unhandlich, wenn mensch gerade auf den Fluss guckt. Wie sieht es pro Sekunde aus? Nun, ein Jahr hat etwas wie 3e7 Sekunden (vgl. die klassische Kopfzahl in Kopfzahlen 1), also wird der mittlere Abfluss vom Neckar was wie 20/3 ⋅ 10², also rund 670 m³/s sein. Tatsächlich gibt die Wikipedia 145 m³/s für den Pegel Mannheim an.

    Gut: wir liegen einen Faktor vier zu hoch, aber das ist für so eine Abschätzung schon ok, zumal der tatsächliche Abfluss übers Jahr hinweg um weit mehr als so einen Faktor schwanken wird. Wers genauer haben will: das wirkliche Einzugsgebiet sind nur 13'934 km², und dann ist da der Evapotranspirationswert (vgl. Erläuterung in der Wikipedia), dessen Einfluss nicht ganz einfach anzubringen ist, schon, weil einiges des verdunsteten Wassers ja noch im Einzugsgebiet wieder abregnet oder -taut. Egal: Ein Faktor vier ist oft gut genug.

    Letzte Kopfzahlen in dieser Rubrik: Größere europäische Städte wie Berlin oder Hamburg haben so gegen 1000 km² (in Wirklichkeit: 892 bzw. 755), kleinere Städte wie Heidelberg eher so 100 km² (in Wirklichkeit: 109).

    [Alle Flächenangaben hier aus den jeweils erwartbaren Wikipedia-Artikeln]

    [1]Das sind FAO-Schätzungen, die z.B. die gesetzliche Unfallversicherung grafisch schön aufgemacht hat. Die FAO-Quellen habe ich auf die Schnelle nicht im Netz gefunden.
    [2]Eine nicht direkt flächige Kopfzahl obendrauf: √2 ist ungefähr 1.44, und der Kehrwert ungefähr 0.7. Ein wenig flächig ist das aber auch: Die Fläche eines A4-Blatts ist (theoretisch genau) (√2)-(2⋅4) m², für A3 ist sie (√2)-(2⋅3) m² usf. Messt und rechnet selbst oder lest einfach im Wikipedia-Artikel zu Papierformaten nach, warum das so ist.
    [3]Asien (55 Millionen km²) eignet sich nicht so gut als Referenz, weil zu viele Leute Europa als separaten Kontinent abrechnen und zumindest ich mir nie sicher wäre, ob meine Fläche mit oder ohne Europa zählt (die 55 Millionen zählen den ganzen Kontinent, also mit den Gebieten westlich von Ural und kaspischem Meer).
    [4]CO2-Emission der BRD aus Kopfzahlen 1: 2/3 Gigatonnen; für Afrika insgesamt gibt das dort zitierte Our World in Data-CSV 1.4 Gigatonnen.
  • Reading a zyTemp Carbon Dioxide Monitor using Tkinter on Linux

    Last weekend I had my first major in-person conference since the SARS-2 pandemic began: about 150 people congregated from all over Germany to quarrel and, more importantly, to settle quarrels. But it's still Corona, and thus the organisers put in place a whole bunch of disease control measures. A relatively minor of these was monitoring the CO2 levels in the conference hall as a proxy for how much aerosol may have accumulated. The monitor devices they got were powered by USB, and since I was sitting on the stage with a computer having USB ports anyway, I was asked to run (and keep an eye on) the CO2 monitor for that area.

    A photo of the CO2 meter

    The CO2 sensor I got my hands on. While it registers as a Holtek USB-zyTemp, on the back it says “TFA Dostmann Kat.Nr. 31.5006.02“. I suppose the German word for what's going on here is “Wertschöpfungskette“ (I'm not making this up. The word, I mean. Why there are so many companies involved I really can only guess).

    When plugging in the thing, my syslog[1] intriguingly said:

    usb 1-1: new low-speed USB device number 64 using xhci_hcd
    usb 1-1: New USB device found, idVendor=04d9, idProduct=a052, bcdDevice= 2.00
    usb 1-1: New USB device strings: Mfr=1, Product=2, SerialNumber=3
    usb 1-1: Product: USB-zyTemp
    usb 1-1: Manufacturer: Holtek
    usb 1-1: SerialNumber: 2.00
    hid-generic 0003:04D9:A052.006B: hiddev96: USB HID v1.10 Device [Holtek USB-zyTemp] on usb-0000:00:14.0-1/input0
    hid-generic 0003:04D9:A052.006C: hiddev96: USB HID v1.10 Device [Holtek USB-zyTemp] on usb-0000:00:14.0-1/input0

    So: The USB is not only there for power. The thing can actually talk to the computer. Using the protocol for human interface devices (HID, i.e., keyboards, mice, remote controls and such) perhaps is a bit funky for a measurement device, but, on closer reflection, fairly reasonable: just as the mouse reports changes in its position, the monitor reports changes in CO2 levels and temperatures of the air inside of it.

    Asking Duckduckgo for the USB id "04d9:a052" (be sure to make it a phrase search with the quotes our you'll be bombarded by pages on bitcoin scams) yields a blog post on decrypting the wire protocol and, even better, a github repo with a few modules of Python to read out values and do all kinds of things with them.

    However, I felt like the amount of code in that repo was a bit excessive for something that's in the league of what I call a classical 200 lines problem – meaning: a single Python script that works without any sort of installation should really do –, since all I wanted (for now) was a gadget that shows the current values plus a bit of history.

    Hence, I explanted and streamlined the core readout code and added some 100 lines of Tkinter to produce co2display.py3, showing an interface like this:

    A co2display screenshot

    This is how opening a window (the sharp drop of the curve on the left), then opening a second one (the even sharper drop following) and closing it again while staying in the room (the gentle slope on the right) looks like in co2display.py. In case it's not obvious: The current CO2 concentration was 420 ppm, and the temperature 23.8 degrees Centigrade (where I'm sure the thing doesn't measure to tenths of Kelvins; but then who cares about thenths of Kelvins?) when I took that screenshot.

    If you have devices like the zyTemp yourself, you can just download the program, install the python3-hid package (or its equivalent on non-Debian boxes) and run it; well, except that you need to make sure you can read the HID device nodes as non-root. The easiest way to do that is to (as root) create a file /etc/udev/rules.d/80-co2meter.rules containing:

    ATTR{idVendor}=="04d9", ATTR{idProduct}=="a052", SUBSYSTEM=="usb", MODE:="0666"

    This udev rule simply says that whenever a device with the respective ids is plugged in, any device node created will be world-readable and world-writable (and yeah, it does over-produce a bit[2]).

    After adding the rule, unplug and replug the device and then type python3 co2display.py3. Ah, yes, the startup (i.e., the display until actual data is available) probably could do with a bit of extra polish.

    First Observations

    I'm rather intrigued by the dynamics of CO2 levels measured in that way (where I've not attempted to estimates errors yet). In reasonably undisturbed nature at the end of the summer and during the day, I've seen 250 to 280 ppm, which would be consistent with mean global pre-industrial levels (which Wikipedia claims is about 280 ppm). I'm curious how this will evolve towards winter and next spring, as I'd guess Germany's temporal mean will hardly be below the global one of a bit more than 400 (again according to Wikipedia).

    In a basically empty train I've seen 350 ppm yesterday, a slightly stuffy train about 30% full was at 1015 ppm, about as much as I have in my office after something like an hour of work (anecdotically, I think half an hour of telecon makes for a comparable increase, but I can hardly believe that idle chat causes more CO2 production than heavy-duty thinking. Hm).

    On a balcony 10 m above a reasonably busy road (of order one car every 10 seconds) in a lightly built-up area I saw 330 ppm under mildly breezy conditions, dropping further to 300 as the wind picked up. Surprisingly, this didn't change as I went down to the street level. I can hardly wait for those winter days when the exhaust gases are strong in one's nose: I cannot imagine that won't be reflected in the CO2.

    The funkiest measurements I made on the way home from the meeting that got the device into my hands in the first place, where I bit the bullet and joined friends who had travelled their in a car (yikes!). While speeding down the Autobahn, depending on where I measured in the small car (a Mazda if I remember correctly) carrying four people, I found anything from 250 ppm near the ventilation flaps to 700 ppm around my head to 1000 ppm between the two rear passengers. And these values were rather stable as long as the windows were closed. Wow. Air flows in cars must be pretty tightly engineered.


    If you look at the program code, you'll see that I'm basically polling the device:

    def _update(self):
        self.after(self.sample_interval, self._update)

    – that's how I usually do timed things in tkinter programs, where, as normal in GUI programming, there's an event loop external to your code and you cannot just say something like time.wait() or so.

    Polling is rarely pretty, but it's particularly inappropriate in this case, as the device (or so I think at this point) really sends data as it sees fit, and it clearly would be a lot better to just sit there and wait for its input. Additionally, _take_sample, written as it is, can take quite a bit of time, and during that time the UI is unresponsive, which in this case means that resizes and redraws don't take place.

    That latter problem could easily be fixed by pushing the I/O into a thread. But then this kind of thing is what select was invented for, or, these days, wrappers for it (or rather its friends) usually subsumed under “async programming“.

    However, marrying async and the Tkinter event loop is still painful, as evinced by this 2016 bug against tkinter. It's still open. Going properly async on the CO2monitor class in the program will still be the next thing to do, presumably using threads.

    Ah, that, and recovering from plugging the device out and in again, which would also improve behaviour as people suspend the machine.

    Apart from that, there's just one detail I should perhaps highlight in the code: The

    self.bind("<Configure>", lambda ev: self._update_plot())

    in the constructor. That makes the history plot re-scale if the UI is re-sized, and I've always found it a bit under-documented that <Configure> is the event to listen for in this situation. But perhaps that's just me.

    Nachtrag (2021-10-19)

    I've updated co2display.py3 as published here, since I've been hacking on it quite a bit in the meantime. In particular, if you rename the script co2log.py (or anything else with “log” in it), this will run as a plain logger (logging into /var/log/co2-levels by default), and there's a systemd unit at the end of the script that lets you run this automatically; send a HUP to the process to make it re-open its log; this may be useful together with logrotate if you let this run for weeks your months.

    You can also enable logging while letting the Tk UI run by passing a -d option …

  • Kopfzahlen: Kohlendioxid

    Es gibt eine Handvoll Zahlen, die ich versuche, so ungefähr im Kopf zu haben. Ich nenne die gerne Kopfzahlen, auch wenn das Wort laut Duden was ganz anderes bedeutet.

    Die klassische Kopfzahl ist natürlich die Zahl der Sekunden in einem Jahr, mit guter Genauigkeit π ⋅ 1e7 (ich schreibe hier aus Bequemlichkeit und Computergewohnheit 107 als 1e7). Überlegungen des Typs „ich habe eine Milliarde Datensätze und schaffe 3000 pro Sekunde, also brauche ich für das ganze Ding ungefähr 300000 Sekunden oder halt 3e5/3e7, also ein hundertstel Jahr oder vier Tage“ finde ich sehr hilfreich. Würde ich Mathematik an einer Schule unterrichten, würde ich Depressionen kriegen, wenn meine Schülis sowas nicht hinkriegen würden, nachdem ich ein Jahr auf sie eingeredet habe. Gut, dass ich kein Schullehrer bin.

    Heute nun hat mich die Deutsche Umwelthilfe (DUH) angeschrieben, weil sie Spenden haben will für Klagen gegen BMW, Daimler und Wintershall[1]. Die Brücke zu den Kopfzahlen: sie sagen darin, Wintershall sei allein für rund 80 Megatonnen CO2 im Jahr verantwortlich.

    Um solche Angaben ein wenig einordnen zu können, hatte ich mir vor zehn Jahren zwei Kopfzahlen zurechtgelegt: Die BRD emittierte rund eine Gigatonne, die Welt rund dreißig Gigatonnen CO2. Demnach macht Wintershall rund 8% des CO2-Ausstoßes der BRD aus; das ist nicht unplausibel, aber ich dachte mir, das ist ein guter Anlass, meinen schon etwas länger gehegten Plan umzusetzen, solche Kopfzahlen im Blog zu notieren und zu aktualisieren. Wie steht es nun also, zehn Jahre nach 1 und 30 Gigatonnen?

    Für halbwegs überschaubare Infos zu den BRD-Emissionen hatte ich ganz naiv auf die Publikationen zum Emissionshandel des UBA gehofft, aber zumindest der Juli-Bericht ist in der Hinsicht nicht sehr ergiebig: Was genau heißt es, dass in der Kalenderwoche 27 Emissionsrechte über 280 Millionen Tonnen gehandelt wurden (außer, dass ein Haufen Leute nicht sehr nützliche Arbeit hatten)?

    Aber das Umweltbundesamt hat glücklicherweise eine andere Seite mit nicht marktkontaminierten Informationen. Demnach wären 2020 in der BRD 644 Millionen Tonnen CO2 emittiert worden. Auf drei Stellen genau ist das natürlich lächerlicher Unfug; ich wäre überrascht, wenn das auf 10% irgendeiner sinnvollen Definition von Emission entspräche. Aber dennoch: 2/3 Gigatonnen klingen nach einer brauchbaren Kopfzahl für die aktuelle Kohlendioxid-Emission direkt aus der BRD. Natürlich wären dazu die importierten Emissionen (z.B. aus brasilianischem Sojaanbau für „unser“ Fleisch oder chinesischer Zement- und Stahlproduktion für „unsere“ Häuser und Elektronik) zu rechnen, aber das wird dann kompliziert und letztlich spekulativ.

    Neu merken sollte ich mir den Quellen-Split, den sie dort aufmachen, wieder bereinigt um allzu mutige Claims bezüglich Genauigkeit: Energie 1/3, Haushalte 1/5, Straßenverkehr ein gutes Fünftel, Industrie (wozu dann auch z.B. Hausbau gehört) 1/4.

    Für die globale Emission gibt der einschlägige Artikel der Wikipedia 57 Gigatonnen CO2-Äquivalent an, wo dann allerdings jede Menge tiefes Voodoo reingerechnet ist („including 5 Gt due to land use change“).

    Um dem tiefen Voodoo zu entkommen (und nur das Einsteiger-Voodoo der Emissionsschätzung zu behalten), kann mensch zum aus meiner Sicht relativ vertrauenswürdigen Our World in Data gehen, das eine Kohlendioxid-Seite anbietet, die wiederum auf github-Daten verweist, wo schließlich CO2 und Treibhausgas-Äquivalente separat ausgewiesen sind. Deutschland hat dabei für 2019 700 Mt; das passt im Rahmen meiner Erwartungen gut zu unseren 2/3 Gt für 2020 von oben. Für die Welt (freundlicherweise gibt es die in dem Datensatz schon vorkumuliert unter „World“) und 2019 stehen da mit absurden acht Stellen 36441.388 Mt. Schon zwei Stellen Genauigkeit sind da sicher überoptimistisch, und so wäre meine Kopfzahl für die Weltemission jetzt „um die 35 Gt“.

    Mein Spickzettel für diese Runde Kopfzahlen ist also:

    • Emission in der BRD: 2/3 Gt, davon anteilig 1/3 Energie, 1/4 Industrie, je rund 1/5 Verkehr und Haushalte.
    • Emission in der Welt: 35 Gt, womit die BRD direkt ungefähr 1/50 der Welt-Emission ausmacht.
    [1]Dass mich die DUH immer noch in ihrem CRM-System hat, obwohl ich ihnen eigentlich nur vor Jahren mal gespendet habe – die erfolgreichen Fahrverbots-Klagen haben mich schon sehr begeistert – finde ich jetzt nicht so großartig, aber wer sich so effektiv dem Autowahnsinn entgegenstellt, darf in menem Buch auch mal nicht ganz so korrekt mit Daten umgehen.

Seite 1 / 1

Letzte Ergänzungen