Yoshi K » Wissenschaft http://yoshi-k.de Exakter als Nostradamus Fri, 18 Apr 2014 23:56:40 +0000 en-US hourly 1 http://wordpress.org/?v=3.8.3 Was ist mit den Brennstäben in Fukushima? http://yoshi-k.de/2011/03/12/was-ist-mit-den-brennstaben-in-fukushima/ http://yoshi-k.de/2011/03/12/was-ist-mit-den-brennstaben-in-fukushima/#comments Sat, 12 Mar 2011 16:09:19 +0000 http://yoshi-k.de/?p=651 Nach der Havarie in dem japanischen Kernkraftwerk Fukushima wurde bereits gestern Kühlwasser abgelassen um den Druck im Reaktor zu verringern. Diese Maßnahme wurde sogar von Greenpeace begrüßt, weil im Falle eines Störfalles die erste Sorge dem Einschluss des Kernbrennstoffes gilt.

Die Radioaktivität die freigesetzt wird hängt sehr stark von den Freigesetzten Stoffen und besonders von der Halbwertszeit ab. Ein zerfallender Kern sendet Energie in Form von Ionisierender Strahlung aus. Dabei wandelt er sich um und ist danach im einfachsten Fall stabil. Deshalb gibt es bei radioaktiver Verseuchung zwei wichtige Parameter, die Halbwertszeit und die Aktivität. Diese beiden Parameter hängen umgekehrt proportional zusammen. Wenn zum Beispiel 100 sehr instabile Kerne mit einer Halbwertszeit von einer Minute freigesetzt werden, dann erwartet man 50 Zerfälle in der ersten Minute. Danach gibt es noch 50 Kerne die Zerfallen können. In der zweiten Minute Zerfallen deshalb nur noch 25 Kerne und in der dritten noch zwölf oder 13. Die Aktivität nimmt deshalb mit der Halbwertszeit ab. Das ist wichtig um die Auswirkungen einer Verseuchung zu verstehen. Wenn nur aktiviertes Wasser austritt, mit einer Halbwertszeit im Bereich von Minuten, dann fällt die Aktivität sehr schnell ab und nach wenigen Stunden ist sie wieder auf dem natürlichen Niveaus. Auf der anderen Seite haben Kernbrennstoffe, wie Uran, Halbwertzeiten von mehreren hunderttausend Jahren. Das bedeutet, dass die Umgebung des Kernkraftwerks für sehr lange Zeit verseucht wäre.

In einem Kernkraftwerk ist der Brennstoff in den Brennstäben eingeschlossen. Die Brennstäbe werden von Wasser als Kühlmittel im Druckbehälter umspült. Es gibt dann noch eine Betonhülle als weitere Barriere um im Falle eines Störfalles den Brennstoff einzuschließen. Aber die wichtigste Barriere ist die Ummantelung der Brennstäbe, solange diese Intakt ist kann kein Uran in die Umgebung gelangen. Das Ablassen von radioaktivem Wasser hat dann keine lange andauernden Auswirkungen. Wenn aber die Brennstäbe beschädigt sind, oder es sogar zu einer Kernschmelze kommt, dann würden langlebige Kerne freigesetzt werden.

]]>
http://yoshi-k.de/2011/03/12/was-ist-mit-den-brennstaben-in-fukushima/feed/ 0
Was passiert in Fukushima? http://yoshi-k.de/2011/03/12/was-passiert-in-fukushima/ http://yoshi-k.de/2011/03/12/was-passiert-in-fukushima/#comments Sat, 12 Mar 2011 05:10:49 +0000 http://yoshi-k.de/?p=634 Heute morgen gab es in Japan ein schweres Erdbeben der Stärke 8,9 auf der Richterskala, dabei wurde unter anderem auch einige Kernkraftwerke beschädigt. Insbesondere ist das Atomkraftwerk Fukushima ohne Strom. Eine Situation die eigentlich nicht passieren sollte. Aber was passiert eigentlich in einem solchen Siedewasser Reaktor und was kann passieren im Falle eines Unfalls?

Im Normalbetrieb produziert ein Kernkraftwerk1 durch Kernreaktionen Wärme. Das bedeutet ein KKW heizt Wasser auf, das über den Umweg Turbine und Generator Strom erzeugt. Die Wärme wird durch Kernreaktionen erzeugt, dabei zerfällt zuerst ein Uran-Kern und setzt dabei ein schnelles Neutron frei. Das Neutron kollidiert elastisch mit einem Moderator und wird dabei abgebremst. Dieses jetzt langsame Neutron wird dann in einem anderen Uran Kern eingefangen und der Kern zerfällt. Die dabei frei werdenden Neutronen können dann wieder einen Uran Kern spalten. Diese Kettenreaktion kann man sehr schön mit Mausefallen und Tischtennisbällen veranschaulichen.

Auf diesem Level der Erklärung gibt es keinen Unterschied zwischen einer Atombombe und einer Kernkraftwerk. Der Unterschied liegt darin, dass bei einem Kernkraftwerk versucht wird den Neutronenfluss, wie viele Tischtennisbälle in der Luft sind, konstant zu halten. Bei einer Bombe versucht man den Neutronenfluss immer mehr zu steigern. Wenn jede Reaktion im Durchschnitt eine weitere Reaktion erzeugt, dann bleibt die Reaktionsrate konstant, wenn sie mehr erzeugt beschleunigt sich die Reaktionsrate. Deshalb gibt es unterschiedliche Anreicherungen, die in dem Beispiel mit den Mausefallen unterschiedlichen Mixturen von gespannten und nicht gespannten Fallen entsprächen.

Im folgenden gibt es zwei wichtige Unterschiede zwischen dem Mausefallen Modell einer Kettenreaktion und einem Kraftwerk, einerseits die Rolle des Moderators und andererseits gibt es mehr als nur zwei Atomkerne. Der Moderator wird gebraucht, um die Neutronen abzubremsen. Das ist eine Folge der Wellennatur der Neutronen, wenn die Welle besonders gut passt, dann ist eine Reaktion besonders wahrscheinlich. Wenn es keinen Moderator gibt, dann wird viel weniger Energie frei. Bei Leichtwasserreaktoren wie Fukushima
wird als Moderator und Kühlmittel einfaches Wasser verwendet. Die Idee ist, dass der Reaktor ausgeht wenn das Kühlwasser verdampft.
Der Effekt der vielen verschiedenen Atomkerne ist, dass auch nicht unmittelbar an der Reaktion beteiligte Kerne aktiviert werden können. Diese Kerne verlieren dann zum Beispiel ein Neutron oder fangen eins ein, werden dadurch Radioaktiv und weil nur besonders stabile Kerne in der Natur vorkommen – die anderen sind bereits Zerfallen – erhöht sich dadurch die Radioaktivität. Das bedeutet, nach dem Abschalten eines Reaktors ist der Kernbrennstoff radioaktiver als vor dem ersten Einschalten. Und er muss deshalb gekühlt werden, sonst heizt er sich auf und es kann zu einer Kernschmelze kommen.

How much time is there before a meltdown [after cooling has stopped, anm. von mir]?
It depends on the plant. It depends on whether it’s a boiling-water reactor or a pressurized-water reactor. Basically, [in both] you have the benefit of natural forces such as convection. There is a coolant loop no matter what, so you end up to some degree cooling the core because the heated water rises and colder water gets pulled in. But that’s not as effective as a pump bringing in cool water. Just to speak very broadly, you have many hours to restore power to the system to get normal cooling going. It’s really not possible to get more specific than “many hours.”

Interview mit Scott Burnell in Scientific American

In Fukushima kamen nun zwei Dinge zusammen, einerseits eine Notabschaltung des Reaktors und andererseits ein Erdbeben. Wahrscheinlich durch das Erdbeben sind die Diesel Notstromaggregate und teile der Kühlung ausgefallen. Aber ein Reaktor kann nach dem Abschalten nur wenige Stunden sich selbst überlassen werden, sonst droht eine Kernschmelze. Darüber hinaus ist es möglich, dass das Erdbeben die Brennstäbe beschädigt hat. Dann wäre auch das Kühlwasser2 mit Brennstoff kontaminiert und nicht „nur“ aktiviert. Und bei einem Manöver wie dem Ablassen von Wasserdampf würde deutlich mehr Radioaktivität frei, als bei unbeschädigten Brennstäben. Und Kernbrennstoff hat eine deutlich längere Halbwertszeit als aktiviertes Wasser – die Umgebung wäre auf Jahre hinaus verstrahlt.

  1. Der Ausdruck Atomkraftwerk ist ein wenig irreführend, weil die Reaktionen die Genutzt werden im Atomkern ablaufen – nicht wie chemische Reaktionen in der Atomhülle
  2. Moderne Reaktoren haben mehr als einen Kühlkreislauf. In den Kühltürmen zirkuliert nicht das gleiche Wasser wie in dem Reaktor
]]>
http://yoshi-k.de/2011/03/12/was-passiert-in-fukushima/feed/ 0
Nobelpreise für Physik und Chemie http://yoshi-k.de/2008/10/09/nobelpreise-fur-physik-und-chemie/ http://yoshi-k.de/2008/10/09/nobelpreise-fur-physik-und-chemie/#comments Thu, 09 Oct 2008 01:24:47 +0000 http://yoshi-k.de/?p=160 Diese Woche werden die Nobelpreise bekanntgegeben. Und als ordentlicher Blogger, mit mehr Meinung als Ahnung, muss ich natürlich meinen Senf dazugeben.

Der Nobelpreis für Physik wurde an Yoichiro Nambu, Makoto Kobayashi und Toshihide Maskawa vergeben. Und ich finde es irgendwie komisch, dass die Nobelpreise jeweils an die Hälfte mir gut bekannter Bezeichnungen vergeben wurden. Auf der einen Seite gibt es die Nambu-Goto Wirkung und auf der anderen Seite die Cabibbo-Kobayashi-Maskawa-Matrix. Allerdings sieht man hier mal wieder, dass Leistungen in der theoretischen Physik nur äußerst selten von dem einsamen Genie im Keller erbracht werden. Und das Nobelpreisträger üblicherweise mehr als nur ein bedeutendes Paper geschrieben haben.

Im Gegensatz dazu erwähne ich die Chemie Nobelpreise für Osamu Shimomura, Martin Chalfie und Roger Y. Tsien hauptsächlich, weil die Zeit eine sehr hübsche Fotostrecke dazu veröffentlicht hat. Und eine Methode die solche Bilder produziert und anscheinend auch in der Biochemie nützlich ist, hat sicher einen Preis verdient.

]]>
http://yoshi-k.de/2008/10/09/nobelpreise-fur-physik-und-chemie/feed/ 0
Die Plausibilität der Solarenergie http://yoshi-k.de/2008/09/14/die-plausibilitat-der-solarenergie/ http://yoshi-k.de/2008/09/14/die-plausibilitat-der-solarenergie/#comments Sun, 14 Sep 2008 00:59:00 +0000 http://yoshi-k.de/?p=124 In den letzten Monaten ist die Debatte über die zukünftige Energieversorgung wieder aufgeflammt. Diese Debatte wird sowohl hitzig als auch häufig mit großer Unkenntnis der Größenordnungen geführt. Der englischer Physiker David MacKay hat daher einen Entwurf für sein Buch “Whithout the hot air” veröffentlicht. Dieses Buch wird bei TP zusammengefasst. In seiner Einleitung verdeutlicht er das Problem mit dem schönen Satz:

To understand our sustainable energy crisis, we need to know how the one ‘huge’ compares with the other.

D. MacKay, Sustainable Energy – Without the hot air.

Ich habe das Buch bisher leider noch nicht zuende gelesen,1 möchte aber meine eigene “back of the envelope” Rechnung über erneuerbare Energie vorstellen. Meine Rechnung geht von 10 Milliarden Menschen aus, die mit Elektrizität versorgt werden sollen. Und weil es schade wäre, falls jeder einzelne in Zukunft weniger Energie zur Verfügung hätte, gehe ich von 10 kW pro Kopf aus. Zum Vergleich, in Deutschland liegt der Primärenergieverbrauch heute bei 5.5 kW. Ich gehe also davon aus, das die Weltbevölkerung steigt und gleichzeitig alle Menschen wesentlich mehr Energie zur Verfügung haben. Daher sollten global mindestens 1011kW Elektrizität erzeugt werden. Das sind 100TW oder das 6 fache des heutigen Primärenergiebedarfs.2 Diesen Bedarf möchte ich nur mit Solarenergie decken.
An der oberen Atmosphäre werden von der Sonne ungefähr 1.3 kW/m2 eingestrahlt. Leider gibt es aber eine Atmosphäre die das meiste davon absorbiert. In dieser Atmosphäre sind zusätzlich auch noch Wolken und die Sonne steht manchmal ungünstiger Weise hinter der Erde (sogenannte Nacht). Deshalb muss man realistischer Weise mit einer niedrigeren Zahl rechnen, MacKay rechnet in seinem Buch mit 100 W /m2. Diese Zahl wurde allerdings für England berechnet wurde. In Wüsten, in denen ich die Solarzellen aufstellen möchte, sind diese Zahlen eher zu niedrig. Wenn ich dann heutige Solarzellen, mit einem Wirkungsgrad von 20% ausgehe, brauche ich also eine Fläche von 5,000,000 km2.3 Das ist sicherlich eine riesige Fläche, aber wir leben auch auf einem ziemlich großen Planeten. Wie verhält sich nun dieses riesig zu dem ziemlich groß? Dafür einige Vergleichsgrößen, die Sahara ist 9 Millionen km2 groß, Deutschland 300 000 km2. Also wird es nicht möglich sein, diese Solarzellen in Deutschland aufzustellen (zumal die klimatischen Bedingungen in der Sahara besser sind). In der Sahara wäre es aber möglich. Und auch in Saudi Arabien oder Texas sind die Voraussetzungen für Solarenergie ebenfalls besser als in Deutschland. Deshalb denke ich, dass die Menschheit gut von erneuerbaren Energiequellen leben kann. Zumal ich mich ausschließlich auf eine Energiequelle beschränkt habe – allerdings auf die größte.
Eine Lektion die mir aber wichtig erscheint: Unabhängig davon ob man nur ein Land oder die gesamte Welt betrachtet, der Umstieg auf erneuerbare Energiequellen bedeutet nicht, dass die Menschheit danach “im Einklang mit der Natur lebt.” Sondern es bedeutet die Industrialisierung weiter Landstriche – und Wüsten sind ein besonders anfälliges Ökosystem. Außerdem kann natürlich eingewendet werden, dass der Strom dann noch nicht dort ist, wo er gebraucht wird, aber auch für dieses Probleme gibt es Ideen.

  1. Das was ich bisher gelesen habe war aber sehr lesenswert, auch wenn ich McKays Meinung zu der Atomkraft nicht teile.
  2. Diese Zahl enthält bereits die Energieformen, die heute üblicherweise nicht mit Strom gedeckt werden, wie Heizung und Verkehr.
  3. McKay kommt auf 1 Million km2, das ist im wesentlchen der Faktor 6 den ich mehr produzieren möchte.
]]>
http://yoshi-k.de/2008/09/14/die-plausibilitat-der-solarenergie/feed/ 4
Global Warming (2): Plausibilitätsbetrachtung http://yoshi-k.de/2008/02/24/global-warming-2-plausibilitatsbetrachtung/ http://yoshi-k.de/2008/02/24/global-warming-2-plausibilitatsbetrachtung/#comments Sun, 24 Feb 2008 02:37:42 +0000 http://yoshi-k.de/?p=58 Wie ich schon in der Einleitung geschrieben habe, geht es in dieser Serie weniger darum den Stand der Wissenschaft zu referieren, als vielmehr darum mein Wissen zu ordnen. Deshalb werde ich hier nur das einfachste Modell diskutieren. Dies hat den Vorteil, das die Physikalischen Grundlagen diskutiert werden können, ohne die Strahlungstransportgleichung zu lösen. Es hat aber den Nachteil, das es kein realistisches Modell ist. Die Hoffnung oder das Argument ist, dass sich ähnliche physikalische Systeme auch ähnlich verhalten. Zur Illustration: Die Behauptung dass 300t Aluminium vom Himmel fallen wie ein Stein, muss ich niemandem erklären. Wenn ich aber behaupte, dass sie es nicht tun, werde ich die Strömungsmechanik eines Jumbo Jets erklären müssen.

Das einfachste Modell für einen Körper in einem Strahlungsfeld ist ein schwarzer Körper. Ein schwarzer Körper ist einer der alle einfallende Strahlung absorbiert und diese Energie nach dem Planckschen Gesetz wieder abstrahlt. Die Strahlung eines Schwarzen Körpers hängt nur von seiner Temperatur ab, metaphorisch ausgedrückt vergisst der Schwarze Körper den Ursprung der abgestrahlten Energie.

Spektrum eines schwarzen Körpers

Spektrum eines schwarzen Körpers, via Wikipedia

Falls auf einen schwarzen Körper nun Strahlung mit einer Leistung P fällt, erhöht sich seine Temperatur, falls er weniger Leistung abstrahlt und sie fällt wenn er mehr Leistung abstrahlt. Das geschieht so lange bis er genauso viel Leistung erhält wie abstrahlt. Der Körper ist dann im thermischen Gleichgewicht mit dem Strahlungsfeld.

Um nun eine Änderung der Atmosphärenchemie zu diskutieren, braucht dieser schwarze Körper eine Atmosphäre (Überraschung). Um eine Atmosphäre zu modellieren bieten sich zwei sehr einfache, aber wenig realistische, Möglichkeiten an, entweder eine graue Atmosphäre, das ist eine bei der jede Wellenlänge gleich absorbiert wird, oder eine Atmosphäre mit einer einzelnen Spektrallinie.

Eine einzelne Spektrallinie bedeutet Photonen einer bestimmten Wellenlänge (Farbe) werden absorbiert, alle anderen passieren die Atmosphäre ungehindert.
Ein absorbiertes Photon regt ein Atom in der Atmosphäre an. Und dieses emittiert nach einer gewissen Zeit wieder ein Photon, aber eines einer längeren Wellenlänge. Es emittiert ein Photon einer längeren Wellenlänge, da bei der ursprünglichen Absorbtion und bei der Reemission sowohl Energie als auch Impuls erhalten werden und sich deshalb die Bewegung des Atoms ändert. Durch die geänderte Bewegung erwärmt sich die Atmosphäre bei dem Prozess. Andererseits kann das Photon mit der längeren Wellenlänge nun entkommen, es sei denn es wird direkt auf die Kugel zurückgestrahlt. Dann wird es von dem Körper absorbiert und erwärmt diesen. Im vergleich zu einem Körper ohne eine Atmosphäre erwärmt sich also ein Körper mit solch einer Atmosphäre stärker, weil die zurückgestreuten Photonen aus der Atmosphäre wieder absorbiert werden.

Wenn nicht alle Photonen absorbiert werden, dann ist die stärke dieser Rückstrahlung proportional zu der Absorbtionswahrscheinlichkeit. Durch die Rückstrahlung erhöht sich auch die Temperatur des Schwarzen Körpers. Das passiert solange bis die Kugel wieder im Gleichgewicht mit dem Strahlungsfeld der Sonne plus der stärkeren Rückstrahlung ist. Den umgekehrten Effekt gibt es auch, wenn die Spektrallinie im einfallenden Spektrum ist. Dieser sogenannte Anti-Treibhauseffekt spielt in der Atmosphäre des Titan eine Rolle.

Im Gegensatz dazu, senkt eine graue Atmosphäre die Temperatur. Denn bei einer grauen Atmosphäre wird jede Strahlung gleich stark absorbiert. Deshalb wird auch die einfallende Strahlung teilweise absorbiert. Und weniger Energie erreicht den Körper. Dieser ist dann kühler als ohne Atmosphäre. In diesem Modell wird der Körper nun wärmer falls die Atmosphäre durchsichtiger wird. Aber zusätzliche greenhouse Gases verdunkeln eher die Atmosphäre.

Bei den beiden oberen Atmosphärenmodellen, vernachlässige ich natürlich die Erwärmung der Atmosphäre selbst. Berücksichtige ich diese, bleibt das qualitative Verhalten aber gleich, einmal erwärmt sich die Kugel zusätzlich, einmal nicht.

Um zu entscheiden, welches Modell besser ist, und was an dem anderen Modell unrealistisch ist, betrachte ich die tatsächlichen Spektren.
Absorbtionsbänder der Athmosphäre

Die absorbtionsrate in der Atmosphäre.1 Eingezeichnet ist der sichtbare Teil des Spektrums, mit dem Strahlungsmaximum der Sonne ungefähr im grünen Licht und das Strahlungsmaximum der Erde ungefähr bei 10µm.

Die wesentliche Beobachtung ist, das die Atmosphäre im Strahlungsmaximum der Sonne durchsichtig ist (sehr praktisch sonst sähe es tagsüber sehr neblig aus). Die Energie der Sonneneinstrahlung gelangt daher überwiegend auf den Erdboden. Auf der anderen Seite gelangt die Strahlung der Erde aber nicht direkt in den Weltraum, da die Atmosphäre bei der langwelligeren infrarotstrahlung nicht sehr Transparent ist. Und genau hier unterscheiden sich auch die beiden Modelle, die graue Atmosphäre absorbiert die einfallende Strahlung zu einem großen Teil und dies ist der Effekt, der für die Abkühling sorgt.

Das Modell kann also verbessert werden. Dazu kann man annehmen, das die graue Atmosphäre nur Strahlung unterhalb eines bestimmten Schwellenwertes absorbiert. Ein schwarzer Körper vergisst aber woher die Strahlung kam und zählt nur wieviel Energie er absorbiert. Dann kann ich aber auch einfach diesem eine gewisse Temperatur zuweisen. Und dann heizt auch eine graue Atmosphäre. Denn die Strahlung die in ihr absorbiert wird, heizt die Atmosphäre, die ihrerseits strahlt und dadurch Rückstrahlung erzeugt wie in dem Beispiel mit einer einzelnen spektrallinie.

Nun zeigen beide Modelle also das gleiche Verhalten. Die reale Situation ist aber natürlich wesentlich komplizierter, zum einen ist die Atmosphäre je nach Wellenlänge manchmal durchsichtig, manchmal nicht und manchmal Teilweise. Ausserdem ist die Erde kein schwarzer Körper, sondern besteht selbst Teilweise aus Ozeanen mit einer internen Dynamik, einer Biosphäre und die Sonneneinstrahlung wechselt zwischen Tag und Nacht. Um diese Effekte zu modelieren bräuchte man bereits für die Erde einen wesentlich komplizierteren Aufbau. Dazu kommt das die Atmosphäre die Energie nicht nur durch Strahlungstransport, sondern auch durch konvenktion transportiert. Aber die generelle Richtung ist klar, wenn die Atmosphäre eines Körpers die Strahlung teilweise auf den Körper zurückstrahlt, wird dieser wärmer.

Andere Posts der Serie:

Global Warming (0) Einleitung

Global Warming (I) Die Beobachtungen

 

  1. via Globalwarmingart
]]>
http://yoshi-k.de/2008/02/24/global-warming-2-plausibilitatsbetrachtung/feed/ 1
Neues Fossilzeitalter http://yoshi-k.de/2008/02/03/neues-fossilzeitalter/ http://yoshi-k.de/2008/02/03/neues-fossilzeitalter/#comments Sun, 03 Feb 2008 22:07:40 +0000 http://yoshi-k.de/?p=55 Zeit.de hat in der letzten Woche den Artikel “Neues Fossilzeitalter” veröffentlicht und nachdem MindSharing heute nochmal auf den Artikel hingewiesen hat, habe ich mich dazu entschlossen ein wenig dazu zu schreiben. Der Grundton des Artikels ist pessimistisch:

Es bestehe nicht die “geringste Aussicht”, die Welt von fossilen Brennstoffen abzubringen. Zumindest darin muss man Gray zuzustimmen.

Die Frage ist nur, warum sollte man Gray zustimmen, wenn man es schon “muss”. Es gibt schließlich einige durchaus hoffnungsvolle Anzeichen, dass die Menschheit ihre Probleme lösen kann.

Einerseits gab und gibt es Beispiele internationaler Zusammenarbeit, auch in Umweltfragen. Das bekannteste Beispiel ist wohl die Regulierung von FCKW. Und auch bei der Globalen Erwärmung scheint die Zeit des Mikadospielens vorbei zu sein. So ist diesen Monat eine e-Mail des Shell CEOs Jeroen van der Veer bekannt geworden, in der er im wesentlichen über zwei Szenarien, deskriptiv als Scramble und Blueprint bezeichnet, über die Energiezukunft berichtet1 . Bemerkenswert ist dabei der Absatz

Shell traditionally uses its scenarios to prepare for the future without expressing a preference for one over another. But, faced with the need to manage climate risk for our investors and our grandchildren, we believe the Blueprints outcomes provide the best balance between economy, energy and environment.

In diesem Blueprint Szenario wird eine aktive internationale Energiepolitik angenommen, wie sie von einigen Ländern zumindest angekündigt ist. Die Schweiz versucht bis 2050 einen durchschnittlichen Energieverbrauch von 2 kW pro Einwohner zu erreichen und Schweden will bis 2030 auf fossile Rohstoffe zur Energieerzeugung verzichten.

Damit bleibt die Frage, wie sich die USA und China als die größten Verbraucher verhalten werden. Aber auch diese beiden Staaten bewegen sich in die richtige Richtung. China fördert Energieeffizienz schon aus ökonomischen Gründen und der nächste US Präsident kann eigentlich nur eine bessere Umweltpolitik machen als der aktuelle. Deshalb sehe ich die Zukünftige Energieversorgung keineswegs so pessimistisch wie der Eingangs erwähnte Artikel.

  1. Shell hat inzwischen eine Übersetzung der Mail veröffentlicht
]]>
http://yoshi-k.de/2008/02/03/neues-fossilzeitalter/feed/ 1
Handystrahlung oder Studien für Journalisten http://yoshi-k.de/2008/01/21/handystrahlung-oder-studien-fur-journalisten/ http://yoshi-k.de/2008/01/21/handystrahlung-oder-studien-fur-journalisten/#comments Mon, 21 Jan 2008 17:19:33 +0000 http://yoshi-k.de/?p=51 Heute gab es einen Bericht auf TP über “Handystrahlung,” der im Vergleich zu dem zitierten Independent Artikel recht gut ist. In dem Artikel werden zwei Studien zitiert, erstens ein Bericht des “Committee on Identification of Research Needs Relating to Potential Biological or Adverse Health Effects of Wireless Communications Devices, National Research Council” und eine Studie von Arnetz et al.
In dem TP Artikel fehlen eigentlich nur ein paar Nebensätze. Zum Beispiel klingt die Phrase “Notwendigkeit weiterer Forschung” immer alarmistisch. Aber ein Komitee, dass “research needs” identifizieren soll, wird genau das tun. Und über das Zitat

“[...]But in the long term — 10, 20 and 30 years out — we have a lot less information about potential effects from these types of wireless devices.”

Frank Barnes

sollte man sich nicht wundern, denn die GSM Technologie (D-Netz) ist erst seit ungefähr 15 Jahren verfügbar.

Bei der anderen Studie sollte darauf hingewiesen werden , was die Studie zeigen soll:

The exposure set up exposed the left head hemisphere to a GSM signal (884 MHz) at an average of 1.4 W/kg including periods of DTX and Non-DTX (Fig. 1). The exposure was designed to be consistent with worst case exposure occurring in real-life situations, but with extended duration.

Arnetz et al.

Arnetz et al. haben Probanden über drei Stunden mit einer Leistung, die fast dem dreifachen des SAR Wertes meines Handys (eines N91) entspricht, bestrahlt. Und dann einen Effekt gesehen.

Dieses Posting soll keineswegs die Notwendigkeit weiterer Studien in Frage stellen. Sondern dafür werben, die meist verlinkten, Originalarbeiten zu lesen und dabei auch Nachzudenken. Denn die wichtigen Informationen zu Studien, wie signifikant ist sie und was sollte gezeigt werden, stehen nur äußerst selten in den Artikeln.

]]>
http://yoshi-k.de/2008/01/21/handystrahlung-oder-studien-fur-journalisten/feed/ 0
DNI: Cyberpunk schon heute http://yoshi-k.de/2008/01/20/dni-cyberpunk-schon-heute/ http://yoshi-k.de/2008/01/20/dni-cyberpunk-schon-heute/#comments Sun, 20 Jan 2008 20:12:53 +0000 http://yoshi-k.de/?p=50 Heute bin ich auf onsingularity.com aufmerksam geworden, eine Social News Seite für Singularity- interessierte.

Dabei ist unter anderem ein Video über “Bionic-Limps”

via

Die Prothesen in dem Video werden nicht direkt von den Gehirn gesteuert, sondern von den Nerven, die normalerweise die Arme steuern würde. Einen sehr lesenswerten Artikel über die Forschung gibt es hier.

Außerdem hat Heise letzte Woche gemeldet ein Affe könne einen Roboter mit seinen Gedanken bewegen.


Ein Bericht über ein vorheriges Experiment von der Forschungsgruppe die auch in dem Heise Artikel erwähnt wird.

]]>
http://yoshi-k.de/2008/01/20/dni-cyberpunk-schon-heute/feed/ 0
Global Warming (I) Die Beobachtungen http://yoshi-k.de/2008/01/12/global-warming-i-die-beobachtungen/ http://yoshi-k.de/2008/01/12/global-warming-i-die-beobachtungen/#comments Sat, 12 Jan 2008 17:09:44 +0000 http://yoshi-k.de/?p=43 Der Klimawandel kann direkt beobachtet werden, indem man die heutige Durchschnittstemperatur mit der Durchschnittstemperatur der vergangenen Jahre vergleicht. Diese Messungen der Temperatur kann man grob in zwei verschiedene Kategorien einteilen, direkte und indirekte Messungen. Zu direkten Messungen muss ich wohl nicht viel schreiben, man nimmt einfach ein Thermometer und liest es ab. Das ist natürlich wesentlich komplizierter wenn eine Zeitreihe der letzten hundert Jahre wissenschaftlichen Ansprüchen genügen soll. Man muss sich dann für jeden Messwert die Frage stellen, wie wurde dieses Thermometer kalibriert und wurde vielleicht während der letzten Kriege nicht immer gemessen (oder die Daten vielleicht gezielt verändert?).

Indirekte Messungen dagegen, müssen bearbeitet werden damit sie eine Temperatur anzeigen. Abstrakt gesprochen stellt sich hier nicht nur die Frage, verstehe ich mein Messgerät (und zeigt es tatsächlich an was ich glaube das es Anzeigt?) sondern auch, verstehe ich warum ein Messwert daraus abgeleitet werden kann. Diese Daten haben also intrinsisch eine zusätzliche Fehlerquelle. Auf der anderen Seite haben indirekte Messungen den Vorteil, dass sie auch dort eine Rekonstruktion des Vergangenen Klimas ermöglichen, wo niemand direkt gemessen hat. Oder bevor jemand direkt gemessen hat.

Direkte Messung sind etwa für die letzten 150 Jahren verfügbar. Sie werden allerdings immer schlechter, je länger die Zeitreihe zurückreicht. Das hängt damit zusammen, dass es damals noch keine guten Thermometer gab. Und damit, dass es keine einheitlichen Messungen gab. Für die Zeitreihe der Jahresdurchschnittstemperatur in Deutschland werden einige dieser Probleme hier diskutiert. Diese Zeitreihe sieht geplottet so aus:

Jahresdurchschnittstemperatur in Deutschland

via Wikipedia

Die blaue Kurve ist hier der Jahresdurchschnitt. Wie man sieht, weichen die einzelnen Jahre sehr stark voneinander ab. Die stärksten Zacken sind dabei eher in den frühen Jahren (vor 1900), das kann damit zusammenhängen, das dort die Daten nicht gut sind. Es kann aber auch ein tatsächlicher Effekt sein.
Deshalb sind 10 und 30 jährig gleitende Durchschnitte mit angegeben. Hier sollte sich die Variabilität der einzelnen Jahre herausmitteln. Dies scheint zu funktionieren, die Kurven machen einen wesentlich glatteren Eindruck. Hier sieht man dann direkt die Erhöhung der Durchschnittstemperatur in dem letzten Jahrhundert.

Es gibt aber auch Aussagen wie, es war in den letzten tausend Jahren nie so warm wie heute. Diese Aussagen beruhen nicht auf direkten Messungen der Temperatur, sondern auf indirekten Messungen aus denen dann eine Durchschnittstemperatur rekonstruiert wurde. Der berühmte und umstrittene Hockeystick fällt in diese Kategorie.
Diese Messungen beruhen zum Beispiel auf der Breite von Baumringen. Die Baumringe sind breiter, wenn der Baum in einem bestimmten Jahr stärker gewachsen ist. Für dieses Wachstum sind natürlich verschiedenste Faktoren verantwortlich, aber unter anderem auch wie warm es in dem betreffenden Jahr war. Wenn viele Bäume untersucht werden, kann die Korrelation zwischen Wachstum und Klima herausgearbeitet werden und eine Durchschnittstemperatur berechnet werden. Die Baumringe sind aber auch ein Beispiel dafür, dass solche indirekten Messungen häufig auf das Klima und nicht auf die Temperatur reagieren. Für das Wachstum eines Baumes ist das Wetter an einem Tag relativ egal. Die durchschnittliche Temperatur im Frühjahr aber nicht.

Es gibt noch einige andere Klimaarchive, die, so ist zumindest mein Eindruck, direkter auf die lokale Temperatur reagieren aber auch schwerer zu Verstehen sind. Das sind zum Beispiel die bekannten Eisbohrkerne, eine Liste gibt es hier.

Aus diesen sogenannten Proxys können dann Zeitreihen der Temperatur wie dieser in den letzten paar Tausend Jahren abgeleitet werden.

Temperatur in den letzten 2000 Jahren

via Globalwarmingart.com

Hier sind die globalen Durchschnittswerte der letzten 2000 Jahre aufgetragen als sogenannte Temperaturanomalie, das bedeutet 0°C in dieser Kurve entspricht der Durchschnittstemperatur von 1960 bis 1990, das sind 14°C. Die verschieden farbigen Kurven sind verschiedene Rekonstruktionen und die schwarze Kurve sind Messwerte. Die blaue Kurve ist übrigens das Hockeystick Diagramm. Die Quellen für die einzelnen Kurven sind hier angegeben. Die Fehler der Daten sind leider nicht dargestellt, als ich durch einige der Datenquellen geblättert habe, hatte ich aber den Eindruck, das der Fehler typischerweise bei 0.2°C liegt. Der Fehler der Messwerte (schwarze Kurve) ist natürlich kleiner.

Der Plot sieht auf den ersten Blick chaotisch aus, aber die Kurven zeigen tatsächlich qualitativ das gleiche Verhalten (und stimmen innerhalb der Fehlergrenzen überein).
Nach diesen Rekonstruktionen gab es um 1600 eine relativ kalte Periode, die sogenannte kleine Eiszeit und davor eine wärmere Epoche, das Mittelalterliche Klimaoptimum, die ungefähr so warm war, wie die heutige Zeit. Mit meiner Fehlerschätzung von 0.2°C liegt das Maximum des mittelalterlichen Klimaoptimums ungefähr um zwei Standardabweichungen unter dem heutigen Wert.
Intuitiv interpretiere ich die Aussage so, seit 1998 war jedes einzelne Jahr wärmer als 95% der Jahre im mittelalterlichen Klimaoptimum. Also sollte es höchstens 10 Jahre in diesen 200 Jahren, von 1000 bis 1200 gegeben haben, in denen es wärmer war als in irgendeinem der letzten 10 Jahre. Die Daten zeigen also, dass sich das Klima erwärmt.

Andere Posts der Serie:

Global Warming (0) Einleitung

Global Warming (2): Plausibilitätsbetrachtung


]]>
http://yoshi-k.de/2008/01/12/global-warming-i-die-beobachtungen/feed/ 1
Global Warming (0) Einleitung http://yoshi-k.de/2008/01/06/global-warming/ http://yoshi-k.de/2008/01/06/global-warming/#comments Sun, 06 Jan 2008 00:17:48 +0000 http://yoshi-k.de/?p=36 Das Megathema des letzten Jahres. Die veröffentlichte Meinung scheint klar, wenn man sich ab und zu ein wenig im Heise Forum umsieht, scheint die Mehrheit aber eher zu glauben, dass es keine globale Erwärmung gibt. Aber ist eine globale Erhöhung der Temperatur eine Glaubensfrage? Oder sollte es nicht möglich sein diese zu messen?

Ursprünglich wollte ich ein Posting schreiben in dem ich kurz darstelle, warum ich den Meteorologen und Klimaforschern glaube, wenn sie sagen es gibt einen anthropogenen Klimawandel. Aber aus diesem kurzen Post hat sich nun eine ganze Serie entwickelt. Ich werde die einzelnen Teile in den nächsten Tagen veröffentlichen.

Ein paar klärende Worte vorweg, erstens das Wort „glauben” habe ich bewusst gewählt (und nicht in diesem Sinne1), weil ich kein Geophysiker bin. Deshalb verstehe ich nicht alle Details des Klimas und muss den Spezialisten die Details glauben.

Zweitens, ich habe Physik studiert und setze deshalb vielleicht relativ viel Vorwissen voraus, ich werde aber versuchen das nötige Vorwissen zu minimieren (oder wenigstens Wikipedia zu verlinken).

Grob gesprochen gibt es drei Bereiche die bei der physikalischen Grundlage des Klimawandels beachtet werden müssen, die Datenbasis, die Theorie und Computer-Modelle. Diese Bereiche ergänzen sich Gegenseitig und beantworten dabei verschiedene Fragen. Die Beobachtungsdaten sind natürlich die Basis jeder Naturwissenschaftlichen Diskussion. Das bedeutet insbesondere, dass es nicht möglich ist sie ohne sehr gute Gründe anzuzweifeln. Auf der anderen Seite sollten sie aber auch sorgfältig ausgewählt werden. Diese Daten sagen aber nichts über die Zukunft aus und erklären auch nichts.

Das Erklären der Daten ist eine Aufgabe der Theorie. Die Kunst besteht darin, die Theorie so einfach zu halten, dass ein Mensch zumindest die einzelnen Teile verstehen und in einfachen Situationen berechnen kann. So wie ich es sehe ist es aber nicht die Aufgabe der Theorie die tatsächlichen Messwerte vorherzusagen, sondern das Zusammenspiel der einzelnen Komponenten des Klimas soweit zu verstehen, dass man auf der einen Seite Laborexperimente hat, die Teile der Theorie überprüfen können und andererseits Hinweise auf das Zusammenspiel der einzelnen Komponenten (wie CO2) geben, damit es möglich ist Computermodelle zu konstruieren.
Die Computermodelle machen dann die tatsächlichen vorhersagen.

Diese drei Aspekte der physikalischen Grundlagen werde ich in den nächsten Tagen in eigenen Postings näher betrachten.

Andere Posts der Serie:
Global Warming (I) Die Beobachtungen

  1. Ich tendiere eher zu dieser Position.
]]>
http://yoshi-k.de/2008/01/06/global-warming/feed/ 1