Sonntag, 17. Februar 2019

Strahlentherapie - vom Januskopf zum Hoffnungsträger

Bild aus dem PSI-CPT Newsletter (Link)
Eine Strahlentherapie weckt bei Betroffenen gemischte Gefühle und wirft existenzielle Fragen auf. Es beginnt mit CT und MRI. Bilder des Körperinnern zeigen geringfügige Abnormitäten, die oft nur der Radiologe erkennen und deuten kann. Zuweilen werden winzige Proben punktiert, in denen mikroskopische Abnormitäten ausgemacht werden. Wiederum geht eine Spezialistin ans Werk, eine Pathologin, die sich dem Leben auf der Zellebene nähert und deren Spruch oft gravierende Konsequenzen zeitigt. Nun beginnt die architektonische Festlegung des Bestrahlungsplans. Dabei erscheint der Januskopf: Auf der einen Seite zerstören die Strahlen empfindliches Krebsgewebe. Die Zellen des Tumors sind Einzelgänger, die sich um die Regeln der Gewebe-Gemeinschaft keinen Deut scheren.  Nach dem Kreuzfeuer der Bestrahlung geniessen sie keine nachbarschaftliche Aufbauhilfe und sterben ab. Der Zelltod wird im Bestrahlungsplan einkalkuliert und dosiert. Auch gesundes Gewebe wird vom Strahlengewitter erfasst, denn der Krebs wächst oft filigran in das gesunde Gewebe hinein. Doch das gesunde Gewebe ist ein funktionell streng organisierter Verband. Starke morphogenetische Kräfte walten hier. Werden DNA-Brücken in dieser Gemeinschaft durch den Teilchenbeschuss mit zerstört, helfen die noch gesunden Nachbarn die Fehlstellen zu reparieren, und zwar in wenigen Stunden. Die Optimierungsaufgabe der Medizin-Physiker in der Radio-Onkologie besteht in der Erhaltung eines hinreichenden nachbarschaftlichen Supports durch genügend gesundes Gewebe und der notwendigen nuklearen Vernichtung der solitären Tumorzellen. Strahlentherapie bedeutet niederreissen und aufbauen in ein und derselben Kur.
Die Strahlentherapie ist keineswegs neu. Schon Ende des 19. Jahrhunderts haben Ärzte mit radioaktiven Präparaten Tumore eliminiert und damit Menschenleben verlängert.  In den 30er-Jahren wurde bereits im „Kreuzfeuer“ bestrahlt und das den Fokus umgebende Gewebe geschont, allerdings ohne die zielgenaue Tumorlokalisation, die erst das Computertomogramm in den 70er-Jahren ermöglichte. Mit dem Stichwort Computer hat sich auch die Radiotherapie aus dem obskuren Janustempel zur hoch effizienten radiologischen Präzisionschirurgie entwickelt. Nur die „Kobaltbombe“ blieb dort zurück, spielt aber im 21. Jahrhundert keine Rolle mehr. Der Anteil der Strahlentherapie an onkologischer Heilung und Lebensverlängerung beträgt heute rund 50%. Das Messer des Chirurgen und der Strahl stehen, z.B. beim Prostatakarzinom oder im Gehirn, in ebenbürtiger Konkurrenz. Die Strahlentherapie ist berufsbegleitend, ambulant und hat vergleichsweise wenig Nebenwirkungen. Die Vorbereitung eines typischen konformalen 3D-Bestrahlungsplans erfordert die interdisziplinäre Zusammenarbeit von Strahlenphysiker, Onkologin, Radiologen, Histologin und last-not-least eines Sicherheitsexperten. Alle arbeiten an Bildschirmen; sie benützen fortgeschrittene, zunehmend KI-gestützte Softwareprogramme. Der Elektronen-Strahl wird in einem computergesteuerten Linearbeschleuniger (Klystron und Waveguide) mit ~6-20 MeV aufbereitet. Die Elektronen werden in der Regel im Strahlkopf in Photonen umgewandelt. Mit dieser harten Gammastrahlung kann auch ein tief liegender Tumor je nach seiner anatomischen Lage und Form überall gleichmässig bestrahlt werden. Elektronen können nur wenige Zentimeter eindringen. Sie werden für oberflächennahe Tumore benützt. Eine Präzision im Millimeterbereich wird durch digitale Assistenzsysteme und einem dynamischen Multiblatt-Kollimator (bewegliche Strahlenblende) gewährleistet. Der Strahl folgt den Körperfunktionen wie Herzschlag, Atmung, Darmmotilität; der adäquaten Ausformung des Zielgebiets sind kaum noch Grenzen gesetzt, auch hohle Aussparungen sind zur Schonung empfindlicher Organe möglich; die Fluenzmodulation (IMRT) sorgt für einheitliche Exposition unterschiedlich dicker Gewebeteile und multipler Zielobjekte. Der führende Lieferant dieser eindrücklichen Maschinerie ist die traditionsreiche Varian, eine US-Firma, die schon im zweiten Weltkrieg mit Klystrons in der Radartechnik Erfahrungen gesammelt hatte.

Freilich spielt auch die Schweiz eine führende Rolle in der medizinischen Bestrahlungstechnik. Ein Pionier war der bekannte Physiker Paul Scherrer an der ETH, bei dem vor, während und nach dem Krieg die Fäden der Kernphysik zusammenliefen. Er baute an der ETH schon in den 30er-Jahren das erste Zyklotron zur Beschleunigung von Ionen. Hier im Bild der "Tensator" und das "Cyclotron" (in Betrieb bis 1964, für Protonen bis 15 MeV) in den Katakomben vor dem alten Physik-Gebäude an der Gloriastrasse 35 in Zürich.
Das Cyclotron hier rechts im Bild.
Bilder: ETH-Bibliothek Zürich, Bildarchiv
Der Tensator erzeugte 700'000 Volt und
wurde zur Neutronen-Erzeugung benutzt.
Zusammen mit Walter Boveri (BBC) gründete er 1955 das Reaktorinstitut Würenlingen (später EIR), aus dem das heutige Paul Scherrer Institut (PSI) hervorging. Es ist das ETH-Hochenergie-Forschungszentrum der deutschen Schweiz und beherbergt heute modernste und leistungsfähigste Teilchenbeschleuniger, namentlich:
  • ein Zyklotron bis 590 MeV mit dem weltweit höchsten Strahlstrom 2.4 mA
  • ein Synchrotron bis 2.4 GeV, für verschiedenste internationale Anwendungen
  • ein neues kompaktes Zyklotron bis 250 MeV für die Protonenbestrahlung von Tumoren. 
Am PSI  wurde 1996 Pencil-Beam-Bestrahlungstechnik entwickelt, womit tiefliegende Tumore an kritischen Stellen punktgenau bestrahlt werden können bei fast totaler Schonung der umliegenden Organe. Heute gibt es dort drei Bestrahlungstische (Gantry 1-3), wovon hauptsächlich Kinder profitieren. Die schnellen Protonen entladen ihre Energie im Gewebe erst nach einer definierten Tiefe (im Bragg Peak). Dort kann der Brennpunkt auch einen kompliziert geformten Tumor zielgenau und randscharf abtasten. Mit gegen 10‘000 Bestrahlungspatienten seit 1984 ist das gut vernetzte PSI international führend in der onkologischen Protonenbestrahlung (Link).
Die Kombination mit der physikalischen und industriellen Hochenergie-Forschung bewirkt eine einzigartige Kompetenzenerweiterung. Allerdings: Hybris ist nicht am Platz, wenn der Tod sich nähert. Und dennoch, Hoffnung darf immer sein, dank Digitalisierung mehr denn je!
__________
Quellen:
  1. Zimmermann F, Negretti L, Zwahlen DR: Dank moderner Strahlentherapie: Ein besseres und längeres Leben! Schweizerische Ärztezeitung, 2018;99(38):1256-1259
  2. Christiansen H, Bremer M (Hrsg.): Strahlentherapie und Radioonkologie aus interdisziplinärer Sicht, 6. völlig überarbeitete Auflage. Lehmanns Media, Berlin, 2018, 531 S.
  3. Paganetti H (Ed.): Proton Therapy Physics, 2nd. Edition. CRC Press London, 2018, 746 S.
  4. Wäffler H: Kernphysik an der ETH Zürich zu Zeiten Paul Scherrers. Vierteljahrsschrift der Naturforschenden Gesellschaft in Zürich (1992) 137/3: 143-176 (Link)
  5. Pritzker A: The Swiss Institute for Nuclear Research SIN. Books on Demand, 2014, 188 S.
  6. B. Vonarburg: Millimetergenau bestrahlen, NZZ, 15.10.2018 (Link)



Sonntag, 6. Januar 2019

KI und Wikipedia

Die Teilnehmenden der WikiCon 5.-7.10.2018 in St. Gallen

Wie erschaffen tausend betuchte oder berentete Arbeitslose, Schüler und Studenten freiwillig die fünft meistbesuchte Webseite? Wikipedia ist mit 6000 Zugriffen pro Sekunde das meist gelesene Universallexikon aller Zeiten. Um täglich an Dutzenden Artikeln zu feilen oder neue zu redigieren, brauchst du viel Zeit. Früher haben gut bezahlte Redaktoren die Lexika gemacht. Der unrentable Druck wurde längst eingestellt. Bei jedem Wikipedia-Artikel lädt eine Griffel-Ikone ein, sein Wissen beizutragen, man braucht sich nicht anzumelden. Jeden Monat folgen 100‘000+ dieser Aufforderung. Allerdings gibt es bei Wikipedia keine Redaktion. Ist Chaos vorprogrammiert? 2005 verglich die Zeitschrift Nature die Qualität der Online-Ausgabe der Encyclopedia Britannica mit der englischen Wikipedia. Nature kam zum Ergebnis, dass es bei der Qualität kaum Unterschiede gibt. Wie kann die deutsche Wikipedia zweieinhalb Millionen Artikel in hoher Güte liefern? Wikipedia ist eine Meritokratie. Die Editoren sind zwar alle gleich, wenn sie sich an die Regeln der Plattform halten. Aber sie werden unbarmherzig überwacht durch lauernde Füchse, die Verdienste durch tausende Artikel haben. Du musst dich auf einen eisigen Wind gefasst machen, wenn du dich auf das Text-Eingeben einlässt. Dein Text wird oft nicht freundlich korrigiert, sondern unbarmherzig gestrichen. Zwar kannst du die Streichung zur Diskussion stellen. Aber dann läufst du Gefahr, dass sie dir einen Edit-War unterstellen und dich als Vandalen bezeichnen. Das ist ewig protokolliert und öffentlich einsehbar. Es gibt Filter, die dein Sündenregister auflisten; KI schlägt Alarm, wenn du Mist eintippst. Klar, dass die erfahrenen Admins längere Spiesse haben. Sie liefern sich selber den Streit um den richtigen Satz und stimmen ab. Kurzum, wenn du dich aufs Texten einlässt, darfst du keine Mimose sein. Bist du zu forsch, riskierst du eine Sperrung. Heute wirst du bei der Eingabe von Begriffen bei Google fast immer ganz oben auf Wikipedia verwiesen. Seitens Google ist kein Mensch beteiligt, nur Relevanz beurteilende KI. So kann sich KI mit Arbeitslosen verbinden, um unseren Wissensdurst zu stillen.
__________________
[1] Günter Schuler: Wikipedia inside. Die Online-Enzyklopädie und ihre Community. Unrast-Verlag, Münster 2007, 280 S.
[2] Björn Hoffmann: Wikipedia reloaded. Kritik und Zukunft als Encyclopedia Europeana. Epubli-Verlag, Berlin 2016, 214 S.
[3] Michael Brückner: Die Akte Wikipedia. Falsche Informationen und Propaganda in der Online-Enzyklopädie. Kopp-Verlag, D-72108 Rottenburg 2014, 128 S.
Bild: Martin KraftMJK 29970 Gruppenbild WikiCon2018CC BY-SA 3.0

Freitag, 12. Oktober 2018

Künstliche Intelligenz II


Bild: Pixabay JanneG

Hier gebe ich ein klingendes Beispiel, wie KI (sprich „kaa-ii“) schon vor 20 oder 30 Jahren Arbeitsplätze eliminiert hat. Wir hatten damals ein intelligentes Schallmessgerät mit einem Künstlichen Neuronalen Netz (KNN) im Angebot. Das war ein Computer, wie andere auch, aber er rechnete nach einem Algorithmus (Rechenrezept), der den Nervenzellen im Hirn abgeschaut ist. Der Fluss der Information sickert dabei durch Schichten, wie bei einem Sandwich. Das Messgerät besteht nicht nur aus Mikrofon und Zeigerinstrument für die Schallstärke. Dazwischen errechnet das KNN aus dem Schall eine bestimmte Qualität heraus, nämlich den Wohlklang eines Ziegels. Wenn du mit dem Hämmerchen einen frisch gebackenen Ziegel anschlägst, hat dieser einen bestimmten Ton, der ist Musik in den Ohren des Ziegeleidirektors. Er will nur wohlklingende Ziegel verkaufen. Der Klang ist ein Qualitätsmerkmal. (Vgl. Siegfried Lenz: Die Klangprobe. „…horch auf den Ton, und du wirst wissen, wie es innen aussieht, der Ton machte den Stein durchsichtig...“). Er bestimmte zwei Arbeiter, die abwechselnd am Frischziegel-Laufband sassen, schlugen und horchten. Die Arbeiter mussten lernen: Sobald ein Ziegel nicht wohl klingt, sondern klirrt, landet er im Abfall, denn er hatte unsichtbare „Lehmnester, Sandnester oder Preller“ (Lenz). Auch ein KNN kann das, vermöge seines Aufbaus in lernende Schichten. Wie die Arbeiter ihr Gehör schulen, kann auch das KNN trainiert werden, auf dass es ohne Unterlass und Ermüdung die schlechten Ziegel entsorgt. Ein solches künstliches „Nerven“-Netz verschiebt, wie das plastische Gehirn, zahlreiche Schwellenwerte (kleinste Entscheidungsschritte) selbsttätig, um immer treffender semantisch entscheiden zu können. Wie es das macht, weiss sein Programmierer nur im grossen Ganzen. Wie es im Detail rechnet, das interessiert niemanden. Der Direktor ist hoch erfreut: Mit einer einzigen Auslage von 30‘000 Franken für ein KNN, das nie krank ist und ständig dazu lernt, kann er zwei Mann einsparen. - Die Arbeiter indessen fühlen sich wie schlechte Ziegel: geprellt.
________
Siegfried Lenz: Die Klangprobe. Hoffmann und Campe, 1999, 463 S.
Theodor H. Erismann: Grundprobleme der Kybernetik. Springer, 1972, 203 S.
Patrick Hamilton: Künstliche neuronale Netze. vde verlag, 1993, 231 S.
Heinrich Braun: Neuronale Netze. Optimierung durch Lernen und Evolution. Springer, 1997, 279 S.
Andreas Scherer: Neuronale Netze. Grundlagen und Anwendungen. Vieweg, 1997, 249 S.


Montag, 27. August 2018

Sonntag, 26. August 2018

Künstliche Intelligenz I




In diesen heissen Tagen frage ich mich allen Ernstes, ob es den subjektiven Geist und die Qualia wirklich gibt. Vielleicht sollte ich diese Frage für mich behalten, um im schöngeistigen Kilchberg den Sommerdämmer nicht zu stören. Doch hat mich ausgerechnet die reanimierte SF-Sternstunde eines Sonntagmorgens damit geweckt: Sprach doch ein weltberühmter Philosoph des Geistes und Direktor für Kognitionswissenschaft auf die Frage, ob es bewusste Roboter gäbe, „klar, ich bin einer, wie Sie auch“. Und nach Darwin: „Wir sind Roboter, die Roboter entstammen, die Roboter entstammen…“. Danach der Einwand des Moderators: Zwar könne man bald mit Apples Siri sprechen wie jetzt mit seinem menschlichen Gegenüber: Daniel C. Dennett. Doch diese Siri habe doch kein Bewusstsein, kein Erleben, keine Freiheit! Darauf Dennett: „Noch nicht. – Und wenn wir Siri tatsächlich mit einem Bewusstsein ausstatten wollten, müsste deren Software um 100 Grössenordnungen komplexer sein.“ Demnach ist ein mit dem Menschen vergleichbarer bewusster Computer kein Ding der Unmöglichkeit, sondern eine quantitative Frage der Grössenordnungen. Wann wird das so weit sein? Es gibt im Computerbau das Moorsche Gesetz, welches besagt, dass sich die Rechenleistung alle 18 Monate verdoppelt. Da unter Informatikern eine Grössenordnung eine Verdoppelung bedeutet, wären 100 Grössenordnungen in 1800 Monaten oder 150 Jahren erreicht. Nun sind dem Mooreschen Gesetz auch Grenzen gesetzt, da die Transistoren nicht auf beliebig kleinem Raum platziert werden können. Mehr und mehr stören Quanteneffekte den Rechenablauf. Derweil werden heute die Quantencomputer erforscht, die nicht mehr mit Transistoren rechnen, sondern tiefgekühlt mit so genannten Quantenverschränkungen, womit in einem Rechenschritt viele Operationen parallel ablaufen können. Das würde die Rechenzeiten um viele Grössenordnungen verkürzen. Steht damit eine wirklich coole Siri nächstens vor der Tür? – Wenn es so weit ist, werden unsere Enkelkinder erkennen, ob sie Geist und Seele hat. 

___________
[1] Sternstunde im SF1 mit Daniel Dennett - Geist, Gott und andere Illusionen (Sternstunde Philosophie vom 18.2.2018, Moderator Yves Bossart) (Link)
[2] Daniel C. Dennet: From Bacteria to Bach and Back - The Evolution of Minds. W.W.Norton & Co., New York, 2017, 480 pp.
[2] Manuela Lenzen: Künstliche Intelligenz - Was sie kann & was uns erwartet. (Bei Audible)

Montag, 25. Juni 2018

Der Kopf am Knopf

Bild: youtube/screenshot

Stanislaw Petrow hieß der Mann, der in der Nacht vom 25. auf den 26. September 1983 ein nukleares Inferno verhinderte. Ohne seinen einsamen Entscheid, die Meldung als Fehlalarm des Computers eines sowjetischen Spionagesatelliten einzustufen, könnte ich jetzt diese Kolumne nicht schreiben. Der sympathische Offizier, ein Computer-Ingenieur im besten Alter, hatte Familie, doch die wusste nicht, wo er arbeitete. In einem atomsicheren Bunker südlich von Moskau erlebte der Kommandant des nuklearen Vergeltungsarsenals der Sowjetunion eine heiße Nacht. Seine Computer meldeten eindeutig den Start von fünf amerikanischen Pershing II-Raketen aus ihren Silos. Alles deutete auf einen Erstschlag hin, der die russischen Hauptstädte vernichten sollte. Es waren große Nato-Manöver im Gange. Sowjetische Spione sammelten im Westen Hinweise auf Angriffs-Vorbereitungen. Margaret Thatcher besuchte im Panzer ihre Truppen im Feld. Präsident Reagan dislozierte in einen Kommandobunker. Viele Zeichen standen auf Sturm; das Raketen-Wettrüsten war auf einem Höhepunkt. Im Kreml herrschte ein überaltertes Politbüro, das krank und angstvoll re(a)gierte. Oberst Petrow, der die Angriffsmeldung als Erster erfuhr, hatte nur Minuten Zeit, um den Zweitschlag auszulösen. 260 Raketen des Typs SS-20, jede mit einer Megatonne Sprengkraft, waren auf Europa gerichtet. Obgleich alle Hinweise widerspruchsfrei bedeuteten, dass der Ernstfall nun eingetreten sei, entschied Petrow, aus einem Bauchgefühl heraus, den Alarm nicht weiterzuleiten. Er misstraute den sowjetischen Computern, die er selbst programmiert hatte. Wie Recht er hatte! Sein Bauchgefühl verhinderte ein nukleares Inferno mit Wasserstoffbomben. Obgleich er sich den Dienstvorschriften widersetzte, wurde er nicht bestraft. Als die Sache ruchbar wurde, erhielt er im Westen Friedenspreise. Der Mann, der den Weltuntergang verhinderte, starb 2017 in Moskau verarmt. – Dieser ungeheure Vorfall lehrt uns, dass wir es nicht zulassen dürfen, den Algorithmen das Feld ganz zu überlassen. Menschliches Bauchgefühl ist wichtiger als rationales Kalkül.
_______________

Quellen:
[1] (Link) Ronald G. Gerste: Haarscharf an einem Atomkrieg vorbei. NZZ, 25.9.2013
[2] (Link) Chronik von Karl Schuhmacher, der Petrow 1999 ins Ruhrgebiet einlud.
[3] (Link) Benedict Neff: Der Mann, der den dritten Weltkrieg verhinderte. BAZ-online, 8.8.2015

Sonntag, 27. Mai 2018

Blockchain II

Grössenwachstum der Bitcoin-Blockchain (200 GB im 2018)


Eine Blockchain ist eine dezentrale Liste von verschlüsselten Vertragsdatensätzen, die in identischen Kopien auf allen Computer gespeichert ist, die am Vertragswerk angeschlossen sind. Es gibt ganz verschiedene sogenannte Smart Contracts. Bitcoin ist nur ein Beispiel. Doch darum kümmere ich mich hier nicht mehr. Vielmehr ist Blockchain eine disruptive Technologie, die weit interessantere Anwendungen zeitigt, als den Geldbeutel durch das Handy zu ersetzen. Um das Potential der Blockchain-Technik zu erkennen, muss man sie in ihren Grundzügen verstehen. Das gelingt am einfachsten mit einem gut gemachten Video (s. unten).

Wo immer Verträge abgeschlossen werden, ist Vertrauen im Spiel. Der Käufer vertraut dem Besitzer, dass die Kuh gesund ist und genug Milch gibt, wenn er 3000 Franken bar bezahlt. Die „Blockchain“ ist in diesem Beispiel die Rechtschaffenheit und das Gedächtnis der Marktteilnehmer. Es braucht keinen Vermittler, das Geschäft wird durch Handschlag besiegelt. In den meisten Fällen läuft es etwas komplizierter: Wenn ein Gastarbeiter Geld nach Hause sendet, geht er zu Western Union, zahlt den Betrag + Kommission ein, und in Pakistan geht seine Frau zu Western Union und holt den Betrag ab.

Western Union, Paypal, SIX Security Services und andere mehr heissen die Vertrauen einfordernden Clearingstellen bei Werte-Übertragung verschiedenster Art. Derivatgeschäfte müssen in der Schweiz seit Herbst 2017 in ein zentrales Transaktionsregister eingetragen werden. Derzeit sind es viele Millionen pro Tag. Register aller Art sind bei uns üblich / beliebt / etabliert: Einwohnerkontrolle, Grundbuch, Handelsregister, AHV/IV-Register, Gen-Pools, Gemeindewerke und vieles mehr, eine kafkaeske, teure Bürokratie verwaltet die Verträge. Kein Wunder, dass Blockchain auf so grosses Interesse stösst.

Das Internet kann es richten: hier ist alles plötzlich ganz einfach. Die Überwachungspartei fällt weg, es braucht keine Banker, Notare, Justizbehörden, Grundbuchbeamte, Versicherungen oder andere Intermediäre mehr. Das Internet ist neutral, offen, weltumspannend, dezentral und deshalb robust und krisenresistent. Gelingt es, Duplikate der Vertragsprotokolle auf die Masse der angeschlossenen Computer und Handys auszulagern, muss man nur noch der Blockchain im Internet vertrauen. Das ist keine fassbare Dienststelle mehr, sondern ein verschlüsselter Algorithmus, der allen zur Verfügung steht, der aber niemandem gehört. Die Aufsicht obliegt nicht mehr der vermittelnden Instanz; diese wird ersetzt durch die Eigenkontrolle der Millionen Handels- oder Vertragspartner, die an einer Blockchain gleichwertig partizipieren.

Jeder einzelne Akteur besitzt einen öffentlichen Schlüssel, über den er adressierbar ist, um Werte zu empfangen; und er besitzt einen privaten Schlüssel, über den er auf seine Werte zugreifen kann. Die aktuell anstehenden Transaktionen werden in einen neuen Block gebündelt und mit der vorbestehenden Kette mathematisch verbunden. Sobald dies geschieht, ist die Transaktion besiegelt. Beim Bitcoin sammeln sogenannte Miner (Mineure) frische Transaktionen und versuchen, diese in einem neuen Block zu füllen. Sie benötigen sehr viel Rechenleistung, um die passende Verschlüsselung zu errechnen. Wer es als erster schafft, den neuen Block an die bestehende Kette zu schmieden, hat gewonnen und wird in Kryptowährung honoriert. Jemand hat mit handelsüblichen Superrechnern in Zürich versucht, auf diese Weise Geld zu schürfen, er fand aber, dass es sich nicht mehr lohnt, weil die Material- und Stromkosten höher sind, als der Gewinn. Nun verlagert man die stromfressenden Krypto-Rechner nach Gondo, wo der Strom fast gratis ist, um Etherum zu schürfen. Ob das eine nachhaltige Lösung ist, darf bezweifelt werden.

Sinnvoller ist es, Anwendungen zu erschliessen, die wichtigere Probleme zu lösen, als anderen Leuten Geld abzujagen. So könnte eine passende Blockchain das kommende Smart-Grid in der Energieversorgung organisieren. In Zukunft werden wir den Strom nicht nur aus einem fernen Kraftwerk über Leitungsverluste konsumieren, sondern von Nachbarn, vom eigenen Solardach, vom nächstgelegenen Windpark, sogar aus der Batterie des parkierten Elektroautos. Letzten Endes könnten Hochspannungs-Fernleitungen verschwinden. Dieses Geben und Nehmen entspricht einem komplexen dynamischen Vertragswerk. In einer geeigneten Blockchain wäre es gut aufgehoben. Die Teilnehmer sind anonym, das Geben und Nehmen, kurzum die gerechte Abrechnung von multidirektionaler elektrischen Energieflüssen jedoch ist absolut transparent und für alle überprüfbar. Zudem ist ein solches System technisch und buchhalterisch robust. Es schützt sich selber vor krimineller Einflussnahme, denn eine kriminelle Vertragsänderung müsste von der Mehrheit der Teilnehmer beglaubigt werde. Die Eigensicherheit liegt in der demokratischen Netzstruktur. Das ist der grösste Vorteil einer Blockchain.

Doch wo Licht ist, ist auch Schatten, pflegte meine Mutter zu sagen. Wo liegen die Nachteile der Blockchain? Die Speerspitze der Blockchain, die Grossbanken, haben die Zwickmühle ins Visier genommen: Wenn sie die Technik ignorieren oder gar dagegen ankämpfen, könnten sie hinweggefegt werden. Wenn sie sie nutzen, könnten sie gigantische Kosten sparen – würden sich aber von innen auflösen. (Capital) Dass sich zentrale Machtstrukturen auflösen, könnte sich als problematisch erweisen. Das Zentrum ist leer. Die Macht liegt im Algorithmus, dem alle vertrauen. Natürlich muss diesen ein Guru programmieren. Aber sobald das Glasperlenspiel im Internet freigesetzt ist, beginnt es von selbst zu funktionieren. Es wabert als juristisch unfassbares, verantwortungsloses Netzwerk, welches das Internet der Dinge perfekt koordiniert. Es organisiert, ja besitzt, konkrete Dienste, etwa führerlose Taxiflotten, die sich ohne Firmenzentrale selbst finanzieren und durch laufende Einkünfte selbst unterhalten. Letzten Endes entfaltet sich hier eine ungeheure sozioökonomische Umwälzung, die man als Singularität bezeichnet hat. Wird sie den Menschen dienen, auch wenn wir sie nicht mehr abschalten können?