Digitalkolumne
Supercomputer – an der Grenze der Berechenbarkeit von David GugerliSupercomputer – an der Grenze der Berechenbarkeit
Als Texas Instruments 1972 für die Universität Princeton einen neuen Rechner baute, kam die New York Times nicht mehr aus dem Staunen heraus. Dieser Computer werde zehnmal so stark sein wie der bis dahin stärkste Computer. Er brauche beim Rechnen eine Größenordnung weniger Zeit als jeder andere Computer. Umfangreiche Wetterprognosen ließen sich mit dieser Maschine fertig rechnen, bevor das Wetter eintraf. Und da man in Princeton so viel Wetter im Voraus berechnen wollte, dass sich gleich der langfristige Wandel des globalen Klimas prognostizieren ließ, brauchte man nichts weniger als eine Maschine, mit der die Grenze der Berechenbarkeit verschoben werden konnte.
Der für Princeton gebaute Computer galt als die bis dato teuerste Maschine. Es wurden Anschaffungs- und Betriebskosten zwischen 18 und 25 Millionen Dollar erwartet. Die Maschine der Superlative werde, so erklärte man der New York Times, »in ihren Schaltkreisen« eine »beschleunigte Version des Wetters« durchspielen, basierend auf einem »mathematischen Modell der verschiedenen Kräfte, die das globale Wetter simulieren«. Ein Weltwettertag lasse sich mit dem neuen Computer auf neun Minuten Rechenzeit reduzieren. Wenn die Maschine rund zwei Monate lang arbeite, dann könne man damit ein ganzes globales Wetterjahr voraussagen.
Die Wissenschaftler in Princeton hatten Mühe, den völlig faszinierten Journalisten aus New York im Laufe des Treffens wieder zum freien Atmen zu bringen. Manche ihrer relativierenden Erklärungen scheint er zwar irgendwie mitgeschnitten zu haben. Zum Beispiel das Problem, dass sich die Fehler in den Ausgangsdaten mit zunehmender Laufzeit der Simulation verstärkten. Solche Einschränkungen wurden dann jedoch in den hintersten Teil des Artikels verschoben – für journalistische Zwecke und für das Vergnügen der Leserschaft waren die mathematischen Probleme der Meteorologie nebensächlich. Schließlich ging es hier nicht um sphärische Netzwerke, sondern um den schnellsten aller schnellen Rechner, also um einen »Supercomputer«. Es ging um riesige Datenmengen, komplexe Modelle, dramatisch beschleunigte Simulationen über den möglichen Verlauf der Welt, und eben um sehr viel Geld.
Die New York Times versammelte in ihrem Artikel einige der Merkmale eines technowissenschaftlichen Diskurses, der sich über mindestens vier Jahrzehnte stabil hielt. Er änderte sich auch nicht, als der Einsatz von Supercomputern ganz operativ als »high performance computing« bezeichnet wurde. Bis heute stehen die enorme Leistungsfähigkeit der Maschinen und die komplexitätsverzückten Fragestellungen ihrer Wissenschaftler im Zentrum des Diskurses. Wenn es um die Grenze der Berechenbarkeit geht, müssen noch immer Superlative herhalten. Ein »Summit« genannter Supercomputer im Oak Ridge National Laboratory war im Juni 2018 »der schnellste Rechner der Welt«, der »seine präzedenzlose Kapazität« für die »größten Probleme der Wissenschaft« zur Verfügung stellt. 2021 soll er von einem »Frontier« genannten System abgelöst werden.
Mit der rhetorischen Verbindung von leistungsstarkem Computing und Ausweitungen der Berechenbarkeit ist nicht zu spaßen. Auf der Website eines Kollegen, dessen Simulationen die schnellsten Rechner der Welt zum Schwitzen bringen, heißt es etwa: Die Rechenleistung sei »essentiell für den Fortschritt der Menschheit«. Für die Grenzen der Berechenbarkeit aber ist entscheidend, was dieser Grundsatz ausblendet: die Frage, wie sich Spitzenleistung herstellen lässt, wie man sie betrieblich sichert und wofür sie sich politisch inszenieren lässt.
Die Exklusivität der Top 500
Je mehr Supercomputer weltweit betrieben wurden, desto »normaler« wurde High Performance Computing. Mitte der 1980er Jahre verzeichnete man einen Anschaffungsboom von Spitzenrechnern. Während High Performance Computing in den USA sukzessive in die Universitäten einzog (und man es nicht mehr bloß in den Rechenzentren der Energie-, Verteidigungs- und Raumfahrtbehörden fand), wurde in Deutschland gerade umgekehrt universitäres Hochleistungsrechnen in spezialisierte Einrichtungen ausgelagert. Die alten Rechenzentren wurden nun für einfachere Aufgaben, für die Lehre und für das administrative beziehungsweise kommunikative Rechnen an der Hochschule eingesetzt.
Inzwischen offerierten Vektor- oder Multiprozessorrechner ganz neue Erweiterungsmöglichkeiten der Rechenkapazität. Neben den großen Verschiebungsaktionen an den Campusgrenzen galt es darum auch die ersten Ersatzbeschaffungen vorzunehmen. Computer altern bekanntlich schnell und werden dabei nicht leistungsfähiger. Einstige Distinktionseffekte hielten nur wenige Jahre, und für neue brauchte es unter Umständen auch einen Herstellerwechsel. Das erhöhte den Beurteilungsdruck, erschwerte die Technikevaluation und machte den virtuosen Umgang mit Pfadabhängigkeiten notwendig. Selbst ein erfolgreicher Rennbolide wie der Cray 1 war nach wenigen Jahren kaum mehr als zukunftsfähiger Supercomputer anzupreisen. Kam jetzt einfach ein Cray 2? Und womit war dann diese Maschine in Stuttgart zu ersetzen, womit sollte demnächst in Jülich, München, Berlin oder Stuttgart gerechnet werden, und was würde für Bremen, Freiburg und Konstanz wahrscheinlich reichen?