Die Thermodynamik des Rechnens
Informationsverarbeitung braucht viel Energie. Sparsamere Computersysteme sollen das Rechnen effizienter machen. Doch die Effizienz dieser Systeme lässt sich nicht beliebig steigern, wie ETH-Physiker nun zeigen.
Als im 19. Jahrhundert die Dampfmaschinen Verbreitung fanden, stellte sich schnell einmal die Frage, wie man diese Apparaturen optimieren könnte. Die physikalische Theorie, die aus dem Studium dieser Maschinen hervorging, die Thermodynamik, erwies sich in der Folge als äusserst fruchtbarer Ansatz. Sie ist bis heute das zentrale Konzept, wenn man den Energieverbrauch von Wärme-Kraft-Maschinen optimieren will.
Wärme als kritische Grösse
Auch im Informationszeitalter erhoffen sich die Physiker und Ingenieure nützliche Beiträge von dieser Theorie. Denn immer deutlicher zeigt sich, dass nicht mehr die Taktfrequenz der Prozessoren und die Zahl der eingesetzten Chips die limitierenden Faktoren für die Performance der Rechner sind, sondern der Energieumsatz. «Die Leistungsfähigkeit eines Rechenzentrums hängt heute in erster Linie davon ab, wie viel Wärme abgeführt werden kann», bringt es Renato Renner, Professor für Theoretische Physik und Leiter der Forschungsgruppe für Quanteninformationstheorie, auf den Punkt.
Illustrieren lässt sich Renners Aussage beispielsweise am Bitcoin-Boom: Nicht die Rechnerkapazitäten an sich, sondern der exorbitante Energieverbrauch, der zu einer grossen Wärmeproduktion führt, und die damit verbundenen Kosten sind zum entscheidenden Faktor für die Zukunft der Kryptowährung geworden. Auch in anderen Gebieten ist der Energiehunger der Rechner inzwischen ein nennenswerter Kostentreiber.
Für die Informationsverarbeitung stellt sich daher immer drängender die Frage, wie man Rechenoperationen aus thermodynamischer Sicht möglichst effizient erledigen kann – oder anders gesagt: Wie lassen sich mit möglichst wenig Energie möglichst viele Rechenoperationen ausführen? Ähnlich wie bei den Dampfmaschinen, Kühlschränken und Gasturbinden geht es auch hier um ein fundamentales Prinzip: Lässt sich die Effizienz beliebig steigern oder gibt es ein physikalisch bedingtes Limit, das aus prinzipiellen Gründen nicht überschritten werden kann?
Verknüpfung von zwei Theorien
Für ETH-Professor Renner ist die Antwort klar: Ein solches Limit gibt es tatsächlich. Zusammen mit seinem Doktoranden Philippe Faist, der heute als Postdoc am Caltech arbeitet, zeigt er in einer Arbeit, die in diesen Tagen in der Zeitschrift «Physical Review X» erscheint, dass sich die Effizienz der Informationsverarbeitung nicht beliebig steigern lässt – und zwar nicht nur in Rechenzentren bei der Berechnung von Wetterprognosen und der Verarbeitung von Zahlungseingängen, sondern auch in der Biologie, beispielsweise bei der Umsetzung von Bildern im Gehirn oder der Vervielfältigung von genetischen Informationen in den Zellen. Dabei zeigen die beiden Physiker auch auf, welches die entscheidenden Faktoren sind, welche für die Begrenzung verantwortlich sind.
«Unsere Arbeit verknüpft zwei Theorien, die auf den ersten Blick nichts miteinander zu tun haben: die Thermodynamik, welche die Umwandlung von Wärme in mechanische Arbeit beschreibt, und die Informationstheorie, die sich mit den Gesetzmässigkeiten der Informationsverarbeitung befasst», erklärt Renner.
Dass es zwischen den beiden Theorien eine Verbindung gibt, lässt sich zunächst an einem formalen Kuriosum erahnen: In der Informationstheorie gibt es einen mathematischen Term, der formal der Definition der Entropie in der Thermodynamik gleicht. Dies ist der Grund, warum der Begriff Entropie auch in der Informationstheorie verwendet wird. Renner und Faist konnten nun zeigen, dass diese formale Ähnlichkeit offenbar tiefer reicht als man auf den ersten Blick vermutet.
Keine feste Grenze
Bemerkenswert ist, dass die Grenze der Effizienz, mit der Informationen verarbeitet werden können, offenbar nicht fix ist, sondern beeinflusst werden kann: Je besser man ein System versteht, desto genauer kann man zum Beispiel die Software auf das Chipdesign abstimmen und desto effizienter werden die Informationen verarbeitet. Genau dies wird heute beim Hochleistungsrechnen auch gemacht. «Zukünftig werden die Programmierer auch die Thermodynamik des Rechnens berücksichtigen müssen», ist Renner überzeugt. «Entscheidend ist nicht, die Zahl der Rechenoperationen zu minimieren, sondern Algorithmen einzusetzen, die möglichst wenig Energie verbrauchen.»
Als Massstab für die Entwickler könnten auch hier biologische Systeme dienen: «Man weiss aus verschiedenen Untersuchungen, dass unsere Muskeln aus thermodynamischer Sicht sehr effizient funktionieren», erklärt Renner. «Nun wäre es natürlich interessant zu wissen, wie gut unser Gehirn bei der Verarbeitung von Signalen abschneidet.»
Möglichst nahe am Optimum
Dass sich Renner als Quantenphysiker mit diesen Fragen auseinandersetzt, ist kein Zufall: Mit der Quanten-Thermodynamik ist in den letzten Jahren ein neues Forschungsfeld entstanden, das insbesondere für den Bau von Quantencomputern grosse Relevanz hat. «Man weiss, dass die sogenannten Qubits, mit denen künftige Quantenrechner rechnen werden, nahe am thermodynamischen Optimum arbeiten müssen, um die sogenannte Dekohärenz zu verzögern», berichtet Renner. «Dieses Phänomen ist ein grosses Problem bei der Konstruktion von Quantencomputern, denn es verhindert, dass quantenmechanische Überlagerungszustände genügend lange aufrecht erhalten werden können, um sie für Rechenoperationen zu nutzen.»
Literaturhinweis
Faist P, Renner R: Fundamental work cost of quantum processes. Physical Review X, 2018, doi: externe Seite 10.1103/PhysRevX.8.021011