Die Revolution der Nullen und Einsen

Vor 75 Jahren wurde die Z3 in Berlin vorgestellt

Weil er zu faul zum Rechnen war, entwickelte der deutsche Tüftler Konrad Zuse mitten in den Wirren des Zweiten Weltkriegs die Z3. Vor 75 Jahren, am 12. Mai 1941, wurde die riesige Rechenmaschine in Berlin vorgestellt. Heute gilt sie als der erste funktionsfähige Computer der Welt. Er läutete eine rasante Entwicklung ein, die unsere Welt dramatisch verändert hat – die digitale Revolution. Heute kann sich kaum jemand mehr seinen Alltag ohne den elektronischen Alleskönner vorstellen.

Triumph der künstlichen Intelligenz

Jetzt also auch noch Go. Im März dieses Jahres schlug ein Computer den Südkoreaner Lee Sedol, einen der weltweit besten Spieler, in vier von fünf Partien und überraschte damit Laien und Fachwelt – und Sedol selbst. Der war sich wenige Wochen vor dem Wettkampf noch sicher, er werde haushoch gewinnen. Denn das asiatische Brettspiel galt als eine Bastion menschlicher Intelligenz. Es ist deutlich komplexer als Schach und lebt von Intuition, was die Züge für den Gegner schwer berechenbar macht. Das Besondere: Das Programm AlphaGo der Google-Tochter DeepMind arbeitet teilweise mit neuronalen Netzen, also Strukturen, die dem menschlichen Gehirn nachempfunden sind, und hat sich das Go-Spielen selbst beigebracht. Ein Triumph der künstlichen Intelligenz, ähnlich dem Sieg des IBM-Programms Watson, das 2011 in der Sendung „Jeopardy!“ zwei menschliche Quizkönige bezwang.

Systeme wie AlphaGo oder Watson stellen den vorläufigen Höhepunkt einer Entwicklung dar, die in den 1940er Jahren eingeläutet wurde und die Welt, in der wir leben, auf dramatische Weise verändert hat.

konrad_zuse_mit_z3jpg.jpg
Konrad Zuse mit dem Nachbau der Z3 im Deutschen Museum. Foto: Deutsches Museum

Der erste funktionsfähige Computer

Das ahnte allerdings noch niemand, als Konrad Zuse in Berlin seine Z3 entwickelte. Seit 1935 tüftelte der 25-jährige Bauingenieur im Wohnzimmer seiner Eltern in Berlin-Kreuzberg an einer automatischen Rechenmaschine. Sein erstes Modell, die 1938 fertiggestellte Z1, funktionierte noch rein mechanisch und war sehr unzuverlässig. Beim zweiten Testmodell, der Z2, verwendete Zuse erstmals zumindest teilweise elektronische Relais. Auf dieser Technik basierte dann auch die Z3, die Zuse mit Unterstützung seines Freundes Helmut Schreyer umsetzte. Im Mai 1941, vor 75 Jahre, stellte Zuse sie einigen fachkundigen Gästen vor.

„Ich war zu faul zum Rechnen“, schildert er in seiner 1984 erschienenen Autobiografie „Der Computer – Mein Lebenswerk“ salopp seine Beweggründe. „In seinem Bauingenieurstudium war er schockiert über die vielen Rechnungen. Es muss berechnet werden, wie stark die Wände sein müssen, die Fundamente, die Decken und so weiter“, sagt heute sein Sohn, der Informatikprofessor Horst Zuse. Nach dem Tod seines Vaters 1995 widmet er sich dessen Vermächtnis. Ähnliche Erfahrungen machte Konrad Zuse bei den Henschel Flugzeugwerken, wo er ab 1935 arbeitet und auch Flügelberechnungen durchführen musste. Horst Zuse: „Es gab entsprechende Formeln dazu, aber die damaligen Geräte waren einfachste Tischrechenmaschinen und Rechenschieber, an denen in Großraumbüros bis zu 100 Frauen saßen. Er sagte: »Das ist doch furchtbar so; das muss anders gehen, einfacher gehen.«“

Von der Z3 existiert heute nur eine Zeichnung, die Maschine samt Originalfotos wurde bei einem Bombenangriff im Dezember 1943 zerstört. Inzwischen gibt es mehrere Nachbauten, zum Beispiel im Deutschen Museum in München oder im Konrad-Zuse-Museum im hessischen Hünfeld.

Die Z3 war groß wie eine Schrankwand und wog eine Tonne. Sie besaß ein Rechenwerk, das aus 600 Relais bestand, also elektromechanischen Schaltern, weitere 1600 Relais waren im Speicher verbaut. Die Steuereinheit beherrschte die vier Grundrechenarten und konnte die Quadratwurzeln ziehen. Es gab eine Ein- und Ausgabeeinheit. Die Programme wurden mit Lochkarten eingelesen. Damit entspricht der Aufbau der Z3 dem eines modernen Computers. Sie rechnete auch bereits im Binärsystem, also jenem Zahlensystem aus den Ziffern 0 und 1, mit dem noch heute jeder Computer arbeitet.

Bereits Gottfried Wilhelm Leibniz entwickelte 1697 die Idee, Binärzahlen zu verwenden. Nach seinen groben Entwürfen hat das Bonner Arithmeum eine Rechenmaschine gebaut, die binär mit Metallkugeln rechnet und sogar die Wurzel ziehen kann. Das Museum für Wissenschaft, Technik und Kunst im Forschungsinstitut für Diskrete Mathematik der Universität Bonn beherbergt an der Lennéstraße unter anderem die größte Sammlung mechanischer Rechenmaschinen weltweit und zahlreiche historische Computer. „Das Dezimalsystem ist das, was wir verwenden, um zu rechnen, also das Zehnersystem – sicherlich in Anlehnung an unsere Finger“, sagt Museumsdirektorin Ina Prinz.

Das Binärsystem kennt dagegen nur 0 und 1. Binärsystem ist für uns Menschen kompliziert, für elektronische Maschinen ist es hingegen ideal. Denn die beiden Ziffern können durch „Schalter aus“ und „Schalter an“ dargestellt werden. Damit war die Z3, wie die modernen PCs und Konsorten auch, ein digitaler Rechner. Diese Wort, dass dem fundamentalen Umbruch der vergangenen 75 Jahre seinen Namen gegeben hat, kommt aus dem Lateinischen und bedeutet im Wortsinn „mit dem Finger“, das heißt, dass in diskreten, also festen Stufen und nicht kontinuierlich gerechnet wird. „Auf der Digitaluhr sind fest eingeteilte Einheiten: Sie haben Stunden, Minuten, Sekunden“, erklärt Prinz. „Eine analoge Uhr hat im Gegensatz dazu ein Ziffernblatt, wo die Zeiger kontinuierlich herumlaufen, man also auch Zwischenwerte ablesen könnte.“ Auch eine Rechenmaschine, die mit Dezimalzahlen arbeiten, kann also im eigentlichen Wortsinn digital sein. Außerdem arbeitete die Z3 mit sogenannten Gleitkommazahlen, um Zahlen, die Nachkommastellen haben, darstellen zu können.

Auch Smartphones und Supercomputer heute arbeiten noch immer nach dem gleichen Prinzip wie die Z3. Horst Zuse, Informatikprofessor und Sohn Konrad Zuses

„Auch Smartphones und Supercomputer heute arbeiten noch immer nach dem gleichen Prinzip wie die Z3“, so Horst Zuse. Allerdings: Was die Rechenleistung und Geschwindigkeit anbetrifft, entspricht der Vergleich eher dem einer Schnecke zum Ferrari. Die Z3 hatte eine Taktfrequenz von rund fünf Hertz, das heißt, sie schaltete fünf Mal pro Sekunde, und brauchte beispielsweise für eine Multiplikation noch rund drei Sekunden. Moderne PCs schalten bis zu drei Milliarden Mal pro Sekunde. Heute befinden sich auf einem Mikroprozessor rund eine Milliarde Transistoren. Hätte Zuse eine Milliarde Relais unterbringen wollen, hätte er statt geschätzten drei Meter Schrankwandbreite mehr als 1300 Kilometer gebraucht, sprich die Strecke von Bonn bis ins italienische Neapel.

Ein entscheidendes Merkmal war bei der Z3 allerdings zunächst nicht vorgesehen. „Die wichtigste Eigenschaft eines Computers ist, dass er universell einsetzbar ist. Das heißt, es ist kein fest verdrahtetes Gerät, das spezialisiert auf eine bestimmte Aufgabe ist, sondern für ganz verschiedene Aufgaben einsetzbar“, sagt Peter Liggesmeyer, Präsident der Gesellschaft für Informatik. Wenn ich heute eine neue App auf mein Smartphone lade, kann es plötzlich Dinge, die es vorher nicht konnte. In der Fachsprache nennt man universell programmierbare Computer „turingmächtig“. „Man ist lange davon ausgegangen, dass die Z3 nicht turingmächtig war, weiß aber heute, dass sie mit einigen Kunstgriffe wohl universell einsetzbar gewesen wäre.“

rechenmaschine_z1jpg.jpg
Die Z1 im Wohnzimmer der Eltern. Foto: Deutsches Museum

Erfindung unter erschwerten Bedingungen

Bemerkenswert waren die Bedingungen, unter denen der junge Erfinder seine Apparate entwickelte. Zuse war Autodidakt und vollkommen abgeschnitten von den zeitgleich andernorts stattfindenden Entwicklungen. Studien- und Schulfreunde unterstützen ihn finanziell und packten mit an. Die Z3 wurde überwiegend aus Altmaterial gebaut. Regelmäßig wurden die Arbeiten in der Berliner Werkstatt durch Bombenangriffe unterbrochen. Das Nachfolgemodell der Z3, die Z4 – ebenfalls ein rund eine Tonne schweres Monstrum, brachte Zuse in mehreren Nacht- und Nebelaktionen im Frühjahr 1945 zunächst nach Göttingen, um sie dann bis zum Ende der Kriegswirren in einem Schuppen im Allgäu zu verstecken.

Während des Studiums war er Mitglied in einer rechten Studentenverbindung, die Parolen der Nationalsozialisten habe er aber nicht ernst genommen, schreibt Zuse später in seiner Autobiografie. Ob das seiner damaligen Haltung entspricht, ist schwerlich nachprüfbar. Allerdings profitierte Zuse in seiner Erfindertätigkeit vom Nazi-Regime: So wurde er vom Kriegsdienst freigestellt, um „kriegsrelevante Forschung“ zu betreiben. Rüstungsbetriebe und NS-Institutionen unterstützen Zuse finanziell.

Nach dem Krieg gründet er im hessischen Neukirchen die Zuse KG, die mehrere hundert Großrechenanlagen baute und verkaufte. Dennoch stand das Unternehmen 1964 vor dem Ruin und wurde von Siemens übernommen. „Die USA waren im Gegensatz zu Deutschland kein zerstörtes Land und die Konkurrenz dort schlief nicht“, sagt Horst Zuse. Außerdem hätten die Politiker in Deutschland das Potenzial nicht erkannt. „Der Grund war wohl Trägheit und Unverständnis. Das Land war im Wiederaufbau, es erschien wichtiger, dass die Schornsteine im Ruhrgebiet rauchten.“

Anerkennung und öffentlicher Ruhm wurde Konrad Zuse erst recht spät zuteil. Als er seine Z3 1967 zum Patent anmelden wollte, lehnte das Bundespatentamt ab. Begründung: mangelnde Erfindungshöhe. Heute sind sich Experten weitgehend einig, dass die Z3 als erster funktionsfähiger Digitalrechner bezeichnet werden kann. Konrad Zuse den Erfinder des Computers zu nennen, wäre aber zu viel gesagt. Denn etwa zeitgleich entwickelten in den USA John Presper Eckert und John William Mauchly die ENIAC und Howard H. Aiken an der Harvard-Universität den Mark I, die ebenfalls als frühe Computer gelten können.

Ich bin nicht der Einzige bin. Ich hatte nur das Glück, dass meiner zuerst lief. Konrad Zuse, zur Frage, ob er der Erfinder des Computers sei

Der englischen Mathematiker Alan Turing hatte bereits 1936 das logische Modell der Turingmaschine eingeführt. Hundert Jahre vor Erfindung des Computers entwarf der englische Mathematiker und Erfinder Charles Babbage seine „Analytical Engine“, eine zwar rein mechanische und mit Dezimalzahlen arbeitende Maschine, die aber die Architektur moderner Computer vorwegnahm, programmierbar und mit Lochkarten gesteuert. „Die Analytical Engine wäre ein vollwertiger Computer gewesen, wäre sie denn gebaut worden“, sagt Ina Prinz vom Arithmeum. Was die Computerpioniere der 1940er Jahre Babbage voraus hatten, waren elektronische Bauteile, die nicht mehr mechanisch, sondern mit Strom betrieben werden konnten.

Er habe nichts dagegen, als Erfinder des Computers bezeichnet zu werden, sagt Zuse selbst 1990 bei einem Besuch von Schülern in seinem Wohnort Hünfeld. „Solange Sie sich im Klaren sind, dass ich nicht der Einzige bin; da gibt es natürlich neben mir noch mehr, ich hatte nur das Glück, dass meiner zuerst lief.“

generation-smartphone.jpg
Ein Smartphone von heute arbeiten rund drei Milliarden Mal schneller, als die ersten Computer. Foto: dpa

Aus dem Rechenzentrum in die Hosentasche

Auch die anderen Ur-Computer waren monströse, lärmende Ungeheuer. Kein Wunder also, dass es vielen Zeitgenossen schwer fiel, das enorme Potenzial der neuen Maschinen zu erkennen. „Ich denke, dass es einen Weltmarkt für vielleicht fünf Computer gibt“, lautete die vielzitierte Prognose des IBM-Vorsitzenden Thomas Watson 1943. Ein paar Jahrzehnte später ergoss sich der IBM-PC in millionenfacher Ausführung über den Weltmarkt. Heute, in Zeiten von Smartphones und -watches liegt der Bedarf wohl eher bei fünf Computern pro Person.

Ich denke, dass es einen Weltmarkt für vielleicht fünf Computer gibt. Thomas Watson, Vorsitzender von IBM 1943

Doch die technische Grundlage dafür wurde erst 1947 mit dem Transistor, dem Basisbaustein moderner Computer, und der Entwicklung integrierte Schaltkreise Ende der 1950er Jahre geschaffen. Denn Voraussetzung für den rasanten, unvergleichlichen Wandel, den wir heute als digitale Revolution bezeichnen, war die Miniaturisierung, also der Fakt, dass auf immer kleiner werdenden Chips immer mehr Schaltungen untergebracht werden konnten. Fünfzig Jahre lang wurden Computerchips stetig kleiner, günstiger und leistungsfähiger. Und sorgten so dafür, dass der Computer innerhalb nur weniger Jahrzehnte den Weg aus den Rechenzentren in die Fabrikhallen, Büros und privaten Arbeitszimmer, in Autos, Hosentaschen und ans Handgelenk fand – und so unser alltägliches Leben revolutioniert.

Dass die Nachfolgemodelle seiner Z3 Außergewöhnliches leisten werden, hat Konrad Zuse früh vorhergesehen. In seinem Plankalkül, ein 1945/46 entwickelter Entwurf einer Programmiersprache, fanden auch Schachprogramme Platz. In 50 Jahren würden Maschinen den Schachweltmeister besiegen, habe er schon damals gesagt, heißt es. Tatsächlich sollte 1996, also genau 50 Jahre später, der IBM-Computer „Deep Blue“ den damals amtierenden Schachweltmeister Garri Kasparow schlagen. Mit den modernen Personal Computern konnte Konrad Zuse aber offenbar wenig anfangen: Ein Geschenk von Siemens zum 70. Geburtstag habe er nie angerührt, so sein Sohn Horst Zuse. „Ich denke, er fand, dass seine eigenen Maschinen viel schöner sind, das war wohl Nostalgie.“

Inzwischen droht allerdings die technische Grundlage der Informationsrevolution zu ihrem Flaschenhals zu werden. Transistoren sind nur noch 22 Nanometer (milliardstel Meter) groß. Das entspricht der Größe kleiner Viren. Endgültig Schluss ist auf der Ebene der Atome, wahrscheinlich wegen störender Quanteneffekte schon bei drei Nanometern. Ob beispielsweise der Quantencomputer Abhilfe schaffen kann, ist fraglich. Gleichzeitig wachsen die Ansprüche an Computer stetig. Waren 1993 lediglich geschätzte drei Prozent der weltweiten Speicherkapazität digital, waren es 2007 bereits 94 Prozent.

meschede.jpg
Im Quantensimulator versuchen Dieter Meschede (r.) und sein Mitarbeiter Geol Moon Atome mit Laserstrahlen zu kontrollieren. Foto: Heinz

Der nächste große Schritt?

Das Moorsche Gesetz

In einem Aufsatz äußerte Gordon Moore, einer der Mitgründer des Chipherstellers Intel, 1965 die Prognose, dass sich die Anzahl der elektronischen Bauteile einer integrierten Schaltung in regelmäßigen Abständen verdoppeln werde. Zunächst ging er von einer Verdopplung jedes Jahr aus, nach 1970, vermutete Moore, werde sich das Wachstum auf eine Verdopplung alle zwei Jahre verlangsamen.

Damit lag er fast richtig. Daher bürgerte sich für diese Phänomen, häufig auch in der leicht abgewandelten Form „ Anzahl an Transistoren pro Flächeneinheit alle 18 Monate“ die Bezeichnung „Moorsches Gesetz“ (englisch: Moore’s law) ein.

Selbstverständlich handelt es sich dabei keinesfalls um ein Naturgesetz, sondern lediglich eine Faustregel, die sich in der Realität bewahrheiten hat – und zugleich wohl um eine sich selbsterfüllende Prophezeiung, denn das Moorsche Gesetz ist den Chiphersteller zum Ansporn geworden. Milliarden werden in die Forschung investiert, um es am Leben zu halten. Heute stößt die Technik allerdings an ihre Grenzen.

Wer einmal zwischen 2 Uhr nachts und 5 Uhr morgens durch die Bonner Wegelerstraße spaziert, wird womöglich in den Laboren des Institut für Angewandte Physik Licht brennen sehen. „Die besten Bedingungen haben wir nämlich, wenn nachts die Straßenbahn abgeschaltet wird“, sagt Professor Dieter Meschede. In der Arbeitsgruppe des Physikers an der Bonner Universität werden Quantenobjekte erforscht. Sie zu kontrollieren ist Voraussetzung dafür, dass die Vision eines Quantencomputers Wirklichkeit wird. „Unsere Umgebung ist sehr verrauscht mit elektromagnetischem Schmutz, Bewegung, Akustik – und all das müssen wir loswerden, um die Qubits kontrollieren zu können.“

Mit dem drohenden Ende des Moorschen Gesetzes (siehe Infokasten) werden große Hoffnungen in neue Computerkonzepte gesetzt. Eines davon ist der Quantencomputer. Weltweit forschen Teams daran, wie er sich umsetzen lässt. Im Gegensatz zu klassischen Rechnern, die mit Bits arbeiten, also Schaltern, die entweder ein- oder ausgeschaltet sind, arbeitet der Quantencomputer mit Qubits. Ein Quantenbit wird mit einem Teilchen realisiert – das kann ein Atom, ein Elektron oder Photon sei – und kann neben den klassischen Informationszuständen Null und Eins auch beliebige Zwischenzustände, so genannte quantenmechanische Überlagerungszustände, annehmen. Bei der Messung allerdings wird daraus wieder ein ganz konkreter Zustand, ein klassisches Bit.

In einem Quantensimulator versuchen die Bonner Physiker, Atome in einer Glaszelle, abgeschirmt gegen Störungen von Außen, mit Lasern zu kontrollieren. „Wir sind immer noch in einem Zustand, wo wir bestenfalls eine Handvoll Qubits kontrollieren können“, sagt Meschede. 30 bis 50 Qubits würden benötigt, um klassische Computer hinter sich zu lassen.

Eine weitere Herausforderung ist, die verschiedene Teile eines Quantencomputers miteinander sprechen zu lassen. Eine Etage über dem Büro von Meschede sitzt Professor Michael Köhl. Der renommierte Experte auf dem Gebiet der Quantenoptik ist vor drei Jahren aus Cambridge nach Bonn gekommen. Seine Arbeitsgruppe erforscht unter anderem, wie in der Quantenkommunikation Informationen über große Distanzen übertragen werden können. „Dazu muss man tatsächlich einzelne Photonen, also Lichtteilchen, von A nach B übertragen.“ Die Quantenkommunikation habe noch einen anderen Vorteil: „Sie ist absolut sicher. Wenn jemand Signale überträgt, kann er feststellen, ob ihn jemand abhört.“

Der Quantencomputer ist konzeptionell etwas ganz anderes. Michael Köhl, Professor für Physik

Prognosen, wann die ersten Quantencomputer zum Einsatz kommen werden, wollen die beiden Experten nicht wagen. „Ich halte es für eher wahrscheinlich, dass wir ihn in 100 Jahren haben, als dass wir ihn nicht haben. Es gibt bislang keinen grundsätzlichen Grund, warum wir ihn nicht haben könnten“, sagt Meschede. Einen Fortschreibung der heutigen Digitalrechner sei der allerdings primär nicht. „Er ist konzeptionell etwas ganz anderes, er rechnet einfach anders. Dadurch kann er bestimmte Probleme viel, viel effizienter lösen“, sagt Köhl. Beispielsweise aus dem Produkt zweier riesiger Primzahlen auf die beiden Primzahlen zurückzuschließen, eine Aufgabe, an der sich klassische Rechner die Zähne ausbeißen. Damit könnten gängige, bislang sichere Verschlüsselungsverfahren einfach geknackt werden. Kein Wunder also, dass Geheimdienste besonderes Interesse am Quantencomputer haben. Internetkonzerne wie Google hoffen außerdem auf effizientere Verfahren, um Datenbanken zu durchsuchen.

Ein Quantencomputer auf dem heimischen Schreibtisch: Das werde in absehbarer Zeit nicht eintreten. „Es wird eher ein Spezialcomputer sein, der in Rechenzentren steht“, so Köhl. Konrad Zuse allerdings hätte sich, als er vor 75 Jahren die Z3 erfand, das Ausmaß der nachfolgenden Entwicklung wohl auch nicht erträumt.

cebit.jpg
Die Industrie 4.0 braucht Computer, die sich selbst verändern können. Foto: dpa

Angst vor dem Homunkulus

Mit rapide wachsenden Datenmengen steigt im Privaten wie in der Industrie auch der Bedarf an Rechenleistung. „Ich glaube, dass in Zukunft unter dem Stichwort Industrie 4.0 vorher getrennte Tätigkeitsfelder wie Produktionstechnik, Daten und Computer zusammenwachsen werden“, sagt Peter Liggesmeyer. „Massenindividualisierte Produkte sind die Zukunft, das heißt Produkte, die jeder Kunde auf sich selbst zuschneiden kann. Das erfordert Maschinen, die sich autonom konfigurieren.“ Computer müssten sich zukünftig selbst verändern können . „Natürlich nur unter bestimmten Rahmenbedingungen, damit sie nicht gefährlich werden.“

Dass die Maschinen bald uns Meschen beherrschen, glaubt Ina Prinz allerdings nicht. Weil er eine hölzerne Rechenmaschine entwarf, die, wenn einmal angeworfen, Rechnungen ohne menschliches Eingreifen durchführen konnte, habe der italienische Mathematiker Giovanni Poleni Anfang des 18. Jahrhunderts im Clinch mit der Kirche gelegen. „Schon damals haben die Leute gesagt: Wenn es eine Maschine gibt, die rechnen kann, dann ist der Homunkulus, also ein künstlich geschaffener Mensch, gar nicht mehr weit.“ Auch komplexe Systeme wie der IBM-Computer Watson seien von der Hardware abhängig und davon, was Menschen programmiert haben. „Dass ein Computer selbsttätig kreative Lösungen vorschlägt oder sagt: ‚Ich habe keine Lust mehr‘, das wird so schnell nicht passieren.“ Und das gehöre schließlich auch zur Intelligenz.

Teilen Sie diese Geschichte

Diskutieren Sie mit der Autorin:

Johanna Heinz on EmailJohanna Heinz on Twitter
Johanna Heinz
Johanna Heinz
Redakteurin beim General-Anzeiger Bonn
Johanna Heinz ist seit Dezember 2015 Online-Redakteurin. Davor hat sie zwei Jahre lang in der Lokalredaktion Bonn gearbeitet. Liebt Kaffee, Bücher und gute Geschichten – egal ob gedruckt, gepostet, getwittert oder gefilmt.

Aufmacherfoto:

Fotolia