Vom Lochstreifen zum Supercomputer

Es ist gar nicht so leicht, die Geschichte des Computers mit ihren wichtigsten Stadien nachzuvollziehen. Trotzdem versuchen wir es. Komprimiert findet ihr den Überblick ab den 40er Jahren in der Bildgalerie etwas weiter unten.

Wer sich für die Zukunft interessiert, springt gleich unter die Galerie. Künstliche Intelligenz, Neurotransmitter und Quantencomputing sind Aspekte, die man weiter verfolgen sollte.

Analoge Rechenmaschinen

Zu Beginn am Besten erstmal eine Begriffsklärung: Der Begriff „Computer“ kommt vom lateinischen Wort „computare“. Das bedeutet „berechnen“ oder zusammenrechnen“.

Es gab in der gesamten Menschheitsgeschichte schon immer analoge Rechenmaschinen, die auf verschiedene Zahlensysteme angewandt wurden: den Abakus, das Rechenbrett des Pythagoras, das Räderwerk von Antikythera. Im MIttelalter war „Computer“ eine Berufsbezeichnung für Menschen, die komplizierte Kalkulationen vornahmen, zum Beispiel für Astronomen.

Mechanische Rechenmaschinen

Zu Beginn des 17. Jahrhunderts wurden die ersten mechanischen Rechner erfunden. Dazu zählen die Logarithmentafel von John Napier (1614), die Pascaline von Blaise Pascal (1642) und die Vierspezies-Maschinen von Wilhelm Schickard (1632) und von Gottfried Wilhelm Leibniz (1673). Letzterer ersann das binäre Zahlensystem, das die Grundlage der ersten Digitalrechner bildete.

Das Mooresche Gesetz (engl. Moore’s Law) besagt, dass sich die Anzahl der Transistoren auf einem Computerchip alle 18 – 24 Monate verdoppelt. Das heißt, dass sich die Leistung von Computerchips alle zwei Jahre verdoppelt.

Digitale Rechenmaschinen

Heute versteht man unter einem „Computer“ eine digitale Rechenmaschine, die mithilfe von Programmen, also Software, Daten verarbeitet. Die ersten elektronischen Rechner aus den 40er Jahren waren noch so groß wie Schränke – heute passen Computer in jede Hosentasche. Ja, die Smartphones sind gemeint. Sie sind schon lange keine Telefone mehr, sondern hochleistungsfähige Mini-Computer im Handtaschenformat.

Text: 1940er – Lochstreifen-Maschinen. Bild: eine alte Lochstreifenmaschine
Seit Ende des 19. Jahrhunderts sind Lochkarten vorherrschende Datenträger, das bleibt noch bis in die 60er Jahre so. Konrad Zuse baut aber in den 40ern die erste programmgesteuerte binäre Rechenmaschine namens Zuse3. Sie wird oft als erster funktionsfähiger Computer der Geschichte betrachtet.
Text: 1950er – erste kommerzielle Computer. Bild: ein alter Serverschrank aus den 50ern
Elektronenröhren – also Glas-, Stahl oder Keramikkolben mit Dioden darin – werden durch Transistoren ersetzt. Außerdem beginnt der Einsatz von Magnetplatten als Speichermedium. Die ersten Rechner werden somit kleiner, leistungsfähiger und störungssicherer. Die Serienfertigung beginnt, obwohl Computer immer noch Tisch- bis Schrankgröße haben.
Text: 1960er – erste Computerarchitekturen. Bild: ein alter Computer aus den 60ern
Großrechner verbringen viel Zeit damit, auf Ein- oder Ausgabegeräte zu warten. Gelöst wird dieses Problem durch das Multiprogramming; während ein Programm wartet, kann ein anderes ausgeführt werden. IBM definiert 1964 die erste Computerarchitektur S/360, mit der Rechner verschiedener Leistungsklassen denselben Code ausführen können.
Text: 1970er – Mikroprozessoren. Bild: eine Platine
Zu Beginn der 1970er Jahre überrascht die Firma Intel, sie bringt ganze Reihen von Transistoren auf einem kleinen Stück Silizium unter. Der Mikroprozessor ist geboren, Computer werden kleiner und schneller. Es gibt schon Personal Computer, aber erst mit den Entwicklungen von Apple und Commodore werden sie wirklich attraktiv.
Text: 1980er – Blütezeit der Heimcomputer. Bild: Ein alter PC aus den 80ern
Das Unternehmen IBM stellt 1981 den IBM-PC mitsamt der Konstruktionsdaten vor, nach dem sich viele weitere Entwicklungen richten werden. Die Computer-Fernvernetzung - auf Deutsch DFÜ (Datenfernübertragung - wird an Universitäten und in Firmen immer stärker benutzt, und zwar über das Usenet mit Diskussionsforen aller Art in reiner Textform.
Text 1990er, World Wide Web. Bild: ein Globus
„Das Internet“ bekommt eine einheitliche Sprache, den Hypertext, und Beschreibungen für Übertragungsprotokolle. Es ist zunächst nur amerikanischen Streitkräften und Universitäten zugänglich, wird in den 90ern aber für die kommerzielle Nutzung freigegeben. In seinen Anfängen ist es eine Tauschökonomie mit freiem Zugang zu Software und Informationen.
Text: 21. Jahrhundert - Supercomputer. Bild: mehrere Serverracks
Computer sind in beruflichen wie privaten Bereichen allgegenwärtig, sogar unsere Telefone sind hochleistungsfähige Mini-Computer. Seit den 70ern werden auch sogenannte Supercomputer entwickelt. Heute benutzt man den Begriff vor allem für Server, die in einem Netzwerk miteinander verbunden sind und über spezielle Software in Clustern zusammenarbeiten.

Künstliche Intelligenz – quo vadis?

Es ist schwer abzuschätzen, wie „der Computer“ der Zukunft aussehen wird. Der immer neugierige Mensch experimentiert. Bevorzugt nach der vor Jahrhunderten aufgestellten wissenschaftlichen Maxime „Trial and Error“ – Versuch und Irrtum.

So sagte zum Beispiel Ryan Adams, Informatik-Professor und Gründer eines an Twitter verkauften Start-ups für Maschinenlernen, noch im Jahr 2016 über das Deep Learning von künstlicher Intelligenz (Erklärungen zu Begriffen siehe unten bei MEHR INPUT): „Diese Deep-Learning-Systeme machen coole Sachen. Wir verstehen sie kaum, aber sie funktionieren“.

Aufruf zu differenzierter Folgenabschätzung

Die Rechenprozesse der Algorithmen von künstlicher Intelligenz (KI) sind auch vier Jahre später noch zu schnell und zu differenziert, um sie im Detail nachzuvollziehen. Schlagzeilen wie „Steven Hawking warnt vor KI als schlimmstem Ereignis der Zivilisationsgeschichte“ oder „Elon Musk fürchtet, KI könne die Kontrolle über uns übernehmen“ schüren eine unangemessene Besorgnis.

Beide Männer äußern sich – beziehungsweise äußerten, denn Stephen Hawking verstarb im März 2018 – sehr differenziert dazu, warum sie solche Behauptungen aufstellen. Sie „prophezeien“ gar nichts, sondern formulieren sehr bedacht mit „könnte“. Und plädieren für eine kontrollierte Herangehensweise an diese neue Technologie unter Beachtung ethischer Vorgaben. Bitte unbedingt die unter MEHR INPUT verlinkten Artikel lesen.

Neurotransistoren

Jetzt gerade im Juli 2020 brachte der Bigdata Insider einen Artikel heraus, der die jüngsten Forschungsergebnisse der TU Dresden und des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) thematisiert. In einem Projekt wurden Neurotransistsoren entwickelt, die die Arbeitsweise des menschlichen Gehirns nachahmen.

Würde man Roboter mit solchen Transistoren ausstatten, könnten diese Zusammenhänge erkennen und viele menschliche Funktionen nachahmen, ohne dass man sie programmieren müsste – so lautet es zumindest von Seiten der Wissenschaftler.

Quantencomputer

Super kompliziert! Derzeit benutzte digitale Computer sind immer auf Rechenprozesse angewiesen, die sich zwischen zwei Gegensätzen entscheiden: Null oder Eins. Um es zu veranschaulichen: Man fährt mit dem Auto los und entscheidet sich an jeder Kreuzung, ob man nach rechts oder links fährt. Immer wieder.

Quantencomputer können mehr: Für sie gibt es keine Entweder-Oder-Entscheidung. Sie können im Prinzip zur gleichen Zeit die Wege nach rechts, nach links, nach geradeaus und sogar nach oben oder unten berechnen. Und sie müssen nicht sofort entscheiden.

Übertragen auf unser Beispiel: Das Auto steht / schwebt an der Kreuzung und man hat als Fahrer sehr viel Zeit, um zu überlegen, wohin man nun fahren möchte – rein theoretisch könnte man sogar rückwärts, in einer Spirale oder eigentlich in jede beliebige Richtung fahren / fliegen. Das ist das Prinzip des Gedankenexperimentes Schrödingers Katze.

Das Prinzip von Schrödingers Katze, erklärt von Harald Lesch (Astrophysiker und Wissenschaftsjournalist)

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Wie geht es weiter?

An dieser Stelle müssen wir den Artikel quasi unterbrechen. Zum einen ist der ohnehin schon viel zu lang geworden! Wer liest denn soviel Text im Netz? Zum anderen bereiten wir gerade die Ausgabe 4 des Print-Magazins Datareport vor. Und was denkt ihr, was wir da planen? – Genau: Eine Infografik, die das Quantencomputing allgemeinverständlich erklärt.

Also: stay tuned. Den Datareport findet ihr alle drei Monate neu hier auf datareport.online über das Pop-up oder auf dataport.de zum Download vor. Dort könnt ihr übrigens auch ältere Ausgaben runterladen und lesen. Oder ihr abonniert euch das Print-Heft – wir schicken euch das kostenfrei nach Hause oder ins Büro.

Wir kündigen jede Ausgabe rechtzeitig auf Twitter und auf LinkedIn an, so dass ihr das neueste Magazin nicht verpasst. Und stellen euch auf unseren Social-Media-Plattformen außerdem regelmäßig spannende Artikel vor.

Mehr Input

Service für alle, die jetzt zuhause arbeiten

Das aktuelle Heft als PDF zum Download

Green IT - Rechenzentren und die Digitalisierung Energiegemeinschaft - Bürger tauschen Strom über Blockchain
Smarte Pflege - Was leisten digitale Helfer?
Ja, ich will den Datareport lesen
Titelblatt des Datareport 1 / 2020. Als Motiv ist ein grünes Sparschwein zu sehen, das eine Brille auf hat. Der Ringelschwanz sieht aus wie eine wachsende Pflanze. Vor dem Schwein befinden sich mehrere Stapel Münzen. Der Titel lautet
close-link