Die Zeit der Großrechner
1941 konstruiert der deutsche Ingenieur Konrad Zuse in Berlin den ersten universell programmierbaren Computer. Der Z3 kann Flatterbewegungen von Flugzeugen berechnen. Ab 1943 knackt der britische Rechner Colossus verschlüsselte Codes. An der Universität von Pennsylvania entwickeln derweil Forscher im Auftrag der US-Armee den Eniac, der Flugbahnen vorhersagt. Die Ära der Großrechner hat begonnen. Erste zivile Anwendungen sind Berechnungen zur Bevölkerungsstatistik und Prognosen bei Präsidentschaftswahlen.
Anfang der Fünfzigerjahre kaufen auch Unternehmen die ersten kommerziellen Rechner für einfache Büroroutinen wie Lohnbuchhaltung und Lagerverwaltung. Die Grundlagen für die elektronische Datenverarbeitung sind gelegt. 1956 treffen sich führende Mathematiker, Informations- wissenschaftler, Kybernetiker und Elektroingenieure im Dartmouth College. Die Optimisten unter ihnen glauben, in wenigen Jahren künstliche Intelligenz zu schaffen. Die Pessimisten behalten recht.
Die Roboter kommen
Unimate übernimmt 1961 als erster programmierbarer Roboter Schweißarbeiten in einer General-Motors-Fabrik in New Jersey. In der Late-Night-Show von Johnny Carson schlägt die vielseitig einsetzbare Maschine einen Golfball in eine Tasse, schenkt ein Bier ein und dirigiert die Studioband. Die Zusammenarbeit von Computern und anderen Maschinen gibt der Automatisierung einen Schub – ebenso der Fantasie von Science-Fiction-Autoren. Dank neuer Programmiersprachen wie Cobol und Basic kann man Computern leichter Anweisungen geben. Sie lernen, nicht nur Zahlen, sondern auch Texte zu verarbeiten. Die ersten Datenbanksysteme erlauben den schnellen Zugriff auf strukturierte Informationen. Und am Ende der Sechzigerjahre verbindet das Arpanet im Auftrag der US-Luftwaffe mehrere Rechner miteinander.
Chips und Software
Von 1969 an entsteht in den Bell Laboratories das Betriebssystem Unix. Bis dahin liefern die Hersteller der Großrechner, allen voran IBM, die Programme für ihre Rechenmaschinen gleich mit. Offenere Betriebssysteme wie Unix und neue Programmiersprachen wie Pascal und C erlauben intelligentere Anwendungen. Fünf Spezialisten aus Mannheim nutzen die neuen Möglichkeiten – und gründen im Jahr 1972 die Firma SAP.
Drei Jahre später bricht Bill Gates sein Studium ab, um sein Software-Imperium zu schaffen. Derweil treiben Chipentwickler wie Intel die Miniaturisierung der Hardware voran. Computer werden kleiner, rechnen schneller und speichern mehr Daten. Das ermöglicht den nächsten großen Entwicklungssprung.
Die PC-Revolution
1983 kommt der Commodore 64 in Deutschland zum Preis von 1450 Mark auf den Markt. Der C 64 ist bis heute der meistverkaufte Heimcomputer der Welt und erbringt endgültig den Beweis: Computer sind Maschinen für alle. Die jungen Nutzer spielen auf Personal-Computern Space-Invaders oder Decathlon, die Eltern schreiben ihre Briefe ans Finanzamt damit. Den größten Effekt haben die PCs in den Büros, wo sie dank neuer, günstiger Software zum Beispiel Tabellenkalkulationen erledigen können. Die IBM, größter Hersteller von Großrechnern, wird auch zum erfolgreichsten Produzenten von Büro-PCs. Und nicht nur in diesem Konzern erkennt man: Ideal wäre es, die Vorteile der Zentralrechner und die der PCs zu verbinden. Mitte der Achtzigerjahre entstehen die ersten sogenannten Client-Server-Archi-tekturen: PCs können Daten vom Zentralrechner abrufen und dort wieder speichern. Eine Vision wird Wirklichkeit.
Die Vernetzung der Welt
Von 1989 an entwickelt der britische Physiker und Informatiker Tim Berners-Lee ein System, das den Datenaustausch zwischen verschiedenen Standorten des Kernforschungszentrums Cern erleichtern soll. Dafür erfindet er die Seitenbeschreibungssprache HTML, das Transferprotokoll HTTP und das Prinzip der Webadresse, später URL genannt. 1990 geht die erste Webseite Info.cern.ch online. 1993 macht der Browser Mosaic dieses Netz für jedermann zugänglich. Das Internet erlaubt Zugang zu Informationen für alle und revolutioniert mit der E-Mail die Kommunikation. Und es wird zur technischen Plattform für eine neue Ökonomie. Die erste Unternehmer-Genera-tion im Internet gründet Amazon (1994), Ebay (1995), Google (1996) und Zigtausende weitere Firmen, finanziert von Risikokapitalgebern und Aktionären. Im März 2000 platzt die Spekulationsblase. Ein großer Teil der Dotcom-Unternehmen geht pleite. Nur noch notorische Technikoptimisten sagen: „Wette niemals gegen das Internet.“
Das Netz wird sozial und mobil
2003 stellt Mark Zuckerberg, Student der Harvard University, die Website Facemash.com online, wo die Attraktivität von Studentinnen und Studenten bewertet werden kann: „Hot or not.“ Viele Kommilitoninnen sind nicht begeistert. Nach wenigen Tagen geht die Seite wieder offline. Die Universität leitet eine Untersuchung unter anderem wegen Datendiebstahls ein, die im Sande verläuft. 2004 gründet Zuckerberg Facebook. Das Netzwerk wird wie Twitter und Youtube zu einer der größten Plattformen des Web 2.0, in dem Menschen Inhalte selbst produzieren und ihre Vorlieben mit anderen teilen. „Ge-shared“ werden fortan nicht nur Nachrichten, Meinungen und Fotos, sondern auch Privatwohnungen, Fahrräder und Autos. Onlinedating wird zur sozialsten aller Funktionen im sozialen Netz. Das mobile Internet beschleunigt die Entwicklung. Eine halbwegs brauchbare Infrastruktur gibt es in Deutschland mit UMTS seit 2002. Fünf Jahre später kommt das iPhone auf den Markt und befeuert die App-Economy. Während des kommenden Jahrzehnts werden die meisten digitalen Geschäftsfelder von zwei bis drei Konzernen erobert, die den Markt als Oligopole beherrschen.
Die Datafizierung der Welt
Menschen produzieren im Netz ungeheure Mengen an Daten – und vernetzte Maschinen tun dies ebenfalls. Diese maschinenlesbaren Informationen sind der eigentliche Kern des großen Veränderungsprozesses, den wir Digitalisierung nennen. Denn dank Big Data können Menschen die Welt besser verstehen und steuern. Das ist die Grundlage aller großen IT-Trends unserer Zeit, wie Cloud-Computing, künstliche Intelligenz und das Internet der Dinge. Die US-amerikanischen und chinesischen Superstarfirmen verdanken ihre Macht und ihren Wert ihrem Datenreichtum und ihrer Fähigkeit, diesen Schatz klug zu nutzen. Ihre Markt-Oligopole sind Folge einer Informationsasymmetrie, nämlich einer extrem ungleichen Verteilung der Daten. Der Zugang zu Daten wird der nächste große Verteilungskampf der Weltwirtschaft.
Das Vorhersage-Paradox
Big Data verspricht, die Zukunft besser vorherzusagen. Das funktioniert, wenn sich Entwicklungen aus der Vergangenheit mehr oder weniger linear in die Zukunft fortschreiben lassen. Allerdings macht die Digitalisierung die Zukunft unberechenbarer, weil sie neue Techniken hervorbringt, die lineare Entwicklungen unterbrechen können. Zum Beispiel Quantencomputer – wenn diese halten, was sie versprechen. Was genau das bedeutet, werden wir erst wissen, wenn die Zukunft Gegenwart ist.
(Quelle: brandeins Wirtschaftsmagazin)