Vorwort
Es freut mich, dass Sie sich für dieses Buch und damit für meine Sicht auf die Computergeschichte interessieren. Vielleicht ist dies Ihr erster Zugang zur Geschichte der Computer, vielleicht sind Sie aber auch bereits ein richtiger Kenner und fragen sich nun, warum es denn noch ein Buch darüber braucht. Gibt es nicht schon genügend davon? Lassen Sie mich zur Beantwortung dieser Frage ein wenig über die Beweggründe hinter diesem Buch sprechen.
Die Idee für dieses Buch entstand im Rahmen von Seminaren und Vorlesungen zu den Themen digitale Medien, Geschichte interaktiver Systeme und Software-Ergonomie, die ich in den letzten Jahren an der Universität Paderborn gehalten habe. Ich hatte es dort mit wissbegierigen, interessierten Studierenden zu tun, die aber, wie es bei Studenten und Studentinnen nun mal so ist, alle ziemlich jung waren. Die Studierenden des Jahres 2021 sind um das Jahr 2000 herum auf die Welt gekommen und haben nie eine Zeit ohne allgegenwärtige Computer erlebt. In ihrer Welt gab es immer PCs, Laptops und wahrscheinlich auch immer schon Handys und Smartphones. Für diese jungen Menschen ist es ganz normal, dass diese Geräte über aufwändige grafische Nutzungsoberflächen verfügen, die die ihnen zu Grunde liegende Technik weitgehend vor ihnen versteckt. Wenn ein Computer nach dem Starten nur weißen Text auf schwarzem Grund zeigt, dann heißt das für sie, dass mit dem Computer wohl etwas nicht in Ordnung sein muss. Nun will ich unsere Studierenden nicht falsch darstellen und mich lustig machen. Natürlich wissen sie, dass es die heutigen Nutzungsschnittstellen nicht immer gab. Die meisten von ihnen haben sogar auch schon mal von so etwas wie Lochkarten gehört, aber wann man mit gelochten Karten gearbeitet hat und was das Programmieren mit Lochkarten bedeutete, wie umständlich das war, das haben sie sich meist nicht klargemacht.
Es gibt – nicht nur für unsere Studierenden – viele Argumente, die dafür sprechen, einen Blick in die Computergeschichte zu werfen. Es ist nahezu immer hilfreich, zu wissen, warum die Dinge so geworden sind, wie sie heute sind. Nicht nur weiß man dann die Leistung derer, die an der Entwicklung und Verbesserung moderner Computertechnik maßgeblich beteiligt waren, zu schätzen. Man kann bei aktuellen Nutzungsschnittstellen dann auch einschätzen, ob die Potenziale, die aktuelle Schnittstellen bieten, auch ausgenutzt werden oder ob sie hinter den Möglichkeiten zurückbleiben. Sich für Computergeschichte zu interessieren ist also eine lohnenswerte Sache. Doch wo soll man beginnen und worauf sollte man seinen Blick richten?
Unter der großen Menge an Büchern über Computergeschichte findet sich eines von Sean Mahoney mit dem spannenden Titel „Histories of Computing“1. Das ist kein Vertipper. Mahoney verwendet hier bewusst das Wort „Histories“ in der Mehrzahl. In der Tat gibt es nicht die eine kohärente Computergeschichte, die man erzählen könnte, sondern ganz unterschiedliche Aspekte, die man betrachten kann. Ein Ansatz kann zum Beispiel das Erzählen von Firmengeschichten sein, etwa die Geschichten von IBM, von Apple oder auch von Microsoft. Ein anderer Ansatz ist die Beleuchtung der Geschichte der Protagonisten der Computergeschichte, etwa von Konrad Zuse, Bill Gates oder Linus Torvalds, um einmal relativ beliebig drei Protagonisten herauszugreifen. Man kann bei der Betrachtung der Computergeschichte natürlich auch eine rein technische Perspektive einnehmen und die Geschichte der Geräte, die Entwicklung der Speichertechnik, der Prozessortechnik und der Softwaretechnik erzählen. Für all diese Ansätze finden Sie auf dem Markt viele Beispiele. Betrachtenswert und meiner Meinung nach sehr interessant wäre auch ein Blick auf die Visionen und Hoffnungen, die mit der Computertechnik verbunden waren. Wieso zum Beispiel sprach man in den 1960er Jahren noch vom Elektronengehirn, heute jedoch nicht mehr? Diese durchaus bemerkenswerte Perspektive findet man in heutiger Computergeschichtsliteratur allerdings leider recht selten.
Viele populäre Dokumentationen der Computergeschichte, sei es in Buchform, als Fernseh-Dokumentation oder als Internetvideo, sind nicht nur nüchterne, wissenschaftliche Blicke auf die Vergangenheit, sondern oft sehr subjektive Sammlungen von Geschichten. Es werden manche Erzählungen und Legenden rund um die historischen Ereignisse aufgegriffen, nacherzählt und mit belegbaren historischen Fakten versponnen. Viele dieser oft spannenden Erzählungen wurden von den Protagonisten der Entwicklungen selbst in die Welt gesetzt, andere entstammen den Marketingabteilungen der Computer- und Software-Hersteller.
Schaut man sich auf dem Markt der Dokumentationen über Computergeschichte um, kann man grob drei Gattungen ausmachen:
Historische Überblicke versuchen, viele der genannten Geschichtsperspektiven gleichzeitig zu betrachten, im Versuch, einen möglichst guten Gesamtüberblick zu geben. Vollständig können diese Überblicke natürlich nie sein, sind aber durchaus ein guter Einstieg. Lesenswert sind hier die Geschichtsbetrachtungen, die es hinbekommen, neben dem Geschichtenerzählen auch größere Entwicklungsstränge und deren Hintergründe darzulegen. Empfehlenswert sind zum Beispiel die Bücher von Paul Ceruzzi („A History of Modern Computing“ und „Computing: A Concise History“) und die ZDF-Dokumentation „Geheimnisse der digitalen Revolution“, die Sie auch online bei YouTube finden können.
In Detail-Dokumentationen werden einzelne Computer oder spezielle Entwicklungen punktuell und sehr detailliert betrachtet. Beispiele sind Bücher über den ENIAC2 oder über die Frühgeschichte des Internets3. Derartige Dokumentationen sind oft sehr lesens- und sehenswert, da sie häufig mit beliebten Vorurteilen aufräumen. Mein persönlicher Tipp bei solchen Dokumentationen ist es, Bücher aus der Feder unmittelbar beteiligter Protagonisten zu meiden oder beim Lesen zumindest zu bedenken, dass hier jemand auf seine eigenen Heldentaten zurückblickt.
Ein Großteil der am Markt verfügbaren populären Bücher und Videodokumentationen gehört zu den nostalgischen Rückblicken. Sie beschäftigen sich zumeist mit den Heimcomputern der 1980er und 1990er Jahre. Oft liegt der Fokus der Betrachtung auf der Eignung der Geräte als Spieleplattform und auf den eigenen Erfahrungen der Autoren, die sie in ihrer Jugend mit den Rechnern gemacht haben.
Mein Ansatz in diesem Buch ist eine weitere Perspektive, über die ich in dieser Form noch kein Werk gefunden habe. Ich betrachte nicht die Protagonisten oder die Firmen und auch nicht in erster Linie die technischen Fortschritte in der Rechentechnik, sondern konzentriere mich auf die Evolution der Interfaces, also auf die Nutzungsschnittstellen. Allgemeiner formuliert interessiert mich in diesem Buch, wie sich die Art und Weise, Computer zu bedienen, im Laufe der Zeit entwickelt hat und was hinter den Entwicklungen stand. Der Begriff „Evolution“ im Titel ist dabei nicht leichtfertig gewählt. Evolution ist in der Biologie nicht einfach eine beliebige Entwicklung, sondern eine zusehends bessere Anpassung einer Lebensform an die Umweltbedingungen und die sich aus ihnen ergebenden Gefahren. Will man die Evolution einer Spezies erklären, muss man immer auch deren Umwelt mitbetrachten. Natürlich muss klar sein, dass es sich bei der hier beschriebenen Evolution nicht ganz so verhalten kann, wie in der Biologie, denn technische Geräte leben ja nicht und verändern sich nicht aus sich heraus, sondern werden von ihren Nutzern und Erzeugern weiterentwickelt oder den Nutzerbedürfnissen entsprechend angepasst. Ich halte den Begriff Evolution trotzdem für passend, denn was die Entwicklung der Nutzungsschnittstellen der Computer mit der biologischen Entwicklung gemein hat, ist ihre Wechselwirkung mit der Umwelt. Bei der biologischen Evolution ist es die natürliche Umgebung einer Spezies, die betrachtet werden muss, und bei der Evolution der Nutzungsschnittstellen sind es der Stand der Rechentechnik auf der einen und die Nutzungsanforderungen, die an den Computer und seine Bedienung gestellt werden, auf der anderen Seite.
Vollständig unvollständig
Ich gebe Ihnen in diesem Buch aus meiner spezifischen informatisch-technischen Perspektive der Nutzungsschnittstelle einen historischen Überblick über die Computergeschichte. Das versuche ich möglichst korrekt zu machen. Auf Fehler und Irrtümer möge man mich bitte hinweisen. Ein Anspruch, den ich hier nicht erfüllen kann, ist der an die Vollständigkeit. Nicht jedes wichtige Gerät der Computergeschichte und nicht jede wichtige Software ist auch für meine Blickweise interessant und daher in diesem Buch erwähnenswert. Seien Sie mir also bitte nicht böse, wenn Ihr Lieblingsgerät oder Ihre Lieblings-Software keine Erwähnung findet. Einige prominente Beispiele, die hier nicht oder allenfalls ganz am Rande betrachtet werden, sind:
- Das Betriebssystem OS/2 wurde zunächst von Microsoft und IBM zusammen und später von IBM allein als Nachfolger für MS-DOS und Windows entwickelt. Späte Versionen haben eine sehr interessante Nutzungsschnittstelle, allerdings war die Zahl der Nutzer im Vergleich zu Windows verschwindend gering.
- Märkte außerhalb der USA und Deutschland. Großbritannien hatte in den 1980ern und 1990ern sein ganz eigenes Ökosystem von Computern mit Firmen wie Sinclair, Amstrad und Acorn. Das nachhaltigste Produkt dieser zuletzt genannten Firma ist nicht etwa eine Nutzungsschnittstelle, sondern eine Prozessorarchitektur. Eine Acorn RISC Machine (ARM) befindet sich heute in nahezu jedem Smartphone. Auch Japan verfügte über eine interessante eigene Computerszene.
Es gibt noch etwas, was ich hier ganz explizit nicht mache: Viele an der Computergeschichte Interessierte scheint die Frage umzutreiben, zu klären, welcher Rechner der erste war oder wer eine bestimmte Idee als erster oder als erste hatte. Diese Fragen erscheinen mir unsinnig, denn Geschichte ist kein Wettbewerb! Im Bestreben, den Ersten zu finden, gerät das, was die Geräte, die technischen Innovationen oder die Interface-Ideen ausgemacht hat, schnell aus dem Blick. Damit nicht genug: Den Ersten, die oder das Erste zu finden, funktioniert meist schlichtweg gar nicht. In einer Nachbetrachtung ist es nahezu immer möglich, noch ein Gerät ans Tageslicht zu befördern, das man unter bestimmten Umständen als noch früheres bezeichnen kann, ein Schriftstück zu finden, indem jemand eine Idee schon Jahre vor ihrer Umsetzung angedeutet hat oder gar einen Visionär ausfindig zu machen, der Jahrzehnte vor einer Entwicklung, meist neben viel Unsinn, genau das vorausgesagt hat, was dann eingetreten ist. Man findet zu jedem Ersten immer noch einen Vorgänger oder Vorläufer. Schlimmer noch: Die Suche nach einem Ersten suggeriert eine Art Singularität. Das erste Exemplar erscheint als Geniestreich, als hätte jemand etwas geradezu Undenkbares nun doch gedacht und umgesetzt. So komplexe Entwicklungen wie der Computer haben aber immer eine ebenso komplexe Vorgeschichte und erstehen nicht als Gedankenblitz einfach so aus dem Nichts. Ich kann Ihnen an dieser Stelle einen Besuch im Heinz Nixdorf MuseumsForum in Paderborn empfehlen. Das Museum bezeichnet sich selbst als das größte Computermuseum der Welt. Das wirklich Spannende an dem Museum ist aber nicht seine schiere Größe oder die Anzahl der ausgestellten Exponate, sondern dass mindestens die Hälfte der Ausstellung die Computergeschichte vor dem Erscheinen der ersten Computer erzählt und so den Computer in die Jahrtausende umfassende Geschichte des Rechnens, des Schreibens, der technischen Kommunikationsunterstützung und vieler weiterer Aspekte einbettet.
Was ist eigentlich eine Nutzungsschnittstelle?
Ich beschreibe Ihnen in diesem Buch die Evolution der Nutzungsschnittstelle, aber was ist eigentlich eine Nutzungsschnittstelle? Beim Versuch, sie zu definieren, kommt uns Friedrich Nietzsche in die Quere, der in seiner „Genealogie der Moral“ ganz richtig feststellte:
Alle Begriffe, in denen sich ein ganzer Prozess semiotisch zusammenfasst, entziehen sich der Definition; definierbar ist nur das, was keine Geschichte hat.
Begriffe wie „Nutzungsschnittstelle“ und „User Interface“ haben Geschichte. Sie eindeutig zu definieren, wird mir also wohl nicht gelingen. Verschiedene Entwickler, Wissenschaftler, Journalisten und Nutzer haben ganz Verschiedenes in die Begriffe hineingelegt. Ich kann und möchte Ihnen an dieser Stelle daher nicht die ultimativen Definitionen vermitteln, sondern in aller Kürze meine Sichtweise auf das Konzept „Nutzungsschnittstelle“ erläutern.
Bruce Tognazzini beschreibt in seinem Buch „Tog on Interface“ von 19924 die Nutzungsschnittstelle des Apple Macintosh als eine „fanciful illusion“. Er schreibt, dass die Welt der Schnittstelle des Macintosh ganz anders sei als die der Architektur des darunterliegenden Betriebssystems. Was Tognazzini hier für den Macintosh erläuterte, ist keineswegs nur für diesen gültig. Sein Gedanke gilt für interaktive Nutzungsschnittstellen ganz generell. Werfen wir einen kurzen Blick auf diese „fanciful illusion“. Worum geht es? Wenn Sie sich die Nutzungsschnittstelle eines Computers ansehen, haben Sie es nicht mit einer Schnittstelle für die technische Architektur des Computers zu tun. Sie sehen keine Visualisierung der Prozessor-Operationen, haben keinen direkten Einblick in den Arbeitsspeicher und können auch keine Befehle direkt an angeschlossene Geräte schicken. Was Sie am Bildschirm sehen, wenn Sie etwa einen Dateimanager wie einen Windows Explorer oder einen Finder am Mac bedienen, ist ganz etwas anderes als diese technische Realität des Geräts. Der Computer erzeugt für Sie durch seine Programmierung eine eigene Welt am Bildschirm. In dieser Welt, der Nutzungswelt, gibt es beispielsweise Dateien, die in Form kleiner Bilder auf dem Bildschirm dargestellt werden. Sie können diese Objekte am Bildschirm selektieren und manipulieren, also etwa umbenennen oder gar löschen. Die Dateien im Explorer- oder Finder-Fenster sind Objekte, die nur durch die Nutzungsschnittstelle existieren. Wenn Sie den Computer auseinander nehmen würden, würden Sie keine Dateien finden, selbst wenn es Ihnen möglich wäre, die Magnetisierungen auf einer Festplatte oder die Zustände des Flash-Speichers einer SSD direkt wahrzunehmen.
Das Betriebssystem und die Dateimanager-Software liegt als Zwischenschicht zwischen dem Nutzer und der technischen Realität der Maschine. Diese Zwischenschicht, die Nutzungsschnittstelle, sorgt dafür, dass sich Nutzer nicht um so etwas wie die Steuerung der Festplatte kümmern müssen und dass gespeicherte Texte nicht etwa durch Angabe einer kryptischen Adresse angesprochen werden, sondern mit lesbaren Namen benannt und im geschilderten Fall sogar räumlich auswählbar sind. Die Nutzungsschnittstelle sorgt auch dafür, dass ein solches Textobjekt betrachtet werden kann, indem es am Bildschirm geöffnet wird. Der Nutzer muss dafür nicht erst ein Programm bitweise in den Arbeitsspeicher eingeben oder von der Festplatte in den Speicher kopieren. Auch muss man keinen Programmzähler auf die Startadresse des Programms setzen und dieses manuell starten. All diese Handlungen sind kein Teil der Nutzungswelt und daher dem Nutzer nicht (mehr) zugänglich. Auf der einen Seite der Schnittstelle, nach außen hin, gibt es nur die Objekte der Nutzungswelt und auf der nach innen gerichteten Seite nur die physikalischen Gegebenheiten der technischen Welt. Die erzeugte Nutzungswelt ist Tognazzinis „fanciful illusion“, also, wenn man so will, eine Scheinwelt, die aber für den Nutzer die Welt ist, mit der sich ihm sich der Computer präsentiert, also die einzig wahre Welt. Um derartige „Scheinwelten“ der verschiedenen Nutzungsschnittstellen geht es mir in diesem Buch. Wie sind sie entstanden? Welche Nutzungsanforderungen standen hinter ihrer Ausgestaltung? Welche technischen Probleme waren zu lösen? Was waren die Hintergründe hinter Nutzungsschnittstellen, die heute kurios wirken, und inwiefern haben Designentscheidungen aus vergangenen Jahrzehnten noch heute Auswirkungen auf die Art und Weise, wie wir unsere Computer bedienen? Fragen dieser Art will ich in den kommenden Kapiteln nachgehen. Ich hoffe, Sie folgen mir dabei!