Cover Vom Abakus zum Internet – Die Geschichte der Informatik

Vom Abakus zum Internet – Die Geschichte der Informatik
von Friedrich Naumann

veröffentlicht 2015 von E-Sights Publishing

E-Sights Publishing
Dr. Jörg Naumann
Altendorfer Straße 61
09113 Chemnitz
Deutschland

Herausgeber: E-Sights Publishing
Umsetzung: Dr. Jörg Naumann
Covergestaltung: Erika Jansen, jansen.lange GRAFIKdesign

Copyright © 2015 Friedrich Naumann

Alle Rechte vorbehalten. Diese Publikation oder Teile der Publikation dürfen weder in irgendeiner Form noch mit irgendwelchen Mitteln, elektronisch oder mechanisch, einschließlich Fotokopieren, Aufnahmen oder Speicherung und Retrieval-System, ohne vorherige schriftliche Genehmigung des Herausgebers reproduziert oder übertragen werden.

ISBN: 978-3-945189-42-9

Inhaltsverzeichnis

Vorwort

Vor einigen Jahren weilte ich in China und hatte das Glück, auf einem der vielen Märkte einen alten suan pan erstehen zu können. Neu war mir dieses von alters her in Gebrauch stehende Kugelrechenbrett keinesfalls, hatte sich doch auf vorhergehenden Reisen in die Sowjetunion bereits hinreichend Gelegenheit geboten, dessen universelle Verwendung bei jederart Geschäft kennen zu lernen. Erneut war ich angetan von Geschwindigkeit und Sicherheit in der Handhabung und fasziniert von dem Gedanken, hiermit Informatik an ihrem Ursprung nachvollziehen zu können. So oder ähnlich mag es vor knapp fünfhundert Jahren auch im erzgebirgischen Annaberg zugegangen sein, wo der berühmte Rechenmeister Adam Ries mit großem Erfolg die „Rechnung auff der linihen“ lehrte und sich damit in die Annalen der Wissenschaftsgeschichte einzubringen wusste.

Auf ganz andere Weise beeindruckt hat mich in den 1960er Jahren der erste Kontakt zu einem schreibtischgroßen Kleinrechner, dessen Programmlochstreifen – seiner immensen Länge wegen – an einem entfernt aufgehängten Kleiderbügel geführt wurde. „Was geht hier eigentlich genau vor?“, fragte ich mich angesichts der vielen Unbekannten. Lang ließ der vielfältige Einsatz der neuen Technik nicht auf sich warten, und bald wurde das Arbeiten an Kartenlochern, Magnetbändern, Gerätesteuereinheiten und Bedienpulten ebenso Realität wie die Suche nach rätselhaften Programmfehlern. Der Fortschritt manifestierte sich fast täglich und mit ihm die Verwunderung über die scheinbare Grenzenlosigkeit dieser neuen Maschinen. Aber auch Rückschläge blieben nicht aus, bedingt durch technische Mängel und ungenügende Erfahrung. So wurde der fortwährende Kampf um hohe Systemverfügbarkeit im Rechenzentrum zum Tagwerk – er gab gleichzeitig Raum für die sonderbare Sucht, den Rechner stets aufs Neue zu „überlisten“. Der unaufhaltsame Aufstieg des Personal Computers im zurückliegenden Dezennium verwies viel zu schnell und unwiederbringlich das Genannte in die Vergangenheit und die materiellen Überbleibsel in den Schrott oder ins Museum.

Unterdessen war mein Appetit geweckt, die skurrile Welt aus Null und Eins in den Zirkel historischer Bewertung zu nehmen, nicht zuletzt weil die Geschwindigkeit des geistigen Verschwindens im Sog der „digitalen Revolution“ mit Nachdruck an Bewahrung gemahnte. So stand ich schon bald einem schier unerschöpflichen Fundus von geistig Akkumuliertem gegenüber, insbesondere aus dem Bereich jener Wissenschafts- und Technikgeschichte, deren Kraft mich seit Jahren gefesselt und in Atem hält.

Ich bin froh, dass daraus nun eine „Geschichte der Informatik“ geworden ist, konnte ich damit doch die Absicht umsetzen, ein Stück Technikgeschichte mit Leben zu erfüllen. Vor allem aber soll dieses Buch zur historischen Aufhellung jener Wissenschaftsdisziplin beitragen, deren Aktualität derzeit kaum zu überbieten ist. Sorgen um Unterlassenes und falsch Bewertetes lege ich einstweilen zur Seite; vielmehr drängt es mich, jenen zu danken, die – wie auch immer – hilfreich waren und zum Ganzen fruchtbar beigetragen haben.

Einführung

Wie sehr die Arithmetik und die ganze mathematische Wissenschaft vonnöten ist, kann man daraus leicht ermessen, daß nichts auch nur eine geringe Bedeutung haben kann, wenn es nicht aus gewissen Zahlen und Maßen zusammengesetzt ist, daß auch keine Wissenschaft, die man sonst eine freie Kunst nennt, ohne gewisse Maße und Zahlenverhältnisse existieren kann.

Ein halbes Jahrtausend ist es her, dass Adam Ries, zu Recht der „Rechenlehrer des deutschen Volkes“ genannt, diese Behauptung aufstellt und damit die Bedeutung seines intellektuellen Gewerbes hervorhebt. Er spricht bereits von „mathematischer Wissenschaft“ – dies ist bezeichnend und bringt zum Ausdruck, dass sie zu jener Zeit schon einen Stellenwert erreicht hat, der sie als notwendig, ja unverzichtbar ausweist. In der wissenschaftlichen Bilanz steht das Erbe der großen Kulturen, wo mathematisches Denken seinen Ursprung hatte: der Vordere Orient, das Land der Mayas in Mittelamerika, Ägypten, Mesopotamien, Indien und China. Die Dokumente sind spärlich, doch spätestens mit Euklid, Archimedes, Apollonius, Ptolemaios und Diophantos treten jene Gelehrten ins Blickfeld, die der Wissenschaft zu Rang und Namen verhalfen und erste Ergebnisse niederschrieben.

Die „Wissenschaft der Zahlen“ entwickelt sich zunächst nur in Ansätzen und im Kontext zur Philosophie, der überwiegend praktische Umgang macht sie jedoch in zunehmendem Maße zum Allgemeingut und nützlichen Instrumentarium des gesellschaftlichen Lebens. Zu Rieses Zeiten wird sie gar Teil der großen progressiven Umwälzung in Europa, die von Denkkraft, Leidenschaft, Vielseitigkeit und Gelehrsamkeit geprägt ist und in der nicht wenige Ideen geboren werden, die „geistige Handlangerei großer Zahlenrechnungen“ (F.Reuleaux) zu erleichtern. Später dann verfeinern sich die Rechenmethoden, und man ersinnt technische Hilfsmittel, die diesen adäquat sind. Die Erfindung einer „Maschine zum Rechnen“ stellt einen ersten Höhepunkt dar, da damit nachgewiesen ist, dass nicht nur körperliche, sondern auch geistige Operationen durch künstliche Werkzeuge substituierbar sind. Die Realisierung weiterer mathematischer Erfordernisse erzwingt neue und vielgestaltige technische Lösungen, das umfangreiche Arsenal der sich herausbildenden Natur- und Technikwissenschaften nutzend. Das vorläufige Ende bildet der Computer, zunächst als „Rechnen-Maschine“ konzipiert, schließlich ein nahezu universelles Instrument zur Behandlung von Symbolen aller Art, aber auch Agens des Informationszeitalters, angesiedelt im symbiotischen und scheinbar unerschöpflichen Aktionsfeld von Mensch und Technik.

Es wäre Wurzeln daraus bezogen und somit jene Kenntnisse und Erfahrungen absorbiert, die für ihre Formierung erforderlich waren. Heute ist Informatik ein Begriff eigener Art und eigener Geschichte, der in nicht unerheblichem Maße zu oben Umrissenem zurückführt; zugleich steht Informatik für eine ausgereifte Wissenschaftsdisziplin, der eine eindeutige Stellung im System von Wissenschaft und Technik zugewiesen ist. Um tiefer in die Prozesse und deren Wechselwirkungen einzudringen, sind die folgenden theoretischen Positionen insofern nicht entbehrlich, als sie das Verständnis für die Mechanismen der Entstehung einer Wissenschaftsdisziplin erheblich erleichtern.

Eine Wissenschaftsdisziplin ist zu verstehen als gegenstandsorientiertes System wissenschaftlicher Tätigkeit, das Wissensgesamtheiten voraussetzt, die bereits zu einem frühen Zeitpunkt nachweisbar sind und zu einer zunehmenden Akkumulation im Laufe der Zeitgeschichte führen. Auf dem Wege von der Urform wissenschaftlicher Tätigkeit bis zur vollkommenen Reife der Disziplin vollzieht sich eine Vielzahl unterschiedlicher Prozesse, beginnend mit Spuren des wissenschaftlichen Denkens – Beobachtung, Erfahrung und ihre rationale Analyse und begriffliche Aneignung – bis hin zur Verwissenschaftlichung. Auf dem Wege dieses Entwicklungsprozesses lösen evolutionäre und (mehr oder minder deutlich ausgeprägte) revolutionäre Phasen einander ab, nachvollziehbar sind auch qualitative und quantitative Wandlungen sui generis. Die Akkumulation von Erkenntnissen, besser: die Herausbildung eines neuen Systems geistiger Produktion in der Wissenschaft, erreicht schließlich eine Ebene, die vor allem durch Reproduktionsmechanismen und institutionelle Eigenständigkeit charakterisiert ist.

Eine historische Bewertung erfordert das Integral über den gesamten Prozess. Dieser beginnt bereits mit der Vorgeschichte; denn hier wird – wenngleich noch nicht mit Bestimmung für eine neue Wissenschaft – das kognitive und technische „Baumaterial“ erzeugt und entwickelt. Herausbildung und Konsolidierung der Disziplin folgen dann als weitere Stufen im evolutionären Transformationsprozess innerhalb des Systems der Wissenschaften.

Im Allgemeinen lassen sich Wissenschaftsdisziplinen nach ihrem Gegenstand und ihrem Objektbereich charakterisieren, wobei die Objektbereiche entweder natürlich oder künstlich – zum Beispiel technisch – sein können. Diese Zuordnung erleichtert erheblich deren Bewertung im System der Wissenschaften. Mit Reflexion auf die „natürlichen Gegebenheiten“ entwickelten sich beispielsweise die Naturwissenschaften: die Biologie mit Bezug auf die belebte Natur; die Geologie als Interpret der Geschichte und der Strukturen der Erde; die Mineralogie, sich besonders den Kristallen und ihren Ausprägungen widmend; die Physik, befasst mit dem Versuch, die Vorgänge in der unbelebten Natur zu erfassen, zu beschreiben und zu ordnen.

Sämtliche Naturwissenschaften, aber auch die Mathematik – wenngleich aufgrund der Natur ihres Gegenstands ein Sonderfall – machten sich im Laufe der Menschheitsgeschichte beizeiten auf den Weg, da die Objektbereiche als Teil des Universums schon immer vorhanden sind; jedermann hat deshalb eine einigermaßen genaue Vorstellung von deren Inhalt. Die Technikwissenschaften halten diese Leichtigkeit jedoch nicht bereit; denn deren „unnatürliche“ Objekte mussten erst künstlich – also von Menschenhand – geschaffen werden. Die Interaktion zwischen Objektbereich und Gegenstand der Wissenschaft hat hier also gänzlich andere Startbedingungen als bei den Naturwissenschaften. Das Beispiel der am Ende des 18. Jahrhunderts entwickelten Dampfmaschine zeigt, dass sich erst im Zuge der technischen Vervollkommnung die Disziplinen Wärmelehre, Kinetische Gastheorie, Statistische Thermodynamik, Technische Thermodynamik, Theorie der Steuerung und Regelung, Technische Mechanik und Maschinenkunde herausbilden konnten. Ähnliches lässt sich für die Beziehungen zwischen Telegraphie/Telefonie und Nachrichtentechnik oder Elektromotor und wissenschaftlicher Elektrotechnik konstatieren. Die genannten Disziplinen trugen nicht unwesentlich dazu bei, die mit der Industriellen Revolution eingeleitete Umwälzung der gesellschaftlichen Produktion zu forcieren und die Grundlagen der ökonomischen und wirtschaftspolitischen Entwicklung zu schaffen.

Naturgemäß sind Physik und Mathematik bei der Genese technikwissenschaftlicher Disziplinen von besonderem Einfluss und bestimmen deren originäres Profil. Das trifft auch für die Herausbildung der Informatik zu, deren Objektbereich genau dann geschaffen war, als der erste Computer in Funktion trat und die damit verbundene Wissenschaft ihr initiales Stadium begann. Bis zu diesem Zeitpunkt präformierten sich – ausgehend von den ersten kognitiven Strukturen – Systeme der Erkenntnis, des Wissens und der Technik; schließlich vollzog sich eine vieldimensionale Akkumulation unterschiedlicher Wissenskomponenten und technischer Lösungen. Allerdings ist zu beachten, dass diese umfangreiche und vielgestaltige Vorgeschichte nicht einer vektoriellen Größe gleichzusetzen ist, die notwendigerweise in eine neue Disziplin zu münden hatte. Vielmehr ist sie als Summe des historisch Gewordenen und Gereiften anzusehen, durch die schließlich die Schaffung vollkommen neuer Objekte und die damit verbundene Geburt einer Wissenschaftsdisziplin ermöglicht wurden.

Informatik als Begriff ist noch immer unscharf definiert, obwohl ihr Platz im Theoriengebäude der Technikwissenschaften mittlerweile fest zugewiesen ist. Die Unschärfe erklärt sich vor allem daraus, dass am Anfang – der originären Bestimmung gemäß – die Rechenmaschine stand; aus verschiedenen Blickwinkeln nannte man sie auch mathematische bzw. symbolverarbeitende Maschine, (programmgesteuerter) Rechner, Rechenmaschine, Rechenautomat, Kalkulator, Ziffernrechner, Ziffernrechenautomat, digitaler Informationswandler, Digitalrechner und kybernetische Maschine. Für Anwendungen in bevorzugt ökonomischen Bereichen bürgerten sich späterhin die Termini elektronische Datenverarbeitungsanlage (EDVA), (elektronisches) Datenverarbeitungssystem, Universalrechenautomat, Informationsverarbeitungsanlage, Ordinateur und Computer ein. Bei dieser Gelegenheit ist daran zu erinnern, dass während der ersten Hälfte des 19. Jahrhunderts im englischen Sprachraum mit „Computer“ ein Mensch benannt wurde, der ein manuell zu bedienendes Rechenhilfsmittel benutzte. Eine dementsprechende Wissenschaft gab es zunächst nicht, zumal sich die mit diesen „Maschinen“ realisierten Elementaroperationen auf Rechnen sowie Identifizieren, Vergleichen, Sortieren, Zuordnen, Komprimieren, Übersetzen, Verarbeiten usw. beschränkten. In ebensolch unterschiedlicher Ausprägung entstanden die im bevorzugt technologischen Sinne gebrauchten Begriffe Rechentechnik, Nachrichtenverarbeitung, Ziffern- und Zeichenverarbeitung, Datenverarbeitung und Informationsverarbeitung. Zudem waren die mit der Entwicklung, Programmierung und Anwendung von Computern verbundenen Probleme bevorzugt im wissenschaftlichen Bereich von Mathematik, Physik und Elektrotechnik angesiedelt. Erst in den 60er Jahren hatte dieses neue Erkenntnisfeld ein ausgereiftes wissenschaftliches Niveau und damit auch ein solches Maß gesellschaftlicher Relevanz erreicht, dass sich die Institutionalisierung nun schrittweise vollziehen konnte.

In den USA, charakterisiert durch technischen und technologischen Vorsprung vor Europa und anderen Ländern der Welt, existierte für eine dementsprechende Wissenschaftsdisziplin von Anbeginn der Begriff Computer Science. Er setzte sich bereits mit Etablierung erster Institutionen in Szene und beförderte auf diese Weise die Anerkennung als eigenständige wissenschaftliche Disziplin. Aus der Sicht des Mathematikers George E.Forsythe – er gründete 1965 in Stanford eines der ersten Departments for Computer Science und verlieh dieser neuartigen Disziplin damit eine eigene institutionelle Basis – ist Computer Science eine Kunst (art) und Wissenschaft (science) der Informationsdarstellung und -verarbeitung, insbesondere der Informationsverarbeitung mit logischen Maschinen, die automatische digitale Computer genannt werden. Und als Gegenstand der Disziplin werden bestimmt: Entwurf automatischer digitaler Computer und Systeme, Entwurf und Beschreibung von geeigneten Sprachen zur Darstellung von Prozessen und Algorithmen, Entwurf und Analyse von Methoden zur Informationsdarstellung durch abstrakte Symbole und von komplexen Prozessen zur Manipulierung dieser Symbole. Dieser Umfang macht deutlich, dass – im Unterschied zu den klassischen Ingenieurwissenschaften – der Systementwurf durch die Einbeziehung des abstrakten Mediums Information eine wesentlich größere Komplexität einnimmt. Das Aktionsfeld der Computer Science erstreckt sich deshalb auch auf solche Disziplinen wie Codierungs- und Informationstheorie, Logik der endlichen Konstruktion, numerische mathematische Analysis, Kontrolltheorie, Schalttheorie, Automatentheorie, mathematische Linguistik, Graphentheorie und Psychologie der Problemlösung. Natürlich teilt sie ihren Gegenstand auch mit solchen Disziplinen wie Mathematik, Operationsforschung, Philosophie, Psychologie und den Technikwissenschaften.1

Im europäischen Raum wurde der Begriff Computer Science vor allem in Relevanz zu den amerikanischen Entwicklungen, ansonsten aushilfsweise bis zu jenem Zeitpunkt verwendet, wo sich dafür adäquat der Terminus Informatik durchzusetzen begann. Ursprünglich bezeichnete Informatik ausschließlich die Informations- und Dokumentationswissenschaft und zwar insbesondere in den sowjetisch beeinflussten Ländern. Hier wurde relativ viel Mühe darauf verwandt, einheitliche Terminologien zu schaffen, die dann mittels staatlicher Direktiven Verbindlichkeit erhielten. Als „angewandte Aufgaben“ eben dieser Informatik nannte man beispielsweise

die Ausarbeitung effektiver Methoden und Mittel für die Gewährleistung der Informationsprozesse, die Bestimmung der optimalen Formen wissenschaftlicher Kommunikation sowohl in der Wissenschaft als auch in der zwischen Wissenschaft und Produktion liegenden Sphäre.2

Eine Computer-Wissenschaft war damit jedoch nicht gemeint und auch nicht beabsichtigt. Im Unterschied dazu wurde diese sehr viel genauer durch die traditionellen und hauptsächlich von Ingenieuren eingeführten Begriffe erfasst. Steinbuch schreibt beispielsweise 1965:

Typisch für die Nachrichtenverarbeitung sind die programmgesteuerten Rechenautomaten, die in (schlechtem) journalistischem Sprachgebrauch häufig als „Elektronengehirne“ bezeichnet werden […] Mit dem Wort „Nachrichtenverarbeitung“ ist gleichwertig das Wort „Informationsverarbeitung“. Mit dem Wort „Datenverarbeitung“ wird eine Sonderform der Nachrichtenverarbeitung bezeichnet […] Von Datenverarbeitung spricht man besonders bei der Anwendung nachrichtenverarbeitender Systeme auf dem Gebiet der Automatisierung, der Büroorganisation, der Verwaltung usw.3

Bei diesem Sprachgebrauch blieb es über Jahrzehnte, vor allem in den technischen Bereichen. Der Begriff Informatik hingegen wurde als Terminus einer Computerwissenschaft offiziell vermutlich erstmals 1968 genannt; über die Umstände äußerte sich K. Nickel auf der Jahresversammlung der Naturforscher Leopoldina (14.–17. Oktober 1971 in Halle/Saale) wie folgt:

Wenn ich mich recht erinnere, war es während des von Prof. Lehmann (Dresden) einberufenen III. Internationalen Kolloquiums über aktuelle Probleme der Rechentechnik in Dresden vom 18.2.–25.2.1968, daß dieser Name „erfunden“ wurde. Während und außerhalb der Tagung wurden die verschiedensten Namen als Äquivalent für das englische computer science vorgeschlagen, wie etwa „Computer-Theorie“ und „Komputor-Theorie“, „Theorie der Informationsverarbeitung“ („Informationstheorie“ war schon für ein Spezialgebiet verbraucht) usf. Weil alle die vorgeschlagenen Namen nicht zweckmäßig erschienen (zu lang, nicht eindeutig genug) einigte man sich schließlich (wenn ich mich recht erinnere beim Frühstück am letzten Morgen der Tagung) auf „Informatik „.

Obwohl genauere Ausführungen zur Entwicklung der „Wissenschaft vom Computer“ noch ausblieben und man dies mit Bezug auf die „Skepsis des Establishments“ als „Generationsproblem“ zu entschuldigen wusste, versuchte man anlässlich dieser thematischen Tagung erstmals eine genauere Definition des Inhalts und zwar in folgender Weise:

Der Begriff Informatik bedeutet etwa: Wissenschaft und Technik ihrer Verarbeitung. Da die Informationsverarbeitung heute fast ausschließlich über den Computer erfolgt, kann man die Deutung des Begriffs Informatik auch am Computer (und am englischen computer science) orientieren durch: Informatik ist die Theorie der Wirkungsweise und Anwendung von Computern. Der Name „Informatik „ wurde erst vor etwa drei Jahren geprägt als Übersetzung des französischen Ausdrucks informatique. Auch dieser Name ist noch sehr jung. Vor etwa vier Jahren beschloß die Académie Française durch informatique den etwa sieben Jahre alten4 englischen Namen computer science zu übersetzen. Alle diese Worte bedeuten heute dasselbe.5

Der Begriff wurde bald zum Allgemeingut und unter verschiedenen Aspekten verwendet, wobei man sich im Wesentlichen an der 1977 von der International Federation for Information Processing (IFIP) veröffentlichten Definition orientierte:

Unter Informatik werden diejenigen Aspekte der Wissenschaft und Technologie gefaßt, die speziell für die (insbesondere automatische) Datenverarbeitung anwendbar sind. Sie läßt sich als Wissenschaftsdisziplin der informationsverarbeitenden Systeme auffassen, die auf deren theoretische, technische und organisatorische Aspekte gerichtet sein kann.6

Demgegenüber zeigte sich allerdings, dass die allgemeine Akzeptanz einer neuen Wissenschaftsdisziplin – beispielsweise durch begriffliche Integration in die gängigen termini technici – keinesfalls als logische Folge anzusehen war, zwischen der Genese der Disziplin per se und dem Umfang der gesellschaftlichen Reflexion mithin noch erhebliche Differenzen bestanden.

So lassen sich im Buch „Fachausdrücke der Informationsverarbeitung – Wörterbuch und Glossar Englisch-Deutsch/Deutsch-Englisch“ (Umfang 1687 Seiten, 1985 von der IBM Deutschland GmbH herausgegeben) unter den 110.000 Benennungen weder der Begriff Informatik noch die möglichen englischen Entsprechungen finden, obwohl zu jener Zeit die Herausbildung der Disziplin bereits so weit abgeschlossen war, dass eine Einordnung in die disziplinären Strukturen durchaus denkbar gewesen wäre. Auch neuere Wörterbücher7 haben den gleichen Mangel, hier findet man lediglich das dem Schlagwort EDV zugeordnete französische informatique.

Das heute im modernen Sinne verwendete Wort Informatik ist vor allem als das Integral über eine mittlerweile fest etablierte technikwissenschaftliche Disziplin zu verstehen, die zudem unter dem Einfluss aller theoretischen und praktischen Aspekte von Ingenieurwissenschaften, Elektronik, Informationstheorie, Mathematik, Logik und menschlichem Verhalten steht. Entsprechend umfangreich sind der Gegenstandsbereich, mithin die zu behandelnden Themen: Formulierung von Algorithmen, Programmierung, Modellierung und Simulation, Compilerbau, Entwurf technischer Systeme, Computergraphik, Datenbanken, Rechnerarchitektur und Rechnernetze, Betriebssysteme, Softwaretechnologie wie auch Künstliche Intelligenz und Robotertechnik.

Die Zuordnung der neuen Disziplin zu den Technikwissenschaften erfolgte keineswegs einmütig, zumal verschiedene Wissenschaftler den Gegenstand lediglich in „Codierung durch Zeichen, Mechanisierung der Operationen mit Zeichen und programmierter Ablaufsteuerung“ sahen; die „Grundlage des Wissenschaftsinhaltes der Informatik“ erschöpfe sich deshalb in der „Programmierung der Informations-, das heißt Zeichenverarbeitung“. Aus dieser Perspektive entstand auch das Argument, dass das Geschaffene immateriell, also nicht an Stoff und Energie gebunden sei, und die Informatik aus diesem Grunde – wie die Mathematik – zu den Geisteswissenschaften gehöre.

Eine derartige Auffassung ist allein schon deshalb nicht haltbar, weil Stoff und Energie notwendige Voraussetzungen für die – wie immer geartete – Existenz von Informationen sind. Die von Norbert Wiener gemachte Aussage „information is information, not matter or energy“ ist viel diskutiert und interpretiert worden, hilft hier allerdings kaum weiter, da „matter“ nicht eindeutig zu übersetzen ist. Sehr viel konsequenter scheint der von Völz erarbeitete Ansatz, davon ausgehend, dass Informationen über stofflich-energetische Träger ausgetauscht werden, die zwar notwendige Voraussetzung, aber nicht mehr das Wesentliche sind. Er definiert aus diesem Grunde:

Information ist Träger und das, was der Träger trägt. Dann gilt also: Information ist Träger und Getragenes.8

Es ist in diesem Rahmen nicht beabsichtigt, dieser Problematik weiter nachzugehen; denn seit der fundamentalen Arbeit „The Mathematical Theory of Communication“ des amerikanischen Elektroingenieurs und Mathematikers Claude Elwood Shannon (1948), die auch den Begriff bit of information hervorbrachte, sind bereits weit über hundert Ansätze zur Definition der „Information“ gemacht worden – eine einheitliche Aussage gibt es allerdings noch immer nicht.

Das Verständnis zur Informatik als technikwissenschaftliche Disziplin stützt sich vor allem auf das Argument, dass das dafür vorausgesetzte Objekt ein technisches ist. Bei den zum Vergleich genannten Artefakten Dampfmaschine, Telegraph/Telefon und Elektromotor ist die Zuweisung insofern unproblematisch, als über die daran beteiligten Elemente Stoff und Energie Einmütigkeit besteht. Der Computer – und das unterscheidet ihn von den Genannten – verfügt zudem noch über informationelle Elemente. Für das Technische hat sich deshalb der Begriff Hardware, für das Informationelle der Begriff Software eingebürgert; obwohl eindeutig voneinander abgrenzbar, bilden nur beide zusammen den Computer. Betrachtet man den Computer aus historischer Perspektive, dann war zunächst der Mensch Träger der Software. Galt es also mit der kurbelgetriebenen Rechenmaschine eine Operation zu realisieren, blieben die dafür erforderlichen Anweisungen stets Feld seines Handelns. In zunehmendem Maße wurden sie allerdings der Maschine übertragen: zunächst mittels variabel einsetzbarer Datenträger, später dann als fest gespeicherte und damit im Technischen resistente Programme. Genau unter diesen Bedingungen formierte sich der Computer, und in entsprechenden Definitionen wird nicht umsonst das Charakteristikum der Programmsteuerung als Unterscheidungskriterium expressis verbis hervorgehoben.

Diese Dualität war schließlich auch von Einfluss auf die Genese der entsprechenden Wissenschaftsdisziplinen. Zum einen entwickelte sich in Interdependenz zur Hardware die Informationstechnik, wobei die definitorische Bestimmung des Gegenstandes noch immer schwierig ist; Software wurde mithin zum Gegenstand der Informationsverarbeitung – beide zeugten schließlich die Informatik. Die Disziplinen gruppieren sich somit um einen gemeinsamen, interagierenden Objektbereich, den Computer. Diese Gemeinsamkeit widerspiegelt sich folgerichtig auch im jeweiligen Gegenstand, sodass eine historische Bewertung deren Gegebenheiten in notwendigem Umfang Voraussetzung ist.

Für die Beschreibung des Disziplinbildungsprozesses hat es sich als vorteilhaft erwiesen, einen schematischen Rahmen zugrunde zu legen und hinreichend genaue Kriterien einzubeziehen, die jedoch nicht mit dogmatischer Strenge verfolgt werden sollen. Die Besonderheiten in der Genese technikwissenschaftlicher Disziplinen berücksichtigend, leitet sich daraus folgendes Schema ab:

  1. Vorgeschichte: Dominanz der Empirie, Erarbeitung von Teillösungen technischer und wissenschaftlicher Art, vielfältige disziplinäre Einflüsse.
  2. Disziplinbildung: Heranreifen von Widersprüchen im System der beteiligten Wissenschaften, die sich in der Schaffung eines neuen Objektbereiches (auf)lösen und damit die Genese einer neuen Disziplin initiieren; daraus entsteht ein gegenstandsspezifisches System von Erkenntnissen als Voraussetzung für Funktion, Kontinuität und gesellschaftliche Akzeptanz dieses Objektbereiches (= Phase der Etablierung, Kernprozess der Disziplingenese).
  3. Konsolidierung: Der Objektbereich erweist sich als dauerhaft und entwicklungsfähig; die neue Disziplin erhält ihre volle institutionelle Dimension.

Unter den genannten Voraussetzungen soll diese „Geschichte der Informatik“ sowohl die technische Spezifik und ihre Fortentwicklung als auch den mit der Disziplingenese verbundenen wissenschaftshistorischen Prozess und seine Wirkungsmechanismen beschreiben. Vorteilhaft wird sein, kognitive Faktoren wie Probleme des Zusammenhangs zwischen Erkenntnissen der Natur- und Technikwissenschaften, schließlich von gesellschaftlichen Bedingungen ihrer Nutzung und Verwertung in die Betrachtungen einzubeziehen. Aus dieser Perspektive sollte es möglich sein, in die Entwicklungsgesetzmäßigkeiten von Technikwissenschaften Einblick zu nehmen, was insofern wichtig scheint, als Derartiges in den zurückliegenden Jahren ausschließlich in den Naturwissenschaften und der Mathematik angesiedelt war. Die Informatik bietet demgegenüber gute Voraussetzungen und ist zugleich von hoher Aktualität – Neugier und Interesse sollten deshalb eine Triebkraft sein, sich die für viele noch fremde Materie zu erschließen.

1 Ursprünge der Informatik

Die Geschichte der Menschheit, an deren Beginn die archaische Regulation von Sozialbeziehungen steht, zeigt sich heute als vieldimensionales, nur noch mühsam überschaubares Gebilde. Erkenntnisse, Entdeckungen und Erfindungen begleiteten diesen evolutionären Prozess, in dem sich der Mensch – einem Stoffwechsel gleich – in ständiger Auseinandersetzung mit der Natur befand. Die Befähigung des Menschen, Werkzeuge, schließlich Arbeits- und Kommunikationsmittel zu schaffen, war eng verbunden mit der Herausbildung des Denkens und der Intelligenz. Dafür einen festen Zeitraum zu bestimmen, ist ebenso schwer wie die genauen Umstände jener intellektuellen Differenzierung nachzuempfinden. Dennoch geben uns überlieferte Zeugnisse alter Kulturen reichlich Auskunft über die Vielfalt der Prozesse, und da Sozialbeziehungen zu einem Wesentlichen Teil von Informationen getragen werden, lässt sich genau hiermit ein Zugang zur Thematik finden.

Maß, Zahl und Gewicht

Am Anfang stehen die Kategorien Maß, Zahl und Gewicht. Sie spielen bei der Herstellung einer ersten elementaren Ordnung im sozialen Gefüge des Menschen eine große Rolle und sind zugleich Voraussetzung für die Entdeckung der Welt als eines geordneten Kosmos. Eine der kognitiven Fähigkeiten des frühen Menschen dürfte das Zählen gewesen sein, Messen und Wägen bauten darauf auf. Aus dem Zählen entwickelte sich „rechnendes Denken“, auf einer höheren Stufe dann die Mathematik. In der Vorgeschichte ist die Zahl weniger ein abstraktes Gebilde, sondern mehr eine naturphilosophische Kategorie und damit ein Schlüssel zum Weltverständnis. Die Anschauung „Die Zahl ist die Natur und das Wesen der Dinge“ galt bereits für die Pythagoräer; die Mathematik bildete demnach eine Vorstufe zur Vereinigung mit dem Göttlichen, denn – so Aristoteles – sie hielten besonders „die Anfänge in der Mathematik auch für die Anfänge aller Dinge“. Weiter sagt Aristoteles dazu:

Da nun in dem Mathematischen die Zahlen von Natur das Erste sind, und sie in den Zahlen viel Ähnliches mit den Dingen und dem Werdenden zu sehen glaubten, und zwar in den Zahlen mehr als in dem Feuer, der Erde und dem Wasser, so galt ihnen eine Eigenschaft der Zahlen als die Gerechtigkeit, eine andere als die Seele und so fort für alles Übrige. Sie fanden ferner in den Zahlen die Eigenschaften und die Verhältnisse der Harmonie, und so schien alles andere seiner ganzen Natur nach Abbild der Zahlen und die Zahlen das Erste in der Natur zu sein. Deshalb hielten sie die Elemente der Zahlen für die Elemente aller Dinge und den ganzen Himmel für eine Harmonie und eine Zahl.1

Im „Buch der Weisheit“, zwischen 80 und 30 v. Chr. von einem der Weisheitslehrer Israels verfasst und als Abschluss der alttestamentlichen Weisheitsliteratur aus der jüdischen Diaspora in Ägypten zu bewerten, findet sich im elften Abschnitt die Sentenz Sed omnia in mensura, et numero, et pondere disposuisti – „Aber du hast alles nach Maß, Zahl und Gewicht geordnet“. Ein seither berühmtes Wort, das im Verlaufe der vielhundertjährigen Geschichte genau dann bemüht wurde, wenn es galt, die mathematische Struktur der Welt und alles in ihr Befindliche zu belegen und ihre Geheimnisse zu enträtseln.

Zahlreiche Gelehrte sahen in dieser Formel eine sichere Quelle, zu allen Bereichen der Natur vorzustoßen. Viele Ansätze erscheinen heute kurios und zeugen von der unangemessenen Überschätzung des Instrumentariums der Mathesis universalis. So erwies sich als Irrweg, hinter Zahlen und Buchstaben den verborgenen Sinn der Welt zu suchen und dem Text der Heiligen Schrift verschlüsselte Voraussagen zu entnehmen, wie es die in alter Mystik begründete jüdische Geheimlehre Kabbala tat. Auf diesem Wege konnten Religion und Mathematik nicht in Beziehung gebracht werden. Versuche ähnlicher Art finden sich im „Endchrist“ des Esslinger Pfarrers und Mathematikers Michael Stifel sowie in der Schrift „Himmlische und gehaime Magia“ des Ulmer Rechenmeisters und Ingenieurs Johann Faulhaber. Galileo Galilei versuchte sich bereits im Alter von 24 Jahren an der Berechnung von Lage, Gestalt und Größe der Hölle und hielt sich hierzu – einen alten Streit zwischen zwei Dantekommentatoren aufnehmend – an die Verse des berühmten Italieners. Der Franzose Jean Butéon ermittelte für die Arche Noah mit mathematischen Argumenten genauere Vorstellungen über die hier verwendeten Baumaterialien, den Schiffsanstrich, über Fenster und Türen, die Länge der Elle, über Form und Ausgestaltung, Namen der Tierarten, Menge des Proviants, Verteilung der Ställe u. a.m. Auch der „letzte“ Universalgelehrte Gottfried Wilhelm Leibniz war von Derartigem nicht frei, erkühnte er sich doch, für den Ausgang der 1669 anstehenden polnischen Königswahl die Sicherheit des mathematischen Beweises zu bemühen.

Zahlzeichen verschiedener Kulturvölker

Zahlzeichen verschiedener Kulturvölker. Quelle: Vorndran, S. 13

Die Mathesis universalis läßt sich bis an den Beginn der menschlichen Evolutionsgeschichte zurückverfolgen; dort nahm das (archaische) Denken als früheste Form kognitiver Wechselwirkung des Menschen mit der Natur seinen Anfang. Der Entwicklung des Denkens folgte die Entwicklung von Lautbildung und Sprache als Voraussetzungen für die zwischenmenschliche Kommunikation. Im Zusammenhang mit den notwendigen Regelungen innerhalb der sozialen Systeme der urgeschichtlichen Gemeinwesen und zur Gewährleistung dieser Kommunikation kam es zur Vergegenständlichung der Gedanken durch die Schrift – eines der wichtigsten intellektuellen Werkzeuge des Menschen, denn Schriften schließen Gedanken ein und machen diese reproduzierbar, speichern sie über Zeit und Raum hinweg. Zunächst waren dies ausschließlich Bilderschriften – Pikto- und Ikonogramme –, die Aussagen über das tägliche Leben machten; später wurden diese von Lautzeichen, schließlich von Zeichen eines vereinbarten Alphabets abgelöst. Die ältesten phonetisch lesbaren Zeichen in Gestalt von Täfelchen aus Ton oder Elfenbein hinterließen vor 5500 Jahren vermutlich die Bewohner von Arappa, einem Ort im heutigen Pakistan; andere Funde mit Hieroglyphenschrift verweisen auf Mesopotamien, dem Zweistromland zwischen Euphrat und Tigris, nach Elam und Ägypten und geben der Archäologie weiterhin Rätsel auf. Früher noch als diese formierten sich Zeichensysteme für Zahlen und Zahlenbegriffe; man nimmt an, dass dies vor etwa 25.000 bis 30.000 Jahren, also noch in der der Cro-Magnon-Phase der Menschheitsgeschichte, erfolgte. Die damit in Verbindung stehenden intellektuellen Prozesse sind schwer nachzuvollziehen und werfen bezüglich ihres Ursprungs viele Fragen auf: Wie entstand das Zahlengefühl, der Zahlenbegriff, wann löste sich dieser von der Realität und wurde zum Abstraktum, wann lernte man Zählen und damit die Welt mengenmäßig erfassen? Da Zahlen für Mengen stehen, ist offen, wie viel der Mensch zunächst erfassen konnte; noch heute kennt man im australischen Aranda nur Zahlwörter für eins, zwei, drei, vier und viel.

Fortschritte ließen sich daran ablesen, dass einfache Zeichen für das Eins-Element von Zeichen für beliebige Mengen verkörpernde Anzahlen abgelöst wurden. Wirtschaftliche Faktoren wie Handel, Tausch, Eigentums- und Besitzverhältnisse, Schulden und Guthaben machten Reihung und Bündelung von Zahlen notwendig – so entstanden die Zahlensysteme. Mit der Differenzierung der ökonomischen Beziehungen wuchsen auch Anschaulichkeit und Dimension der Begriffe. Das Paar (Augen, Hände, Füße u. a.) und die diesem adäquate „2“ als Menge wurden schließlich überwunden und erweitert, es entstand das abstrakte Zahlwort zur allgemeinen Charakterisierung von Mengen.

Augen, Finger und Hände bekamen entscheidenden Einfluss auf die Herausbildung von Zahlen; denn entsprechende Zusammenhänge zu den Ziffern 1, 2, 3 und 5 usw. sind unverkennbar. So verwendeten Griechen, Römer, Mayas und Chinesen für ihre Zählsysteme die 5er-Stufung. Und noch heute zählen die Kaufleute des indischen Staates Maharashtra in ihrem Geschäftsalltag auf der Basis 5 – also mit einem quinären Zahlensystem. Aus der Stilisierung der Hand dürfte möglicherweise das römische V, verdoppelt als X (also 5 und 10), hervorgegangen sein. Denkbar wäre auch, dass – wie bei Kerbungen üblich – ein Strich nochmals überkerbt wurde und somit das Zeichen X ergab.

Chinesen und Mongolen, aber auch die indoeuropäischen und semitischen Kulturen, verwendeten frühzeitig die 10er-Stufung und damit das noch heute übliche Dezimalsystem. Die Idee und der fast universale Gebrauch haben sich an die physiognomischen Gegebenheiten des Menschen angelehnt, denn Jeder lernt das Zählen zuerst an seinen Fingern, obwohl das Zählen nach Zehnergruppen kaum Vorteile bietet. Es hat deshalb in der Geschichte nicht an Angeboten gefehlt, andere Zahlen zur allgemeinen Basis zu nehmen: die mathematisch vorteilhafte Zwölf zum Beispiel, da sie vier Divisoren hat (die Zehn hat nur zwei), oder eine Primzahl, bei der Brüche nicht mehr gekürzt werden müssten. Die evolutionäre Herkunft des Dezimalsystems ließ derartigen Vorstellungen kaum eine Chance. So stehen noch heute die gebräuchlichen zehn Ziffern des Dezimalsystems – quasi die atomistischen Grundelemente der Algebra2 – als Nukleus der Mathematik zur Verfügung und bestimmen den weiteren Lauf dieser Kulturleistung.

Inder wie auch Kelten, Mayas und Azteken des präkolumbianischen Mittelamerika verwendeten überdies, ausgehend von der Zahl der Finger und Zehen, eine 20er-Stufung, also ein Vigesimalsystem – dementsprechend gab es 20 Zahlzeichen. Der Maya-Kalender enthielt beispielsweise „Monate“ von 20 Tagen und sah Zyklen von 20, 400 und 8000 Jahren vor; die Sprache enthielt gesonderte Namen für jede Zwanzigerpotenz. Vergleichbares ist auch in anderen Sprachen zu finden: Im Englischen bedeuten one score, two score, three score 20, 40, 60 usw.; das Pfund Sterling als Währungseinheit bestand (bis 1971) aus 20 Shilling. Im Französischen steht quatre-vingt für 80 – also vier Zwanziger, in entsprechender Weise findet sich in anderen Zahlen die Tradition des Zählens nach Zwanzigereinheiten.

Bemerkenswert ist die 60er-Stufung – das Sexagesimalsystem. Zuerst gebrauchten es die Griechen, dann die Araber als wissenschaftliche Zählmethode der Astronomen; auch bei Sumerern und Babyloniern war es bekannt. Der Ursprung lässt sich kaum mehr nachvollziehen, wenngleich archäologische Textfunde auf Keilschrifttafeln durch computergestützte Analysen weitgehend entziffert werden konnten. Außer 60 verschiedenen Zahlzeichen existierten etwa 1000 weitere Symbole zur Kennzeichnung von Gegenständen, Namen, Titeln oder Orten. Das sumerisch-babylonische Zahlensystem kannte nur zwei Zeichen: einen senkrecht stehenden Keil für die Eins und einen nach rechts offenen Winkel für die Zehn. Die entsprechende Zahl konnte durch additive Anordnung der beiden Zeichen gebildet werden. Für das „Schreiben“ – eigentlich ein „Drücken“ in den weichen Ton – verwendete man Griffel mit rundem oder dreieckigem Querschnitt. Ein Zeichen für die Null existierte noch nicht.

Assyrisch-babylonische Ziffern der Zahlen unter hundert

Assyrisch-babylonische Ziffern der Zahlen unter hundert, Mischform zweier Zahlensysteme (Basis 10 und 60, senkrechter Nagel: Wert 1, kleines Dreieck: Wert 10). Quelle: Symbolverarbeitende Maschinen, S. 23

Über den Sinn des Sexagesimalsystems lässt sich nur mutmaßen: Die Zahl 60 ist durch die niederen Zahlen 2, 3, 4, 5, 6 leicht teilbar – ein möglicherweise besonders von Gelehrten der Priesterschulen gepriesener Vorteil. Aber auch die Anzahl der Tage eines Jahres, auf 360 abgerundet, und die davon abgeleitete Unterteilung des Kreises in 360 Grad könnten damit in Zusammenhang stehen. Bei Zeit- und Kreisteilung, auch beim Kompass, hat sich das 60er-System bis heute erhalten.

Als Problem erwies sich die Darstellung großer Zahlen; denn Stellenwertsysteme, bei denen gleiche Zahlzeichen in Abhängigkeit von ihrer Position unterschiedliche Mengen repräsentieren, beanspruchten für ihre endgültige Ausprägung 2000 Jahre länger als die alphabetische Gestaltung der Schrift. So blieb zunächst die additive Darstellung einer Menge, d. h. die wiederholte Anordnung eines Zahlzeichens.

Tontafel

Tontafel (1900–1600 v. Chr.) aus der Plimpton-Sammlung, Columbia University, N. Y., unten die Transliteration in arabischen Ziffern. Quelle: Lehmann, S. 97

Eine derartige Notation findet sich im römischen Zahlensystem wieder, dessen älteste Zeugnisse bis ins erste vorchristliche Jahrhundert zurückreichen. Um das schwerfällige und unübersichtliche Rechnen zu erleichtern, half man sich in der Praxis damit, neben den Zehner- zusätzlich Fünfergruppen zu bilden und diesen entsprechende Zahlzeichen zuzuordnen. Aus der Vielfalt römischer Zahlzeichen, die in den verschiedenen Kulturen verwendet worden sind, stehen noch heute

Nach dem additiven Prinzip ist auch die Zahlendarstellung in alphabetischen Systemen aufgebaut, wie sie von Hebräern und Griechen ab dem vierten vorchristlichen Jahrhundert verwendet wurden. Noch heute werden die Daten des jüdischen Kalenders wie auch die Nummerierung der Abschnitte und Verse des Alten Testaments in einer aus Buchstaben des Alphabets bestehenden Zahlschrift angegeben. Eine besondere Kennzeichnung ermöglicht, sie von normalen Buchstaben zu unterscheiden und Verwechslungen zu vermeiden. Das Zahlenalphabet der Griechen stammt wahrscheinlich aus dem achten vorchristlichen Jahrhundert und verfügt über vielfältige, regional bedingte Ausprägungen. Seit der Antike bis fast ins Mittelalter spielte es im Vorderen Orient und im östlichen Mittelmeerraum eine dem lateinischen System in Westeuropa vergleichbare Rolle. Mit dem nachfolgend angeführten Ziffernsystem lassen sich Zahlen mit drei Zeichen bis zum Wert 999 mühelos darstellen.

EINER

Alpha 1
Beta 2
Gamma 3
Delta 4
Epsilon 5
Digamma 6
Zeta 7
Eta 8
Theta 9

ZEHNER

Iota 10
Kappa 20
Lambda 30
My 40
Ny 50
Xi 60
Omikron 70
Pi 80
Koppa 90

HUNDERTER

Rho 100
Sigma 200
Tau 300
Ypsilon 400
Phi 500
Chi 600
Psi 700
Omega 800
San 900

Das alphabetische Ziffernsystem der Griechen; die Buchstaben Digamma, San und Koppa wurden frühzeitig aufgegeben.

Nicht zuletzt dienten „gelehrte Zeichen“ dazu, ganz Wörter oder Ideogramme chiffriert darzustellen und bildeten damit einen Teil der Zahlenmystik; die so entstandenen Kryptogramme sind zum Teil heute noch nicht erschließbar. Für die Zahlendarstellung verwendete man schließlich abstrakte Zeichen – solche also, die weder alphabetischen noch numerischen Zeichen zugeordnet werden können und im Allgemeinen keinen Rückschluss auf die Bedeutung zulassen.

Null und indo-arabische Ziffern

Eine gedankliche Revolution in der Zahlendarstellung vollzog sich in jenem Moment, als man begann, Positionssysteme einzusetzen. Praktikabel waren diese allerdings nur, indem für die Leerstelle ein gleichberechtigtes Zeichen vereinbart war, und dieses war die Null. Ihrer Geschichte nachzuspüren, ist nicht ganz einfach; denn möglicherweise ist sie sowohl von den Mayas als auch von den Indern ersonnen worden. Für Indien lässt sie sich erstmals um 200 v. Chr. nachweisen; archäologische Funde, die etwa 600 n. Chr. gemacht wurden, zeigen sie als kleinen Kreis. Als Zahlwort für die Null wurde sunya in der Bedeutung von „leer“ verwendet. Im Arabischen taucht dieses Wort als as-sifr auf, in den Mathematikbüchern dann als cifra oder cephirum, cipher, chiffre, Ziffer usw. Die Bezeichnung „null“ lässt sich bis ins 13. Jahrhundert zurückverfolgen; als figura nihili – die Zahl des Nichts – ist sie erstmals in einer lateinischen Schrift des in Paris ansässigen Lehrers Sacrobosco zu finden. Über die nulla figura mutierte sie schließlich zur „Null“.3

Die Null konnte sich im ostasiatischen Raum rasch verbreiten, sowohl Chinesen als auch Araber integrierten sie in das Gebäude ihrer Mathematik. Viele Gelehrte beherrschten schon das „Rechnen im Sand“ und vermochten, mit großen Zahlenmengen umzugehen. Später verbreitete sich die indo-arabische Mathematik immer weiter in das Abendland hinein und mit ihr auch das gesammelte mathematische und philosophische Wissen der Antike. Daran hatten nicht zuletzt die Entwicklung der Städte und des Handels, die Zunahme des Geldumlaufs, aber auch die Kreuzzüge und die weit verzweigten Mönchsorden ihren Anteil.

Nicht immer war man jedoch den Mathematikern wohlgesinnt; beispielsweise sprach sich der einflussreiche Augustinus, Bischof von Hippo Regius und Doctor ecclesiae, mit unmissverständlicher Strenge gegen die Mathematiker aus: