Read the book: «GLOBALE PROVINZ», page 3

Font:

Professor Dr. Thomas Wolf, Berlin

Exkurs – Die IT-Abteilung und ihre Leitung im Wandel der Zeit – Der PC auf dem Schreibtisch erscheint

Wenn man das so liest, dann muss man wissen, dass der »Computer am Arbeitsplatz« sozusagen über Umwege eingeführt worden ist. In der ersten Hälfte der 1980er-Jahre bahnte sich in der wissenschaftlichen Welt – nicht nur bei meinem damaligen Arbeitgeber Merck in Darmstadt – eine Revolution in der IT an. Man könnte sagen, dass die langen Anwendungs-Entwicklungszeiten und die langen Antwortzeiten der Zentralrechner durch eine quasi »Guerilla-Taktik« überwunden werden konnten. Die Beschaffung und Inbetriebnahme von komplexen und teuren Messgeräten in den Laboren erforderte eine dezentrale IT zu deren Steuerung und Betrieb. An diesen Geräten gab es eigene Prozessrechner.

Diese relativ kleinen betrieblichen Prozessrechner sollten später als »PC« bekannt werden. Sie konnten als Laborausstattung »under cover« an der zentralen IT vorbei als Auswerteeinheiten beschafft werden. Ihre Kosten galten nicht als IT – sondern als Labor-Kosten und fielen daher nicht weiter auf. Aber man konnte – welch ein Wunder – damit alles Mögliche machen, wofür man vorher die Leistungen der zentralen IT brauchte. Allerdings reagierte das zentrale IT-Management wenig zielführend. Statt diese Entwicklungen der dezentralen IT zum Nutzen des Unternehmens zu kanalisieren, sah es seine Aufgabe vor allem darin, die dezentralen Beschaffungswege zu behindern. Es sollte möglichst die »ganze IT« weiterhin auf den bewährten Produkten der Firma IBM basieren.


Ein – wie es auf dem Gehäuse steht – »Personal Computer« des Fabrikats Casio. Er ist mittels BASIC programmierbar, hat eine Tastatur und einen kleinen graphischen Bildschirm. Abgebildet ist das Exemplar, das ich mir ungefähr im Jahr 1983 zum Beginn des Studiums gekauft hatte.

Diese erste Generation der Rechenzentrumsleitung, die »Chief Information Officers« (CIOs), hatten vor allem die beiden Aspekte der Technik und der Kosten im Blick. Solange alles zentral lief, war dieses CIO-Monopol der Technik und Kompetenz unangreifbar. Es erodierte stark ab Mitte der 1980er-Jahre, spätestens mit der Verbreitung der PCs. Mit der explosionsartigen Verbreitung der PCs begann die große Zeit der dezentralen IT, die scheinbar viel billiger war als die zentrale. Der Aufwand für Entwicklung und Betrieb wurde von Anwendern nebenher erledigt, und deren Gehälter tauchten nicht als IT-Kosten auf. Einige »PCs« erreichten die Leistungsfähigkeit von kleinen dezentralen Rechenzentren.

Auf der Herstellerseite hatte diese Entwicklung einen massiven Umbruch zur Folge. Die Zeit des Quasi-Monopols der IBM endete, es folgte der Aufstieg von Firmen, wie erst HP, dann auch Microsoft, Compaq oder auch Dell. Apple betrat den Weltmarkt. Andere Firmen, wie etwa Digital Equipment, verschwanden ganz.

Nach der Erosion und dem Wandel der IT von zentral zu dezentral in den 1980er-Jahren konnte man einen ähnlichen Effekt in den 2010er-Jahren beobachten. Diesmal erfolgte eine Erosion der IT von dienstlich zu privat. Der Grund hierfür war das Aufkommen der Smartphones und die damit verbundene unmittelbar personenbezogene IT. So erfolgte etwa die Kommunikation zwischen Beschäftigten untereinander und wiederum mit der Kundschaft über Apps der – notabene privat beschafften – Smartphones. Auf der Herstellerseite wurde diese Zeit des »bring your own device« vor allem von der Firma Apple und ihren Produkten maßgeblich mitgestaltet.¶

Im Informatik-Grundstudium der Jahre 1982 bis 1984 hatte man in aller Regel keinen eigenen PC zur Verfügung. Denn ein solches Gerät war noch ziemlich teuer in der Anschaffung. Ein Computer, den man sich eventuell leisten konnte, war seit dem Ende der 1970er-Jahre in der Form von programmierbaren Taschenrechnern verfügbar. Es gab auch bereits die sogenannten »Taschencomputer«, »Pocket Computer« (PC), die mit BASIC programmierbar waren. Sie kamen etwa ab dem Jahr 1982 in den Verkauf und kosteten einige Hundert D-Mark. Solche Geräte konnten sich Studierende durchaus leisten. Sie waren für die Lösung ingenieurmathematischer Probleme ganz hilfreich.


Ein IBM-Lochkartenstanzer, wie er in der betrieblichen Datenverarbeitung und im Informatikstudium zu Beginn der 1980er-Jahre zum Einsatz kam. Exponat des »technikum29 Computermuseum« in Kelkheim (Taunus). Solche Geräte waren in der Datenverarbeitung weit verbreitet, und damals war es nicht vorstellbar, dass sie jemals nicht mehr eingesetzt werden würden. Der Lochkartenstanzer war das einzige technische Gerät, mit dem man im Informatik-Grundstudium in Interaktion treten konnte. Der eigentliche Computer der Serie SIEMENS 7.500 mit Betriebssystem BS2000 des THD-Rechenzentrums stand, den Studierenden nicht direkt zugänglich, in einem separaten Raum.

Im Grundstudium an der TH Darmstadt wurden Programmieraufgaben am Großrechner des Rechenzentrums des Fachbereichs Informatik nicht etwa in BASIC, sondern in den Programmiersprachen PASCAL, ASSEMBLER oder auch LISP durchgeführt. Es gab eine Anlage aus der Serie SIEMENS 7.500 mit dem Betriebssystem BS2000, die für uns Studenten im Batchbetrieb lief. Der Rechner stand in einem eigenen großen und klimatisierten Raum – und er war für Studierende wie mich nicht direkt zugänglich. Wir mussten unsere handschriftlich entworfenen Programmtexte mit einem Lochkartenstanzer in Lochkartenstapel umwandeln. Der Stapel, der »Batch«, wurde dann an ein Lesegerät abgegeben – und das war es dann, in aller Regel, für diesen Tag. Der Rechner las das Lochkarten-Programm ein und führte es irgendwann aus. Das Ergebnis war ein Ausdruck auf grünlich-gräulichem Recycling-Endlospapier, den das Programm produziert hatte und der auf einem superlauten Trommeldrucker ausgedruckt wurde. Dieser Ausdruck konnte durchaus erst über Nacht erscheinen und dann am nächsten Tag an einer Art Ausgabetheke abgeholt werden. Machte man in der Übung einen Fehler, dann kostete ein neuer Versuch wieder einen ganzen Tag.

Am Fachbereich Informatik an der THD war das Studium der Informatik noch stark an traditionelle Lehrangebote angelehnt, um den »Work Load« des Studiums zu erzielen. Wir hörten im Grundstudium Analysis I und II, Lineare Algebra I und II, Wahrscheinlichkeitsrechnung, Elektrotechnik und noch anderes mehr. Man fragte sich als Student bei einigen dieser Fächer auch damals schon, was diese mit der Praxis der Informatik »als solcher« zu tun haben könnten. Die Vorlesungen im Grundstudium waren als Massenveranstaltungen mit mehreren hundert Zuhörern ausgelegt.

Der Mathematik-Professor in Analysis gefiel sich selbst sehr darin, den Studierenden seine Fähigkeiten im arithmetischen Kopfrechnen zu demonstrieren. Er konnte quasi, »in Echtzeit« vor sich hinmurmelnd, irgendwelche gerade vorbeikommenden Aufgaben lösen. Er sagte etwa so etwas wie, »14 mal 26, das macht 364«, einfach so daher. Einmal murmelte er ein »256 im Quadrat« – und er war noch nicht beim »das macht« angelangt, als ein neben mir sitzender Informatik-Kommilitone im großen Hörsaal »65 536« nach unten brüllte. Alle wandten sich nach ihm um, was er mit einem hochroten Kopf quittierte. Es war klar, dass er das nie und nimmer in dieser Zehntelsekunde per Taschenrechner herausgefunden haben konnte. Der dahingehend beeindruckte Analysis-Professor war sozusagen »aus Versehen« auf eine Zweierpotenz-Rechenaufgabe getreten. Wir Informatikstudenten waren aber für so etwas sensibel.

Exkurs – Informatik und Wirtschaftswissenschaften – Wirtschaftsinformatik

Wenn man das liest, so muss man anmerken, dass an der THD nach dem Vordiplom im Hauptstudium ein Zweitfach gewählt werden musste, um das Studium der Kerninformatik zu ergänzen. Es sollte damit von Seiten der Studienordnung quasi der »Anwendungsbezug« des Informatik-Kernstudiums hergestellt werden. An der THD konnte man zwar bereits seit einigen Jahren die sogenannte »Wirtschaftsinformatik« studieren. Die THD hatte dieses Fach deutschlandweit als erste Hochschule überhaupt eingeführt. Es war also brandneu, aber keineswegs auch ausgemacht, ob man diesem Berufsbild wirklich trauen konnte. In der Tat lief man Gefahr, sich den exotischen Titel »Diplom-Wirtschaftsinformatiker« anzueignen, der sich eventuell nicht bewähren würde und einem lebenslang wegen seiner Unbrauchbarkeit zur Last werden würde.

Allerdings erschien mir vor diesem Hintergrund »irgendwas mit Wirtschaft« ganz spannend zu sein. Ich ging zunächst zu betriebswirtschaftlichen Vorlesungen, die »Einführung in die BWL« und »Buchführung« hießen. Die Hochschullehrer dort betrieben nur allereinfachste Mathematik und redeten in einem völlig überhöhten Jargon von trivialem Zeug wie »Kontenrahmen« und »Buchungssätzen«, und dass man eines Tages als Betriebswirt ganz unglaublich viel Geld verdienen könnte. Zudem versuchten sie sich mit den Studierenden gemein zu machen. Einer leerte sogar – während seiner BWL-Vorlesung – eine von einem Studenten aufs Podium gereichte Flasche Bier. Das war nun wirklich nicht mein Fall.

So ähnlich wie »BWL« hörte sich von weitem »VWL« an – das könnte eine Alternative sein. Eine von mir probehalber besuchte volkswirtschaftliche Vorlesung »Einführung in die VWL« war in der Tat ein anderer Sport. Auf dem Podium sprach ein mir wegen seiner Souveränität auffallender Professor. Er hieß Bert Rürup. Ich fasste den Entschluss, an seinem Institut VWL als Zweitfach zu studieren. Es wurden in seinen Seminaren – damals absolut richtungsweisende – Themen wie die »Negative Einkommenssteuer« und das »Bedingungslose Grundeinkommen« behandelt. Die Diplomprüfungen standen dann im Sommer des Jahres 1986 an. Das waren im Prinzip ein paar 30-minütige Interviews, die die Professoren mit den Kandidaten und Kandidatinnen durchführten. Diese ganz wenigen Prüfungen machten den Wert des gesamten Diploms aus. Ein Assistent des Instituts war Zeuge und Manöverbeobachter. In so einer halben Stunde wurden die vier Semester des gesamten(!) Zweitfachs VWL querbeet und für den Kandidaten scheinbar zufällig-willkürlich abgefragt. Bei Bert Rürup erhielt ich so für die »ganze VWL« ein »gut« – aus »Rücksicht auf die armen Eltern«, wie er ironisch hinzufügte.¶

Es gab an der THD auch Lehr-Angebote aus der Philosophie. Ein Seminar bei Jörg Pflüger und Robert Schurz hieß »Soziale Beziehung Mensch-Maschine«. Es war und ist eine wichtige Sache, das Verhältnis eines einzelnen Menschen zu einer Maschine zu analysieren und das Verhältnis von »Mensch« zum »System« anthropozentrisch zu bewerten. Die damaligen Darmstädter Untersuchungen zur programmierten Gesellschaft und die Rolle der sogenannten »Mega-Maschinen« waren wegweisend. Die Fächer VWL und Philosophie sollten sich später als über die Maßen relevant und nützlich erweisen, wenn es galt, Fragen der Struktur von Software- und Service-Märkten, aber auch ethische Fragen der Informationsgesellschaft zu adressieren. Und so war die Befassung mit Themen aus der VWL und der Philosophie wieder einmal sowohl ein Zufall als auch ein Glücksfall.

Exkurs – Frühe Arbeiten zur Mensch-Maschine-Beziehung

Wenn man das so liest, dann muss man auch sehen, dass diese Darmstädter Aktivitäten durchaus die Aufmerksamkeit der überregionalen Öffentlichkeit fanden. Das Nachrichtenmagazin »Der Spiegel« berichtete von den Darmstädter Arbeiten zur »Sozialen Beziehung Mensch-Maschine« im März 1987. Man fragte in diesem Nachrichtenmagazin, ob es sein könne, dass begeisterte Computerfreaks in ihrem Bewusstsein verarmen und zum »mechanischen Denken« neigen.

Der Psychologe Robert Schurz und der Informatiker Jörg Pflüger, beide in Darmstadt tätig, hätten das Verhalten von Computerfreaks studiert, so »Der Spiegel«. Aus den Daten habe man den Normalbürger der computerisierten Zukunftsgesellschaft bestimmt. Dieser Typ, so Pflüger und Schurz, sei meistens auf der Flucht – vor den anderen Menschen, der Verantwortung und den eigenen Gefühlen, kurz – vor der Unberechenbarkeit des Lebens. Wenn an die Stelle der Sozialkontakte die anonyme Beziehung zur Maschine tritt, dann wächst die Beziehungslosigkeit unter den Menschen – mit unabsehbaren Folgen. Doch je weniger man von Computern versteht, umso größer werden Ehrfurcht und Angst vor ihr: Technikverweigerer sehen den »Big Brother«, Fortschrittsgläubige vergöttern die Maschine.

Wie rasch dabei der kindische Maschinenglaube zur »Ohnmacht der Vernunft« wird, beschrieb bereits der MIT-Professor Joseph Weizenbaum. Schon im Jahr 1966 hatte Weizenbaum ein Programm namens »Eliza« vorgestellt. Eliza hatte das Ziel, ein Gespräch – mit einem Psychologen im Rahmen einer Therapie – zu simulieren. Es gab Benutzer, die zunächst nicht glaubten, dass sie mit einem Computerprogramm statt mit einem Menschen redeten. Weizenbaum nahm diesen gedankenlosen Computergebrauch als Anlass zur Sorge. Er mahnte immer wieder einen kritischen Umgang mit Computern an. Speziell forderte er, dass der Mensch die letztendliche Kontrolle über die Systeme der »Künstlichen Intelligenz« (KI) behalten müsse.¶

Unter den hervorragenden Professoren der Informatik an der THD fiel mir José Luis Encarnação auf. Er war schon im Jahr 1975 an die THD gekommen, und er war weder betulich noch borniert. Professor Encarnação war keiner der Pseudo-Intellektuellen, die sich darin gefallen, Sachverhalte mit künstlicher Kompliziertheit und mit sophistischem Vokabular auszustatten, um ihm eine scheinbare akademische Fallhöhe zu verleihen. Er vertrat sein Fachgebiet mit einer kaum fassbaren Energie. Dispute mit ihm, und die blieben im späteren Leben ja nicht aus, wollten sehr gut vorbereitet sein. Vorgebrachte Gegenargumente konnten von Encarnação unaufhaltsam und dampfwalzenartig überfahren werden. Er war aber keineswegs unbelehrbar. Er nannte sein Fachgebiet und sein Institut »Graphisch-interaktive Systeme« (GRIS). Man sagte auch »Computergraphik« dazu. Die Schreibung der »Graphik« mit einem »ph« war dem φ in γραφω – grapho, also schreiben, zeichnen geschuldet. Wir behalten diese Orthographie hier bei. Aber was sollte diese »Computergraphik« sein und was sollte daraus werden können? All das mutete ziemlich seltsam an.

Ein GRIS, ein »Graphisch-interaktives System«, war damals ein Computer, der im Gegensatz zu den herkömmlichen Rechnern nicht nur Zeichen, als Buchstaben und Zahlen, verarbeiten und anzeigen konnte, sondern eben auch Graphiken. Darunter stellte man sich zunächst quasi »Strichzeichnungen«, also Vektorbilder vor. Die konnten zum Beispiel mit einer vom GRIS-Computer angesteuerten Zeichenmaschine, einem »Plotter«, als eine technische Zeichnung berechnet und ausgegeben werden. Man konnte sich auch vorstellen, dass man irgendwann diskrete »digitale Rasterbilder« in einem Computer würde speichern und verarbeiten können. Das war aber zunächst noch eher utopisch, denn für viele hundert oder tausende Bildpunkte – »Pixel« – eines Rasterbildes hatte man einfach noch nicht den erforderlichen Speicherplatz zur Verfügung.

Professor Encarnação hatte bei der Leitung der THD durchgesetzt, dass er bei GRIS – vom Hochschulrechenzentrum weitgehend unabhängig – spezielle Computergraphik-Rechner betreiben durfte. Einer der Rechner hatte ein Wechsel-Festplatten-System mit einer Kapazität von zwei Megabyte. Der dazugehörende Datenträger mochte etwa vier Kilogramm Masse gehabt haben. Eine handelsübliche Backup-Disc von zwei Terabyte im Jahr 2020 hat eine um eine Million mal höhere Kapazität – mit der Technik von damals hätte eine 2-Terabyte-Disc also der Masse eines kompletten Güterzugs entsprochen. Überdies hielt man für die Computergraphik die Entwicklung von spezieller schneller Computerhardware für erforderlich. Die Graphik-Rechner, die es noch gar nicht gab, wollte man am Institut GRIS an der THD einfach selber bauen. Dafür hatte man ein Hardwarelabor eingerichtet, und es gab ein Projekt namens »Homogener Multiprozessorkern« (HoMuK). Man konnte sich damals einen leistungsfähigen Graphik-tauglichen Rechner nicht zuletzt deshalb als einen Multiprozessor-Rechner vorstellen, weil die diversen Graphik-Algorithmen der Parallelität der Systeme entgegenkamen. Neben der Konstruktion der einzelnen Modul-Rechner war die Realisierung der sie verbindenden Kommunikationskomponente, das war der »HoMuK-Bus«, eine echte Herausforderung.

Professor Dr.-Ing. Dr. h.c. Dr. E.h. José Luis Encarnação, Darmstadt und Berlin

Exkurs – Die Anfänge der »Computer Graphics«

Wenn ich das so lese, an was sich Georg Rainer Hofmann aus studentischer Sicht erinnert, so steuere ich gerne einige Bemerkungen aus der Sicht des im Text erwähnten Professors bei.

Die Anfänge der Graphischen Datenverarbeitung – »Computer Graphics« – gehen zurück auf technische Entwicklungen in den USA, die circa in der Mitte der 1960er-Jahre stattgefunden haben, unter anderem am »Massachusetts Institute of Technology« (MIT) und an der University of Utah. Ich selbst habe im Jahr 1970 auf diesem Gebiet, also sehr früh in dessen Entwicklung, an der Technischen Universität in Berlin am Institut für Informationsverarbeitung bei Professor Wolfgang K. Giloi promoviert. Danach kam ich, nach einem Intermezzo als Professor an der Universität des Saarlandes in Saarbrücken, im Jahr 1975 auf einen Informatik-Lehrstuhl (ein Fachgebiet) an der TH, der heutigen TU, in Darmstadt. Der Lehrstuhl wurde »Fachgebiet Graphisch-Interaktive Systeme« (GRIS) genannt. Damit waren gleich zwei Claims markiert, die in der späteren Informationsgesellschaft von zentraler Bedeutung sein sollten. Zum einen war die »Graphik« das, was später unter anderem auch als »Multimedia« reüssieren sollte. Und zum anderen war die »Interaktion« neu, denn Computer wurden um das Jahr 1980 herum nicht im direkten Dialog von Menschen mit Maschinen, sondern im »Batch« betrieben. Beide Phänomene sollten Jahre später in der Informationsgesellschaft absolut alltäglich sein. Aber wir waren damals, um das Jahr 1980, herum in Darmstadt die Pioniere.

Mein Bestreben war es, dieses Fachgebiet GRIS als eine wichtige Disziplin in der Informatik zu etablieren und durchzusetzen. In der Zeit der Jahre um 1980 herum bedeutete »wichtig« in der Informatik vor allem, dass die Systeme einen Nutzwert in industriellen und gewerblichen Anwendungen darstellten. An einen kulturellen Beitrag der Informatik oder einen alltäglichen Unterhaltungswert der – gar multimedial-graphischen und interaktiven – Computer dachte damals noch kaum jemand. Daher ging es mir um die breite Einsetzbarkeit und Anwendbarkeit der Technologien, Methoden, Algorithmen und Systeme in »Industrie und Wirtschaft«, die wir in diesem neuen Fachgebietes GRIS erforschten und entwickelten. Dies implizierte, schon aus Kosten- und Effizienzgründen, dass die jeweiligen Anwendungen unabhängig von der im Einzelfall verwendeten Hardware und Peripherie programmierbar sein müssten.

Dafür entwickelte mein Darmstädter Fachgebiet in Partnerschaft mit anderen internationalen Gruppen ein »Application Programming Interface« (API) für Anwendungen der Computergraphik. Dieses API wurde »Graphisches Kernsystem – Graphical Kernel System« (GKS) genannt. Wir konnten von Darmstadt aus bei der fachlichen Entwicklung dieser damals sehr wichtigen Innovation eine auch international führende und tragende Rolle spielen.

Ich zeichnete zu dieser Zeit nicht nur verantwortlich für die Aktivitäten im Bereich der DIN-Normung, die in den 1980er-Jahren zur Entwicklung von GKS und vergleichbaren Graphik-Standards führten, sondern auch für den gesamten Aufbau von anderen DIN-Gremien, die für die Beiträge zur internationalen Normung der graphischen Datenverarbeitung zuständig waren. Das ist in der Entwicklung der Informationsgesellschaft ein relativ seltenes Phänomen, dass ein internationaler Standard wesentlich von Deutschland aus entwickelt, pilotimplementiert und geprägt worden ist. Ein zweites Beispiel wäre etwa die viele Jahre später erfolgte Entwicklung des MP3 zur Audiodaten-Kodierung.

Das GKS war der erste Internationale Standard für Computergraphik. Er hatte die Nummer ISO/IEC IS 7942 und wurde im Jahr 1977 eingeführt. In Deutschland war er schon etwas früher unter der Bezeichnung DIN 66252 veröffentlicht worden. Das GKS stellt verschiedene Basisfunktionen für die Programmierung von graphischen Anwendungen zur Verfügung. Zu diesem Zweck wurden im GKS-System mehrere, aufeinander aufbauende GKS-Leistungsstufen spezifiziert. Konzeptionell stellt das GKS-System abstrakte graphische Darstell- und Eingabemöglichkeiten zur Verfügung und ermöglicht die geräteunabhängige Programmierung von graphisch-interaktiven Anwendungen, sowohl zwei- wie auch dreidimensionaler Graphik. Mit diesem Konzept konnten bereits die Anforderungen vieler Anwendungen bedient werden, wie im Bereich Maschinenbau, Architektur und Bauingenieurwesen, Elektrotechnik, auch in der Medizin.

Das GKS wurde zu einer wichtigen Basis für »Computer-aided Design« (CAD), »Computer-aided Engineering« (CAE), »Computer-aided Manufacturing« (CAM), Entwurf elektronischer Schaltungen und Simulationstechniken, auch für Bildgebende Verfahren und Diagnosesysteme in der Medizin etc. Mit der Entwicklung des GKS war es uns gelungen, das Fachgebiet GRIS in der Informatik-Landschaft als Disziplin fest zu etablieren und zu verankern – auch in einem internationalen Kontext. Die Computergraphik entwickelte eine sozioökonomische Relevanz und damit einen Markt für Projekte der Angewandten Wissenschaft. In der Folge hatten wir bei GRIS und später am »Fraunhofer-Institut für Graphische Datenverarbeitung« (IGD) eine gute Situation, was die Gewinnung von Drittmitteln und die Akquisition von Forschungsaufträgen angeht.

Allerdings waren die nicht-technischen Bereiche der Kunst, Kultur und Geisteswissenschaften damit noch nicht für das Fachgebiet GRIS als Anwendungen erschlossen. Viele Personen aus diesen Kreisen meinten sogar, das würde gar nicht gehen, dass ihre hehren Disziplinen etwas mit der profanen »Digitalisierung« im Sinn haben könnten.¶

Bei diesen spannenden Themen bei GRIS wollte ich dabei sein. Nach dem Vordiplom konnte man sich am Fachbereich Informatik an der THD für einen Job als Studentische Wissenschaftliche Hilfskraft, abgekürzt »Hiwi«, bewerben. Ich wurde bei einem Wissenschaftlichen Mitarbeiter vorstellig, der Detlef Krömker hieß. Die Bewerbung war sehr informell. Ich bin damals – einfach so – in sein völlig verrauchtes Büro marschiert. Herr Krömker rauchte am Tag – meiner Schätzung nach – so eine bis maximal drei Packungen des Fabrikats »Camel ohne Filter«. Ich fragte ihn, ob es für mich als Hiwi etwas Sinnvolles zu tun gäbe. Und das war durchaus der Fall.

Ich wurde von Detlef Krömker bei GRIS akzeptiert, und im Frühjahr 1985 begann meine Karriere als Hiwi und damit als ein »Professional« – denn ich verdiente mein erstes Geld in der Informatik. Es galt, Schaltungen für das »HoMuK-System« in Betrieb zu nehmen. Das hieß insbesondere, leidige Entwurfsfehler zu finden und zu beseitigen. Es mag im Jahr 1985 gewesen sein, als man das Jubiläum »10 Jahre GRIS« beging. Professor Encarnação hatte jede Menge nationale und internationale Gäste von akademischer Bedeutung eingeladen, um sein Institut mit diversen akademischen Kolloquien gebührend zu feiern. Wir durften im Labor den experimentellen HoMuK-Aufbau einem Besucher von der TU Berlin vorführen. So eine Vorführung nannte man damals eine »Demo«. Der Besucher war Professor Wolfgang Giloi, bei dem wiederum seinerzeit Encarnação promoviert hatte. Giloi war der damalige »god father« der Rechnerarchitektur in Deutschland. Er lobte unsere Vorführungen und Arbeiten durchaus.

Am Institut GRIS gab es viele internationale Studierende und Gäste, weil Encarnação das glatte Gegenteil von provinziell war. Er verfolgte internationale Kooperationen und akquirierte internationale Projekte. Wir hatten Wissenschaftler aus China, Brasilien, USA, vielen Europäischen Ländern, auch aus Ländern des damaligen sogenannten »Ostblocks«. GRIS war ein wenig wie Raumschiff Enterprise, mit Vulkaniern und Klingonen und allen möglichen Leuten aus aller Welt und »aller Herren Länder«, wie man damals (noch) sagte. Es wurde klar, dass die entstehende Informationsgesellschaft nur als ein »internationales Unterfangen« sinnvoll, denkbar und gestaltbar ist.

In Darmstadt wurden in der Mitte der 1980er-Jahre die Briefe mit dem Motto »In Darmstadt leben die Künste« abgestempelt. Man zehrte noch von der Weitsicht Großherzog Ernst Ludwigs zu Beginn des 20. Jahrhunderts. Auf der Mathildenhöhe waren seinerzeit eine Reihe von Musterhäusern errichtet und damit der damals neuen Kunstrichtung des Jugendstils entscheidende Impulse verliehen worden. Nach dem Zweiten Weltkrieg sollten die Darmstädter »Ferienkurse für Neue Musik« eine nachhaltige weltkulturelle Bedeutung erlangen. Daran anknüpfend entschied man sich seitens der Stadt Darmstadt, für den Sommer des Jahres 1986 eine große Ausstellung und ein interdisziplinäres Symposium zum Thema »Symmetrie« auf die Beine zu stellen.

Das Symposium angestrebte Niveau war schlicht »Weltklasse«. Das Phänomen Symmetrie sollte in seiner gesamten Mannigfaltigkeit in der Bildenden Kunst, den Naturwissenschaften, der Mathematik, Musik, Philosophie etc. umfassend ausgelotet werden. Man hatte für das Riesenprojekt einen wissenschaftlichen Leiter gewinnen können. Es war ein – meiner Wahrnehmung nach – wahrer Universalgelehrter mit Namen Guerino Mazzola und er kam aus der Schweizer Ortschaft Dübendorf in der Nähe von Zürich. Auf seine Provenienz angesprochen, entgegnete er mir einmal, nach einem für ihn typischen »weischt Rrrainerrr« (mit gerolltem »r«), es sei nun gar nicht so wichtig, wo man herkommt, sondern viel mehr, wo man hingeht. Provinz sei überdies keine Frage der Geographie, sondern eine Frage der Geisteshaltung.

Mazzola hatte in Zürich unter anderem Mathematik und Physik studiert, mit 24 Jahren war er promoviert. Er arbeitete dann in Paris und Rom und habilitierte sich im Jahr 1980 im Fachgebiet der Kategorientheorie. Er war danach nach eigener Auskunft »verschiedentlich tätig«. Nun bezog er eine Projektwohnung in einem idyllischen Haus, direkt auf der Mathildenhöhe in Darmstadt.

Es mag im Sommer 1985 gewesen sein, als wir bei GRIS Guerino Mazzola erstmals begegneten. Es ging ihm um Raffaels Fresko »La scuola di Atene – Die Schule von Athen«. Raffael hatte das monumentale und etliche Quadratmeter große Bild Anfang des 16. Jahrhunderts auf eine Wand in der »Stanza della Segnatura«, dem für zeremonielle Unterschriftsleistungen des Papstes vorgesehenen Raum im Vatikan gemalt. Mazzola hatte einen Plan. Die im Fresko dargestellte Szene sollte als ein dreidimensionales Modell im Computer realisiert werden. Es sollte für die Symmetrie-Ausstellung im Sommer 1986 möglich sein, quasi »neue« Perspektiven und Ansichten der von Raffael dargestellten Szene zu berechnen und zu visualisieren, um so neue Erkenntnissen zur Struktur und Symmetrie des Freskos zu gewinnen.

Encarnação übergab das Mazzola-Problem an seinen Mitarbeiter Detlef Krömker, der wiederum auf mich als seinen Hiwi zukam. Zunächst hatten wir keine Ahnung, wie Guerino Mazzola zu helfen sei. Im Laufe der nächsten Jahre und Jahrzehnte sollte ich allerdings erfahren, dass dieser Umstand für fast alle Forschungs- und Beratungsprojekte – an deren Beginn – typisch ist. Denn wenn das Problem ein Einfaches wäre, könnte man für dessen Lösung ja auch andere Leute – als ausgerechnet uns – beauftragen.

Professor Dr. Guerino Mazzola, Minneapolis

Exkurs – Über Religion, Kunst und Wissenschaft

Wenn man das liest, so muss man sehen, dass meine »interdisziplinären Sünden« schon am Mathematischen Institut der Universität Zürich ihren Anfang genommen hatten. Mein Auftreten als der wissenschaftliche Generalsekretär des Darmstädter Symmetrieprojekts war die unmittelbare Folge davon. Ich hatte mich damals bereits in Zürich mit algebraischer Geometrie und Darstellungstheorie beschäftigt und bei Peter Gabriel (dem Mathematiker, nicht etwa dem Popmusiker) habilitiert. Die Algebra hatte ich bereits zur Entwicklung eines neuen interdisziplinären Gebietes der Mathematischen Musiktheorie quasi »missbraucht«, für viele Fachkollegen war das reine Ketzerei.

Der an der TH Darmstadt tätige Mathematikprofessor Rudolf Wille hatte mich vordem zu einem Vortrag zu meiner Mathematischen Musiktheorie eingeladen. Er fand daraufhin, dass ich für das Symmetrieprojekt genügend progressiv und auch provokativ wäre. Mein Vorhaben, im Rahmen des Symmetrieprojekts Raffaels »Schule von Athen« mithilfe von Computergraphik analysieren zu wollen. Das war nicht nur progressiv, sondern schon ein Sakrileg. Das kannte ich freilich, hatte doch bereits meine Computer-basierte mathematische Analyse von Beethovens »Großer Sonate für das Hammerklavier« eine ähnliche Ablehnung hervorgerufen.

Diese Arbeit war auf erbitterte Gegenreaktionen gestoßen, denn wie konnte ich nur jenes heilige Meisterwerk der ersten Wiener Klassik einer formalen Analyse unterziehen. Die Vorurteile der Kollegen vom philosophischen Fach sahen die Mathematik ohnehin als eine Wissenschaft, die nur komplizierte Tautologien produzierte. Besonders verdächtig war den Geisteswissenschaftlern mein damaliger Musikcomputer. Er war der Urahn der später konstruierten Maschine namens »MDZ71« – und dem Nachfolger »presto«. Mein Musikcomputer hatte die musikalischen Parameter der »Sonate für das Hammerklavier« erbarmungslos durcheinandergewirbelt. Ein Artikel über »Beethoven im Computer« war bereits in der »Neuen Zürcher Zeitung« erschienen.

Die von mir zu verantwortende Entwürdigung von heiligster musikalischer Kunst war also der wissenschaftskulturelle Hintergrund, mit dem dann ab dem Jahr 1985 Raffaels Fresko »with a fresh look« angegangen wurde. Zum Glück hatten mein Team und ich auf der Mathildenhöhe und der junge Informatikstudent Georg Rainer Hofmann und seine Kollegen an der TH Darmstadt, einen wichtigen Mentor im Symmetrieprojekt. Das war der prominente Schweizer Kunstwissenschaftler Oskar Bätschmann, der die neuen Methoden und die Computerkultur überaus herzlich begrüßte. Das war wichtig und zudem nicht unwesentlich, um das Raffael-Projekt zum Erfolg zu führen. Die eher traditionell eingestellten Kollegen von Bätschmann verurteilten das Unternehmen als einen ketzerischen Affront gegen die »Sancta Ecclesia« der Kunstwissenschaft. Nach Beethoven im Computer könnte nun auch noch Raffael im Computer die gängige religiöse Bewunderung der Großkunst stören. Das war schon »deadly shocking«.