unbekannter Gast
Geben Sie diesem Artikel Ihre Stimme:
5

Ein ausgedehnter Streifzug durch die Informatik#

Von Gerhard Barth, Sommer 2017

Die nachfolgenden Ausführungen beschreiben meinen Ausbildungs- und Berufsweg durch verschiedene Arbeitsumgebungen. Sie sind in fünf Abschnitte gegliedert:

Schule und Studium#

Barth
Barth. Foto: Archiv Barth
Ich besuchte bis 1968 das Uhland-Gymnasium in Tübingen. Mein Vater hatte einstimmig beschlossen, dass ein humanistisches Gymnasium das Richtige für mich wäre. Eine Entscheidung, für die ich anfangs keine wirkliche Begeisterung aufbringen konnte. Schnell hatte ich aber richtig Spaß an Latein und Griechisch und war bis kurz vor dem Abitur wild entschlossen, diese Fächer zu studieren. Allerdings fand ich keine überzeugende Antwort auf die Frage, was ich danach im Berufsleben machen könnte. So entschloss ich mich spontan, etwas ganz Anderes zu machen und schrieb mich an der Universität Tübingen für das Fach Mathematik ein. Als kleiner Vorteil meiner altsprachlichen Kenntnisse stellte sich heraus, dass ich virtuos mit griechischen Buchstaben jonglieren konnte, was bei der Beschreibung mathematischer Sachverhalte nach Meinung der Dozenten unabdingbare Voraussetzung war.

Teil des Mathematikstudiums war ein Praktikum in Experimentalphysik, welches in einem Team von zwei Studenten absolviert werden musste. Mein Kommilitone zog irgendwann ein Papier aus der Schublade, in welchem die neue Studienrichtung Informatik skizziert wurde. Diese war gerade an den Universitäten München und Karlsruhe eingerichtet worden. Wir belegten beide sogleich einen Programmierkurs in Fortran und waren begeistert von den Möglichkeiten welche der Umgang mit einem Computer zu bieten schien. Uns war schnell klar, dass wir nach dem Vordiplom an die Universität Karlsruhe gehen würden um dort in Rekordzeit unser Informatik-Diplom abzuholen. Denn außer Programmierung in Fortran konnte ja wohl nicht viel Neues auf uns zukommen, ein Trugschluss dem auch viele andere der neuen Kommilitonen aufgesessen waren.

Trotz anfänglicher Orientierungsprobleme fand ich schnell Gefallen an Themen wie Formale Sprachen und Automaten, Algorithmen und Datenstrukturen, Berechenbarkeit und Komplexität, Betriebssysteme, Datenbanken, Systemprogrammierung, Compilerbau, Schaltkreise und all den anderen Informatikkonzepten. Ich wählte als Hauptfach „Theoretische Informatik“, was in den Augen vieler Kommilitonen reine Zeitverschwendung war. Diese Entscheidung habe ich jedoch nie bereut und fand auch auf meinem späteren Berufsweg immer wieder Anwendungspotential für formale Konzepte und Methoden. Es stimmt schon, dass nichts so praktisch ist wie eine gute Theorie. Mein Nebenfach war „Operations Research“, was mich der Vorlesungen wegen immer wieder in räumliche Nähe zum Büro von Professor Maurer brachte. Leider besuchte ich nie eine seiner Vorlesungen von denen andere Studenten tolle Dinge berichteten. Ein oft genanntes Argument war, dass es gute Textbücher – verfasst von ihm selber - zur Begleitung seiner Lehrveranstaltungen gab, etwas das ich bei vielen Informatikveranstaltungen schmerzlich vermisste. Erst Jahre später habe ich Hermann im Rahmen meiner Dissertation persönlich kennen gelernt.

An das Thema meiner Diplomarbeit kann ich mich noch genau erinnern „Hierarchien primitiver Rekursivität in einer Sprache mit Paralleloperator“, ebenso an die sehr gute Betreuung durch Professor Menzel.

Im Hochschulbereich#

Nachdem ich im Sommer 1974 mein Diplom in Händen hielt, begann ich unverzüglich an einer Dissertation zu arbeiten. Professor Mayer hatte mir eine Stelle als Wissenschaftlicher Mitarbeiter gegeben. Mit ihm ging ich an die sich damals noch im Aufbau befindliche Universität Kaiserslautern. Ich hatte keine Ahnung, dass ich später noch zweimal zurückkehren und dort in verschiedenen Positionen insgesamt fast 12 Jahre verbringen würde.

Ich hatte recht schnell ein Thema für meine Forschungen gefunden von dem sich herausstellte, dass es genügend Substanz für eine Dissertation enthielt. Deren Titel war „Protokollgrammatiken – ein Konzept für die zeitvariante Kontrolle kontextfreier Ersetzungen“. Die grundsätzliche Idee war dem Compilerbau entnommen, wo Deklarationen aus Programmen in Symboltabellen festgehalten werden um mit ihrer Hilfe bei der semantischen Analyse und Codegenerierung sicher zu stellen, dass im Anweisungsteil von Programmen nur zuvor vereinbarte Elemente verwendet werden. Professor Mayer schlug vor, Hermann Maurer als externen Gutachter zu wählen. So fuhr ich eines Tages nach Karlsruhe um ihm meine Erkenntnisse vorzutragen. Zufällig war gerade Karel Culik zu einem Aufenthalt als Gastforscher bei Hermann. Die beiden grillten mich einen Nachmittag lang, hoben aber danach die Daumen und gaben grünes Licht für die weiteren Promotionsschritte.

Es stellte sich heraus, dass der junge Fachbereich Informatik in Kaiserslautern noch keine Promotionsordnung verabschiedet hatte. Deshalb wurde mein Verfahren nach den Statuten des Fachbereichs Mathematik durchgeführt.

Der Zufall wollte es, dass im Jahr nach meiner Promotion Professor Wotschke von der Pennsylvania State University als Gastforscher an die Universität Kaiserslautern kam. Bei Saumagen und Pfälzer Wein brachte er eines Tages den Vorschlag auf, mich doch an der Penn State als Assistant Professor zu bewerben, was ich auch prompt tat.

Eines nachts rief mich der Dekan des Computer Science Departments an und machte mir ein Angebot. So ging ich im Sommer 1978 in die USA.

Campusbild
Penn State. Foto: Archiv Barth
T-Shirt
An der Penn State. Foto: Archiv Barth

Die Zeit an der Penn State war phantastisch und gab mir viele Impulse für Aktivitäten in Forschung und Lehre. Besonderen Spaß hatte ich an der Zusammenarbeit mit Graduate Students, die ausnahmslos ehrgeizig, zielorientiert und diszipliniert waren und dennoch eine große Lässigkeit bei der Gestaltung von Freizeit an den Tag legen konnten.

Die wohl beste Beschreibung dafür lässt sich mit den Worten „work hard, play hard“ ausdrücken. Eine Einstellung welche mich beeindruckte und die ich mir bereitwillig zu eigen machte.

Eine Freizeitgestaltung welche ich an einer amerikanischen Universität nie und nimmer erwartet hätte, betrifft das Kinoprogramm auf dem Campus.

An jedem Wochenende wurden in einem großen Hörsaal die halbe Nacht über Filme gezeigt. Dazu gehörte im Herbst 1979 auch der Pornoklassiker „Deep Throat“. Ich verbürge mich für die Richtigkeit dieser Aussage, verschweige aber aus Gründen der Diskretion woher ich das so genau weiß ...

So sehr mir der Aufenthalt an der Penn State gefiel, wollte ich dennoch zurück nach Deutschland. Ich hatte mir in den Kopf gesetzt, Professor der klassischen Schule zu werden und zu habilitieren.

Als mir eine damals neuartige C1-Stelle „Hochschulassistent“ angeboten wurde, ging ich zurück an die Universität Kaiserlautern. Das Thema Compilerbau hatte mich in seinen Bann gezogen da dort viele enge Verbindungen von Theorie und Praxis gebildet werden konnten. Insbesondere die Datenflussanalyse von Programmen faszinierte mich und führte zu einer Habilitationsschrift mit dem Titel „Interprozedurale Datenflussanalyse“. Darin zeigte ich auf, wie lokale Verfahren zur Analyse voneinander unabhängiger Prozeduren zu Algorithmen für die Erkennung und Beschreibung von deren gegenseitigen Wechselwirkungen erweitert werden können. Nicht erst seit dieser Zeit sind mir alle Ausdrucksmittel in Programmiersprachen welche Seiteneffekte hervorrufen können abgrundtief zuwider...

Nach meiner Habilitation im Jahr 1982 erhielt ich verschiedene Rufe auf C3-Professuren, die aber von der Universität Kaiserslautern mit einem Angebot auf eine dortige C3-Stelle gekontert wurden. Also blieb ich für weitere 4 Jahre dort.

1986 erhielt ich von den Universitäten in Oldenburg und Stuttgart fast zeitgleich Rufe auf eine C4-Professur. Nach recht kurzer Zeit war mir klar, dass ich nach Stuttgart gehen wollte.

Ausschlaggebend waren in erster Linie die dort vorhandenen Kooperationsmöglichkeiten mit Unternehmen wie Daimler-Benz, Bosch, IBM und Hewlett-Packard. Die Arbeitsschwerpunkte meines Lehrstuhls lagen auf Programmierparadigmen, Software Engineering, Systemanalyse und Programmierumgebungen. Die beabsichtigten Kooperationen mit Industrieunternehmen entwickelten sich prächtig und führten zu vielen gemeinsamen Projekten. Ich arbeitete eine ganz neue Vorlesung mit dem Titel „Nichtprozedurale Programmierung“ aus, in der ich objektorientierte, logische, applikative, funktionale und regelbasierte Programmierkonzepte darstellte und miteinander verglich. Bei einer großen Konferenz in Berlin durfte ich darüber einen eingeladenen Hauptvortrag halten. Dessen positives Echo in der Industrie kam auch für mich vollkommen überraschend und führte zu zahlreichen Einladungen für Vorträge und Kooperationen unterschiedlichster Art. Insbesondere das objektorientierte Paradigma war plötzlich bei vielen Unternehmen zum heißen Thema geworden.

Die Welt war in Ordnung und ich hatte keine Veranlassung, an einen Wechsel zu denken. Wenn da nicht die Künstliche Intelligenz dazwischen gefunkt hätte ...

An der Schnittstelle zwischen Hochschule und Industrie#

Bereits in den Jahren 1984 bis 1987 wurde von den Kollegen Raulefs und Siekmann im Fachbereichs Informatik der Universität Kaiserslautern die Idee eines Forschungszentrums Künstliche Intelligenz geboren und aktiv vorangetrieben. Dieses sollte gemeinschaftlich vom Bundesforschungsministerium, Universitäten sowie Industrieunternehmen getragen werden. Das Vorbild waren amerikanische Private-Public-Partnerships wie sie etwa im Silicon Valley anzutreffen waren.

Ehrlich gesagt, habe ich mich damals nicht allzu engagiert in die Diskussionen eingebracht, denn KI war eigentlich nicht mein Thema. Darüber hinaus konnte ich auch noch nicht erkennen, welches Leitmotiv ein solches Institut haben sollte und wie verschiedenartigste Konzepte effektiv und effizient ineinander integriert werden könnten. Lange Rede kurzer Sinn – bei meinem Weggang nach Stuttgart hatte ich die Initiative ohnehin abgehakt.

Umso erstaunter war ich, als im Frühjahr 1988 ein Anruf von Professor Schwärtzel kam, Generaldirektor in der zentralen Forschung bei Siemens, bei dem er mich zu einem Gespräch einlud. In der Zwischenzeit hatte die Planung des Instituts richtig Fahrt aufgenommen und Professor Schwärtzel war zum Vorsitzenden des Aufsichtsrats der DFKI GmbH bestimmt worden. DFKI ist der Name des Deutschen Forschungszentrums für Künstliche Intelligenz. Zu den Gesellschaftern des DFKI zählten u.a. Siemens, IBM, Daimler-Benz, Nixdorf, Philips, Mannesmann-Kienzle, GMD und die Fraunhofer Gesellschaft. Vervollständigt wurde das Konsortium durch das Bundesforschungsministerium, die Bundesländer Rheinland-Pfalz und Saarland sowie die Universitäten Kaiserslautern und Saarbrücken.

Professor Schwärtzel fragte mich im Verlauf unseres Gesprächs, ob ich bereit wäre für die Leitung des Instituts zu kandidieren. Ein Angebot das mich mehr als überraschte! Denn wie schon oben erwähnt, hatte ich mich davor eher wenig mit KI beschäftigt. Wie auch immer, ich stellte mich dem Aufsichtsrat bei einer Sitzung in Frankfurt vor und skizzierte meine Vorstellungen zu Arbeitsgebieten und Organisation. Ich erinnere mich noch sehr genau an den Grundtenor meiner Präsentation, in deren Verlauf ich auch wörtlich sagte „Künstliche Intelligenz ist ein ziemlich unpassender Name für ein faszinierendes Gebiet“.

KI habe ich immer verstanden als Maschinelle Wissensverarbeitung und sehe diese als konsequente Fortsetzung des Wegs von der Elektronischen Datenverarbeitung hin zur Informationstechnik. Der Zusammenhang zwischen Daten, Information und Wissen lässt sich meiner Meinung nach zusammenfassen in den zwei Aussagen

  • Daten enthalten Information
  • Wissen ist die Fähigkeit aus Daten relevante Information zu extrahieren.

Wissensverarbeitende Systeme bauen deshalb auf Konzepten, Methoden und Techniken der klassischen Datenverarbeitung auf und erweitern diese um Konzepte, Methoden und Techniken zur formalen Darstellung von Wissen sowie dessen Verwendung bei der Analyse von Daten unterschiedlichster Art und dem Herausfiltern der darin enthaltenen anwendungsabhängigen Information.

Diese für viele in der Wolle gefärbte KI Forscher nicht übermäßig spektakuläre Sicht auf das Gebiet hatte ich damals und habe sie heute immer noch. Ich bin mir ziemlich sicher, dass meine pragmatische Einstellung einigen Einfluss hatte auf die Entscheidung des DFKI Aufsichtsrats, mir die Leitung des Instituts anzubieten. Diese war verbunden mit einem Lehrstuhl im Fachbereich Informatik der Universität Kaiserslautern. Die Doppelfunktion als Geschäftsführer der DFKI GmbH und als Universitätsprofessor brachte in der Tat eine Arbeit in zwei Welten mit sich.

Institut
Institutsgebäude. Foto: Archiv Barth

Die materielle Ausstattung des Instituts war traumhaft. Es wurden sowohl in Kaiserslautern als auch in Saarbrücken moderne Neubauten errichtet und das jährlich zu Verfügung stehende Budget konnte man nur als sehr gut dimensioniert bezeichnen. Allerdings war es nicht so, dass wir nur Finanzmittel des Bundesforschungsministeriums abrufen mussten um diese dann nach eigenem Gutdünken verwenden zu können. Wir hatten vielmehr einen hochkarätigen Beirat, welcher mit internationalen Experten besetzt war und dem regelmäßig der Fortgang laufender und die Anträge für neue Projekte zu präsentieren waren. Darüber hinaus galt es, stets eine enge Abstimmung mit den industriellen Gesellschaftern vorzunehmen um auch von ihnen Mittel für die Finanzierung von Projekten zu akquirieren.

In erstaunlich kurzer Zeit erwarb sich das DFKI einen hervorragenden Ruf und wurde zum begehrten Kooperationspartner für andere KI-orientierte Institutionen in Deutschland und Europa sowie in Japan und den USA. Dieses Renommee hat sich das DFKI bis heute erhalten und beständig ausgebaut. Es konnten weitere Industriegesellschafter gewonnen und die Zahl der Standorte erweitert werden. In der Zwischenzeit sind auch zahlreiche industrielle Spin-Offs des Instituts zur Vermarktung von Forschungsresultaten entstanden. Ein Blick auf die Homepage des Instituts lohnt sich und wird die Richtigkeit dieser Aussagen belegen!

Die ersten 4 Jahre vergingen wie im Fluge. Ich hatte einen Riesenspaß an der Arbeit und trug mich mit keinerlei Gedanken nach den häufig zitierten neuen Herausforderungen. Aber wie man weiß, unverhofft kommt oft ...

Industrie und Wirtschaft#

Im Sommer 1992 bekam ich einen Anruf vom Sekretariat des damaligen Vorstands für Forschung und Technik der Daimler-Benz AG, Professor Weule, bei dem ein Termin für ein Gespräch mit ihm abgestimmt wurde. Ich bereitete mich darauf vor, ihm das DFKI und die dort laufenden Forschungsaktivitäten vorzustellen. Daimler-Benz war ja einer der Gesellschafter von dem wir Finanzmittel erhielten. Meine Annahme war, dass Professor Weule als Vorstand des damals größten deutschen Industriekonzerns wohl höchstens eine Stunde seiner kostbaren Zeit für mich aufbringen konnte. Umso erstaunter war ich, dass unser Gespräch nahezu drei Stunden dauerte, in denen er mich nicht nur nach DFKI spezifischen Dingen fragte, sondern vielmehr auch meine Meinung zu verschiedenartigsten Informatikthemen wissen wollte.

Wenige Tage später rief er persönlich an und nannte mir den wirklichen Grund für unser Treffen. Er hatte sein Ressort bis dahin in drei Direktionen gegliedert und wollte eine vierte einrichten, welche die Bezeichnung Informationstechnologie erhalten und für den Konzern diesbezügliche Forschungsthemen bearbeiten sollte. Davon hatte ich vor unserem Treffen natürlich nicht die geringste Ahnung und deshalb in unserem Gespräch ganz offen und unverkrampft meine Einstellung zu seinen Fragen geäußert. Er bot mir die Leitung der neuen Einheit an. Ich fand keinen Grund, diese Chance nicht ergreifen zu sollen und verließ im Herbst 1992 das DFKI. Im Nachhinein muss ich allerdings sagen, dass mir dieser Schritt nicht ganz so leicht gefallen ist. Schließlich verließ ich ja damit die Hochschulwelt und betrat das für mich neue Umfeld eines riesigen Industrieunternehmens.

Forschungszentrum
Daimler-Benz Forschungszentrum. Foto: Archiv Barth
Daimler-Benz hatte in Ulm ein nagelneues Forschungszentrum errichtet, wo ich mein Büro hatte und auch die meisten Abteilungen der neuen Direktion angesiedelt waren. Weitere Standorte waren Stuttgart, Berlin sowie später auch noch Palo Alto und Bangalore. Forschung in einer Industrieumgebung unterscheidet sich naturgemäß deutlich von der Grundlagenforschung in einem universitären Umfeld. Hohe Bedeutung kommt der Ausrichtung auf spätere Verwendbarkeit der Resultate in Produkten des Unternehmens zu. Diese Rahmenbedingung habe ich aber nie als unzumutbare Einschränkung empfunden, stellt sie doch eine spannende Herausforderung für die Forscher da und regt deren Kreativität zusätzlich an. Ich kann mit Fug und Recht behaupten, dass wir so ziemliche alle Register der Informatik ziehen und in unsere Arbeit einfließen lassen konnten. Nur ein Beispiel dazu, weil es uns in den Genuss von 6 Flaschen besten Champagners brachte.

Ein Forscherteam beschäftigte sich mit dem damals noch jungen Thema Data Mining, was man heutzutage mit Data Warehousing oder Business Intelligence bezeichnen würde. In enger Abstimmung mit dem Finanzressort des Konzerns wurde ein System zur Prognose der Wechselkurse zwischen DM, Dollar und Yen erarbeitet. Die Vorhersagen überdeckten Zeiträume von einer Woche bis zu drei Monaten. Für den damaligen Chef des Unternehmensbereichs DASA und späteren Vorstandsvorsitzenden des Gesamtkonzerns, Jürgen Schrempp, war ein hoher Wechselkurs zwischen DM und Dollar wünschenswert, da im Umfeld von Luft- und Raumfahrt alle Geschäfte auf Dollarbasis verhandelt wurden. Zum Zeitpunkt eines Besuchs von Herrn Schrempp in unserem Forschungszentrum stand der Dollar bei 1,35 DM, wobei unser System einen Anstieg auf mindestens 1,80 DM im Verlauf der nächsten drei Monate prophezeite. Eine Prognose die Herrn Schrempp zu einem ungläubigen Kopfschütteln veranlasste. Ich schlug ihm eine Wette vor, welche wir tatsächlich gewannen und prompt mit der Lieferung einer Kiste Champagner der Marke Bollinger (!) quittiert wurde.

Eine weitere Anekdote aus dieser Zeit rührt aus einer Begegnung mit Bill Gates her. Er besuchte jedes Jahr große Unternehmen und gute Kunden von Microsoft, wozu offensichtlich auch Daimler-Benz gehörte. In meiner Präsentation für ihn hatte ich unser Leitmotiv „Information – immer, überall, bedarfsgerecht“ ins Englische mit „Information – anytime, anywhere, any form“ übersetzt. Gates war so angetan, dass er mich spontan zu einem Besuch der Microsoft Zentrale einlud, wo ich einem ausgewählten Kreis an Führungskräften dieses Leitmotiv beschreiben und die damit verbundenen Forschungsschwerpunkte vorstellen sollte. Im Verlauf der sich an meine dortige Präsentation anschließenden Diskussion machte einer der Anwesenden den Vorschlag, das bis dahin von Microsoft verwendete Leitmotiv „Information at your fingertips“ zu ersetzen durch „Information – anytime, anywhere, any device“. Ich würde diese Anekdote natürlich nicht hier erwähnen, wenn dieser Vorschlag nicht umgesetzt worden wäre.

Die Jahre von 1992 bis 1996 bei Daimler-Benz habe ich in bester Erinnerung. Welcher Teufel mich geritten hat, dennoch ein Angebot von Alcatel als deren CIO anzunehmen, ist mir im Nachhinein immer noch etwas unklar. War es die Perspektive in den Vorstand einzuziehen, Büros in Paris und Stuttgart zu haben, die Faszination der stark im Aufschwung befindlichen Telekommunikation, finanzielle Anreize? Ich denke es war eine Kombination all dieser Aspekte. Eines weiß ich aber genau, es war keine glückliche Entscheidung. Ich konnte mich nie richtig mit der Alcatel Firmenkultur anfreunden und verliere deshalb hier auch keine weiteren Worte über die Arbeit dort. Von allzu positiven Erfahrungen könnte ich ohnehin nicht berichten. Immerhin blieb ich aber doch knapp drei Jahre, bevor mich ein weißer Ritter in Gestalt eines Headhunters los eiste.

Ende der Neunzigerjahre waren die großen deutschen Banken endlich (!) zu der Erkenntnis gelangt, dass ihr Kerngeschäft in so hohem Maße von Informatik abhängig war, dass dafür Leitungsfunktionen auf Vorstandsebene eingerichtet werden sollten. Bis dahin berichtete der CIO typischerweise an den Finanzvorstand und hatte nicht annähernd den Einfluss welcher für die Gestaltung effektiver und effizienter IT erforderlich war. Auch die damals zweitgrößte deutsche Bank, die Dresdner Bank, suchte nach einem Vorstand in dessen Ressort die Verantwortung für Informationstechnik gebündelt werden sollte. Ein mit der Suche beauftragter Headhunter nahm Kontakt mit mir auf und stellte eine Verbindung zur Dresdner Bank her. Ich durfte mich dem Aufsichtsrat vorstellen, dessen Vorsitzender mir danach ein Vertrag zur Unterschrift vorlegte. Schon mit dem Füller in der Hand sagte ich noch „Ich weise Sie darauf hin, dass ich vom Bankgeschäft nicht viel mehr verstehe als ein Girokonto zu eröffnen und zu überziehen“, worauf seine Antwort war „Wir suchen nicht noch jemand der uns sagen will wie man eine Bank führt. Wir suchen jemand der was von Informationstechnik versteht“. So begannen 1999 spannende Jahre bei der Dresdner Bank.

Forschungszentrum
Dresdner Bank. Foto: Archiv Barth

Die grundsätzlichen Anforderungen einer Bank hinsichtlich Informationstechnik beinhalten natürlich in erster Linie Zuverlässigkeit, Sicherheit und Echtzeitfähigkeit. Insbesondere der letztgenannte Aspekt spielt im Zahlungsverkehr, der Wertpapierabwicklung und der Risikoabschätzung eine wichtige Rolle. Ende der Neunzigerjahre kamen auch Schlagworte wie eBanking, Online Banking, eCommerce, eTrade u.ä. auf. Ich hatte manchmal den Eindruck, dass Sprachschöpfungen der Form eXYZ, wobei XYZ für fast Beliebiges stehen durfte, stets eine große Begeisterung hervorriefen die sich nicht selten zu regelrechter Hysterie ausweitete. So hatte die Deutsche Bank angekündigt, jedes Jahr eine Milliarde DM für die konsequente Umstellung auf eBanking zu investieren. Ich wurde in einer Vorstandssitzung von einem Kollegen gefragt, wie hoch denn unser diesbezügliches Budget sei. Für die nächste Sitzung versprach ich eine Aufstellung unserer Initiativen und präsentierte dann eine Vorlage, in der rund 400 Millionen DM als jährliche Investitionssumme ausgewiesen waren. Zu meiner großen Verblüffung wurde ich aufgefordert, diese Summe zu verdoppeln um ja nicht den Anschluss zu verlieren. Niemals zuvor und nie wieder danach war es so einfach eine Budgetplanungsrunde zu durchlaufen. Nur am Rande sei erwähnt, dass dieser Hype wie zu erwarten nicht von langer Dauer war.

Die Dresdner Bank war in vier Unternehmensbereiche gegliedert, nämlich Privat- und Firmenkundengeschäft, Asset Management und Investment Banking. Die bei weitem schwierigsten Kunden für unsere IT Aktivitäten waren die Investmentbanker. Jedes Team hatte eigene Vorstellungen zur Ausgestaltung der IT Landschaft und war nur schwer zu einer halbwegs einheitlichen Architektur zu bewegen. Zahlreiche Besprechungen und die damit verbundenen Flüge von Frankfurt nach London und New York ließen mein Bonusmeilenkonto bei der Lufthansa in siebenstellige Höhe anschwellen.

Im Gegensatz zu vielen anderen Industrie- und Wirtschaftssegmenten gab es damals so gut wie keine IT Standardbausteine für das Bankengeschäft. Die Folge war natürlich, dass jedes Finanzinstitut seine eigenen Systeme erstellt hatte die untereinander wenig kompatibel waren und unendlich viele Schnittstellenadaptionen erforderten. Ich organisierte deshalb Gesprächsrunden zwischen Dresdner Bank, Deutscher Bank, Commerzbank und der HypoVereinsbank mit dem Ziel der Vereinheitlichung von Kernsystemen. Die Resultate waren rückblickend mehr als dürftig und ziemlich enttäuschend. Jede Bank hatte viele Millionen in ihre Eigenentwicklungen gesteckt und war darauf erpicht, die eigenen Systeme zu erhalten und die anderen Banken zur Migration zu bewegen. An dieser Einstellung scheiterten auch dann verschiedene Initiativen zur Konsolidierung der deutschen Bankenlandschaft.

Die Zeit nach Hochschule, Industrie und Wirtschaft#

Im Jahr 2006 beschloss ich, aus dem Berufsleben auszuscheiden und mich Aktivitäten zu widmen, für die ich schon immer großes Interesse aber wenig Zeit gehabt hatte.

Freiezit
Freizeit. Foto: Archiv Barth
Freizeit
Freizeit. Foto: Archiv Barth
Dazu gehörten Sportarten wie Radfahren, Skifahren, Waldläufe und Schwimmen, aber auch Reisen durch Deutschland, Europa und den Rest der Welt. Diese Zeit der eigenbestimmten Freizeitplanung dauerte etwa ein Jahr, bevor ich dann doch wieder die Finger nicht von der Informatik lassen konnte und als Berater oder Interimsmanager tätig wurde. Eigentlich ging es dabei immer nur darum, auf meine Berufserfahrung zurück zu greifen und diese in anderer Umgebung einzubringen.

Die Zeit seit 2011 steht unter dem Motto „back to the roots“. Ich habe immer für mein Leben gern Vorlesungen gehalten und war deshalb hellauf begeistert als das Unternehmen Cisco auf mich zukam und eine Kooperation in Form von Industrieseminaren anbot. Ich sollte Kurse zum Thema „IT and Business Alignment“ durchführen. Voller Elan begann ich ein solches Seminar zu konzipieren. Nach etwa einem halben Jahr waren alle Beteiligten zufrieden und ich tourte durch die Welt um Cisco Mitarbeiter an jeweils 14 Tagen zu unterrichten. Ich erinnere mich an Schulungen in Frankfurt, München, London, Paris, Moskau, Kapstadt, Singapur, San Jose, Chicago, Dallas und Phoenix. Irgendwann kamen Kunden von Cisco dazu, wie etwa Deutsche Telekom, British Telecom, Siemens und Microsoft. Seit zwei Jahren ist auch der französische Luxusgüterkonzern Louis-Vuitton-Moët-Hennessy ein Kunde dieser Seminare. Dem Geschäftsmodell entsprechend finden diese Seminare an schönen Orten statt – Paris, Rom und Madrid – und werden auch regelmäßig ergänzt um Besuche von Champagner Kellereien ... Diese Art von Lehrveranstaltungen gefällt mir genauso gut wie universitäre Vorlesungen, vielleicht sogar noch etwas besser, denn Diskussionen mit berufserfahrenen Personen bieten einen besonderen Reiz und erweitern auch meinen Horizont.

Natürlich kommt in diesen Seminaren auch regelmäßig die Sprache auf aktuelle Trends und Schlagworte, an denen die Informatik ja wahrlich keinen Mangel hat. Stand heute werden Begriffe wie Cloud Computing, Internet of Things, Big Data, Social Media, Industrie 4.0, Digital Transformation und Artificial Intelligence ja fast schon inflationär verwendet. Es bringt mich immer wieder zum Schmunzeln wenn ich lese oder höre, dass die CEOs von IBM, Facebook, Google und Microsoft jetzt ihre Unternehmen in „AI centric organizations“ umwandeln wollen. Als ob Künstliche Intelligenz die berühmte eierlegende Wollmilchsau - oder vornehmer ausgedrückt die Silver Bullet - für die Erfüllung aller Anforderungen und Erwartungen sein könnte. Meine Sicht dazu habe ich oben schon skizziert und sehe überhaupt keinen Grund, meine Meinung ändern zu sollen.

Amüsant finde ich es auch wenn Industriegrößen wie Mark Zuckerberg und Elon Musk sich gegenseitig vorwerfen das Thema nicht richtig zu durchdringen. Musk liebt fetziges Marketing und strebt gerne mit provokativen Thesen nach Aufmerksamkeit. Größte Anerkennung verdient seine konsequente Umsetzung der Vision, Autos umfassend in das Internet zu integrieren. Die Benutzeroberfläche eines Teslas ist momentan denen von Konkurrenzprodukten weit voraus. Auch die Fähigkeit dieser Fahrzeuge, autonom durch den Verkehr zu navigieren sind schon sehr beeindruckend.

Der These von Musk „AI is the greatest risk we face as civilization“ stimme ich aber ganz und gar nicht zu. Zuckerberg sieht die Zukunft der KI pragmatischer, wenn ihn natürlich auch in erster Linie deren Potential für Facebook interessiert. Ich bestreite keinesfalls, dass man mit KI Methoden gefährliche und unerwünschte Nebenwirkungen erzielen kann. Vergessen sollte man jedoch nicht, dass auch KI Systeme im Kern auf Algorithmen beruhen die von Menschen programmiert werden. Es ist deren Verantwortung, effektive und effiziente Sicherheitsmaßnahmen zu implementieren um fatale Seiteneffekte im Griff behalten zu können. Dies ist nicht einfach, aber meiner festen Meinung nach definitiv machbar.

Großes Potential sehe ich auch bei der Einbindung von Social Media in Geschäftsprozesse. Damit sind nicht diese unseligen Selfies und blödsinnigen Tweets gemeint, welche jeden Tag milliardenfach erstellt werden. Es geht vielmehr darum, durch geeignete Plattformen den Austausch von Wissen innerhalb von Unternehmen zu verbessern, ebenso mit Kunden, Zulieferern und Kooperationspartnern. Ich kann in diesem Zusammenhang das Buch „Enterprise 2.0“ von Andrew McAfee wärmstens empfehlen, in dem die nutzbringende Verwendung von Social Media Konzepten anschaulich und überzeugend beschrieben wird. Wissen hat derartig viele Facetten und Formate, dass der eine Zeit lang verfolgte Ansatz, mächtige Wissensbanken analog zu Datenbanken zu erstellen und zu nutzen sehr rasch an die Grenzen des Machbaren gestoßen ist. Blogs, Wikis, Communities und Chatforen sind sehr viel benutzerfreundlicher, leichter anpassbar und besser skalierbar als Techniken zur strengen Formatierung, Speicherung und Nutzung von Wissensbestandteilen.

Social Media sind untrennbar mit dem Thema Big Data verbunden, welchem ich deshalb ebenfalls große Bedeutung beimesse. Ich mag die Charakterisierung von Big Data als ein Arbeitsgebiet „wo herkömmliche Datenbankkonzepte nicht ausreichend oder adäquat sind“. So unscharf diese Beschreibung auf den ersten Blick erscheinen mag, halte ich sie für einen guten Ausgangspunkt zu weiter und tiefer gehenden Überlegungen. Diese führen fast zwangsläufig zu den oft zitierten neun Aspekten „validity, value, variety, velocity, veracity, viability, visibility, volatility, volume“ von Big Data.

Schlussbemerkung#

Informatik ist faszinierend und ihr Potential noch lange nicht ausgeschöpft. Ich verzichte bewusst darauf, diese Behauptung hier ausführlicher zu diskutieren. Dies wurde schon von vielen Personen lang und breit exerziert, wobei für meinen Geschmack jedoch allzu oft mangelhafte Fachkenntnisse durch geschmeidige Eloquenz ersetzen werden ...

Nur noch eine Bemerkung - wenn ich das Rad der Zeit um 50 Jahre zurückdrehen könnte, würde ich mich bei der Wahl des Studiums sofort wieder für Informatik entscheiden.


beeindruckende kombination von wissenschaft und praxis!

-- gamauf gerald antal, Montag, 14. August 2017, 07:39