Menschen und Informationstechnik – Das Magazin von sd&m
www.sdm.de | sd&m-Magazin 6 | 2007
Architektur: Bits und Steine Charaktersache: Individual- oder Standardsoftware? Code like a girl
Editorial
Bits und Steine Unter diesem Motto steht nicht nur die sd&m-Konferenz 2007 in Berlin, sondern auch die Jubiläumsausgabe der m&it, die Sie nun in Händen halten. Zum 25-jährigen Unternehmensjubiläum von sd&m widmen wir unser Magazin dem Thema Architektur – und spannen dabei den Bogen über zwei ganz verschiedene Welten: die klassische Architektur einerseits und die IT-Architektur andererseits. Sie erfahren in diesem Heft, was die klassische Gebäudearchitektur mit IT-Architekturen verbindet und welche Gemeinsamkeiten und Unterschiede zwischen dem Beruf des Software-Architekten und dem des klassischen Architekten bestehen. Auch schreiben wir über die Arbeit des Architekten Eberhard Burger beim Wiederaufbau der Dresdner Frauenkirche und über das Beschilderungskonzept des Münchner Flughafens. Mit Quasar Enterprise stellen wir einen Ansatz zur Gestaltung von ITAnwendungslandschaften im Großen vor. Und selbst die innere Architektur von Teams haben wir beleuchtet. Zudem stellen wir Ihnen einige Weltwunder der IT vor und freuen uns auf einen regen Ideenaustausch mit Ihnen: Was ist für Sie persönlich das bedeutendste IT-Weltwunder? Kommen Sie mit auf diese Reise durch zwei Welten und lassen Sie sich inspirieren. Vielleicht tüfteln Sie ja schon am nächsten IT-Weltwunder. Wir wünschen Ihnen eine vergnügliche Lektüre.
Herzliche Grüße Ihr
Edmund Küpper, Vorstandsvorsitzender der sd&m AG
Schwerpunkt
Architektur Code like a girl Zur Schönheit von Software
|20
Virtuelle Kathedralen IT-Architekt trifft Hausarchitekt: Was verbindet, was trennt?
|24
Mit Licht lenken Orientierung am Flughafen
|28
Weltsprache für Design Design-Patterns in Architektur und IT
|31
Bilbao ist überall Von der Brache zur Kultstadt
|34
Corporate Architecture Unternehmensarchitektur in Bildern
|4
|36
Inhalt
Management Der Wert der IT Ein Gespräch mit Dr. Sturm zur IT-Strategie der BSH GmbH
|6
Wie ein starkes Team entsteht Die Architektur von Projektteams
|10
Den Wahlsieg bauen Auf die Botschaft kommt es an
|14
Die Frauenkirche in Dresden Ein Wiederaufbau nach historischem Vorbild
|16
Hype oder Hoffnung? SOA wird Spuren hinterlassen
|18
Schwerpunkt Architektur
|20
Software SAP in 8 Minuten Was steckt dahinter?
|40
Die ausgebliebene Revolution MDA ist besser als ihr Ruf
|42
Charaktersache Individual- oder Standardsoftware – das ist hier die Frage
|45
Planung statt Abrissbirne Quasar Enterprise liefert den Masterplan
|47
Transfer Heute virtuell – morgen real? So baut man in Second Life
|50
Weltwunder der IT Wer macht das Rennen um Platz 10?
|52
Die Botschaft der Bäume Claus Mattheck übersetzt die Mechanik der Bäume
|54
Erinnern Sie sich noch? Das Jahr-2000-Problem
|57
Impressum
|58
5|
Informationstechnologie spielt bei BSH Bosch und Siemens Hausgeräte GmbH eine zentrale Rolle. Im m&it-Gespräch mit Dr. Martin Eldracher erläutert Dr. Jürgen Sturm, CIO des Unternehmens, wie die BSH ihre IT-Strategie entwickelt, wie diese die Gesamtstrategie der BSH trägt und warum die IT keinen Anspruch auf den deutschen Logistikpreis für herausragenden BSH-Kundenservice erheben kann.
Management
Wert
„Der der IT zeigt sich erst, wenn sie
nicht funktioniert.“ Martin Eldracher: Herr Dr. Sturm, Sie sagen öfter, IT sei in der Sache völlig nebensächlich! Von einem CIO ist dies freilich eine überraschende Aussage. Dr. Jürgen Sturm: Ich möchte damit vor allem eines betonen: IT ist kein Selbstzweck! Natürlich ist IT unverzichtbar für robuste Prozesse, Wachstum und Innovation. Solange die Geschäftsprozesse optimal laufen, die Prozessexzellenz – auch mithilfe der IT – gewährleistet ist, interessiert die IT aber niemanden; in der Wahrnehmung ist sie im Idealfall völlig nebensächlich – solange man sich vollständig auf seinen Geschäftsprozess konzentrieren kann und alles bestens funktioniert. Das ändert sich natürlich schlagartig, wenn die IT ausfällt. Das ist wie mit dem Strom aus der Steckdose – man merkt sofort, wenn er fehlt. Martin Eldracher: So nebensächlich ist sie also doch nicht. Wie stellen Sie dann sicher, dass der Strom an Informationen nicht abreißt? Sturm: Die BSH hat sich der Business Excellence verschrieben und mehrere Exzellenz-Initiativen definiert, in jeder davon spielt die IT eine tragende Rolle. Hierzu drei Beispiele. Erstens: Es beginnt bereits bei der Produktentstehung. Wir implementieren effiziente Prozesse, indem wir Produktinnovationen und neue Produktionsstätten vorab digital simulieren und visualisieren. Zweitens: Wir erhalten die operative Wettbewerbsfähigkeit unserer weltweit 45 Fabriken durch Integration von Kunden, Lieferanten und Partnern in eine elektronische Lieferkette – von der dispositiven Materialbereitstellung durch die Lieferanten über die weltweiten Fertigungs- und Logistikprozesse bis zur termingerechten Auslieferung bei den Kunden. Drittens: Wir begeistern unsere Kunden auch mit den Serviceprozessen im Kundendienst, indem unsere Techniker dank vernetzt vorhandener Service-Information und IT-gesteuerter Logistik mit den richtigen Ersatzteilen bei den Kunden ankommen und einen eventuellen Fehler bereits beim ersten Besuch beheben.
Martin Eldracher: Wie entsteht bei der BSH eine IT-Strategie, die sicherstellt, dass die IT dies alles unterstützt? Sturm: Grob gesprochen: Die Geschäftsstrategie prägt die ITStrategie. Diese prägt wiederum die Applikationsstrategie mit entsprechenden Infrastruktur- und Plattformstrategien. Für alle diese Ebenen müssen wir die IT-Abläufe und Prozesse in einer geeigneten IT-Organisation schaffen, um mit den richtigen Zielen, Menschen, Standorten und Geschäftspartnern unseren Teil zur Business Excellence beizutragen. Wir formulieren die IT-Strategie explizit und stimmen sie kontinuierlich im Unternehmen ab. Die entsprechenden Gremien beschließen sie dann formal und machen sie verbindlich. Regelmäßige Berichte an die Geschäftsführung sowie die Verankerung der IT-Strategie im Rahmen der BSHGeschäftsplanung bilden einen umfassenden formalen Rahmen. Über die Fortschreibung der IT-Strategie im kontinuierlichen Dialog zwischen Fachseiten und IT sind die Führungskräfte und Mitarbeiter sowohl der IT, vor allem aber auch des Geschäfts permanent eingebunden. Dies schafft Wissen, Zustimmung und Umsetzung.
7|
Management
Martin Eldracher: Welches sind die wichtigsten Einflussfaktoren auf die IT-Strategie? Sales Service Sturm: Vor allem sind die GeschäftsanforderunExcellence Excellence gen wichtig. In der technischen Umsetzung nutzen wir vor allem etablierte Standardplattformen für die klassischen Schichten wie Applikationen, Middleware, Datenbank, Betriebssystem und Hardware. Allerdings folgen wir keinem monolithischen Ansatz, sondern setzen innerhalb unserer Standards jeweils ein, was das jeweilige Geschäft optimal unterstützt. Insofern haben wir beispielsweise bei der Middleware für jeweils gut definierte Teilgebiete SAP-, J2EE- und .NET-Lösungen in unserem Standardkatalog. Weil die BSH ein InnovaStrategy Development tionsführer ist und damit sehr differenzierte Anforderungen aus unseren Geschäftsprozessen bestehen, ergibt sich für die IT insgesamt eine relativ hohe Fertigungstiefe mit einem differenzierten Ansatz zu „make or buy“. Wichtig ist dabei, niemals die Entscheidungs- und Handlungskompetenz zu verlieren. Martin Eldracher: Welches sind die wichtigsten Elemente der heutigen IT-Strategie? Sturm: Die wichtigsten Elemente unseres IT-Strategiediamanten sind einerseits der Strategieentwicklungsprozess, der eng mit dem der Geschäftsplanung zusammenhängt, andererseits spielen die einzelnen Gesichtspunkte der IT-Strategie, wie beispielsweise die aufeinander aufbauenden Aspekte der Anwendungs- oder Infrastrukturstrategie, eine Rolle. Daneben kommen aber auch weitere Aspekte zum Tragen wie Financials und Governance, Sourcing, Aufbau- und Ablauforganisation in der IT. Denn auch wir sind natürlich Teil der gesamten BSH und müssen somit unsere Prozess-, Kosten- oder Service-Exzellenz immer weiter verbessern. Auch hier gilt: Nichts macht die IT für die IT. Alles, was wir tun, geschieht für unseren Kunden – in diesem Sinne gilt ein striktes „Business drives IT“ für das „was wir tun“. Umgekehrtes gilt für
Business Excellence as part of Business Strategy Engineering Excellence
Purchasing Excellence
Manufacturing Excellence
Supply Chain Excellence
Finance Excellence
HR Excellence
„Business Drives IT“
IT-Strategy
Financials + Governance Sourcing Strategy
Strategy Communication
Application Strategy Elements of the strategy Process Organization
Infrastructure Strategy
„IT Drives IT“
Organizational Structure
Strategy Implementation
Strategy Monitoring
das „wie tun wir es“. Hier sind wir „Chef im Ring“ und als die Experten für die IT und ihre Prozesse sagen wir, wie es umgesetzt wird. Es gilt also auch „IT drives IT“. Der Benutzer sollte nicht entscheiden, ob seine Anwendung besser auf Windows oder auf Unix läuft. Martin Eldracher: Gibt es in Teilstrategien innerhalb der IT-Strategie sichtbare Differenzierungen? Sturm: Natürlich kann man nicht immer alles in allen Märkten mit einem Standard optimal abdecken. Deshalb betreiben wir für manche Prozesse zumindest zeitweise mehrere Plattformen gleichzeitig – vor allem wenn ein Dienst oder eine Applikation in die „End of Life“-Phase kommt. Da man nicht schlagartig in allen Märkten und für alle IT-Produkte umstellen kann, gibt es zwangsläufig ein „phase out“ und ein „phase in“. Den Kunden ist dabei bewusst, welche Technologie sie einsetzen, denn das ist in unserem ITProduktkatalog beschrieben. Die Logik ist aber, dass der Kunde außer ein paar kleineren Änderungen an der Oberfläche nicht bemerkt, wenn wir ihn von einer Plattform auf die andere geleiten. Bei dieser Logik spreche ich natürlich nicht von grundlegenden Prozessverbesserungen, die mit einem Reengineering der Geschäftsprozesse verbunden sind. Martin Eldracher: Planung ist das eine, das andere die Praxis. Wie setzen Sie die Strategie um? Wie wird sie mit der operativen Umsetzung verbunden? Sturm: Bei der Planung sind wir ja bereits eng mit dem Geschäftsplanungsprozess verzahnt. Das Ergebnis wird dann breit kommuniziert, beispielsweise über Präsentationen und Meetings. In der kontinuierlichen Weiterentwicklung der IT-Strategie findet ein fortdauernder Abgleich mit dem Geschäft statt, indem sich in sogenannten Business-Process-Teams die IT ständig mit den ProzessOwnern des Fachbereichs austauscht. Die Business-Process-Teams nehmen nicht nur Anforderungen auf, sondern spezifizieren und priorisieren auf Basis der IT-Strategie auch Lösungsalternativen für
Management
IT-Produkte und Services. Dokumentiert wird das im IT-Produktkatalog. In ihm sind alle Services beschrieben, die die IT dem Geschäft als Ergebnis der bisherigen operativen Implementierung der IT-Strategie zur Verfügung stellt. Für spezifische Themen setzen wir sogenannte Communication Boards ein. Zusätzlich gibt es regelmäßig Informationsangebote, zum Beispiel Newsletter, die über den Fortschritt der Umsetzung informieren, und ein IT-Cockpit für das Controlling. Und schließlich wird unsere Strategie auch im Geschäftsbericht dokumentiert und die Rolle der Informationsverarbeitung neben weiteren Aspekten der Business-Exzellenz beleuchtet. Martin Eldracher: In einem Unternehmen werden fast alle Aktivitäten an ihrem Nutzen gemessen. Was ist der Nutzen der IT-Strategie? Sturm: In Kürze: IT darf nie das Geschäft limitieren, weder bei regionalem Wachstum, Innovation in den Geschäftsprozessen, noch in den Kosten. Die Logistik und der Kundendienst der BSH – nicht die IT – gewinnen zu Recht den deutschen Logistikpreis für herausragenden BSH-Liefer- und Kundenservice. Was ich damit sagen will: Der Wert wird im Geschäft generiert. Wer die Prozesse verantwortet, bekommt die Auszeichnung. Trotzdem: Die IT ermöglicht die Prozessexzellenz – unter anderem im Callcenter, in der Mitarbeitereinsatzplanung oder der Teilelogistik. Dabei ist vor allem die Agilität der IT gefordert, damit diese durchgängig und kosteneffizient zu Innovation und Wettbewerbsfähigkeit beiträgt. Es verhält sich wie mit einem Fußballteam: Nicht die Stürmer allein schießen die Tore. Ohne Pässe aus dem Mittelfeld kämen sie nicht zum Zug. Wie ich bereits erwähnte: Der Wert der IT zeigt sich besonders drastisch, wenn sie nicht funktioniert. Um im Bild zu bleiben: wenn das Mittelfeld schläft oder die Verteidigung versagt. Martin Eldracher: Dennoch muss man den Wertbeitrag der IT irgendwie planen und verfolgen. Sturm: Für die Planung leiten wir das Projektportfolio aus der Geschäftsstrategie ab und fragen uns: Wo trägt ein Projekt oder IT-Projekt zur direkten Wertschöpfung bei, wo handelt es sich um eine strategische Initiative und wo ergeben sich möglicherweise Zwangsabhängigkeiten? Um den Wertbeitrag der IT zu ermitteln, nutzen wir Kundenzufriedenheitsumfragen und umfassendes Benchmarking zum Beispiel zu Kosten, Qualität, Innovation, Betriebsführung und Energieverbrauch. Der Wertbeitrag entsteht zum Teil also indirekt – wenn die Nutzer zufrieden sind, weil die IT sie und die Geschäftsprozesse optimal unterstützt, beispielsweise bei seinen Mobilitätsanforderungen oder bei der revisionssicheren Archivierung. Ein zweiter indirekter Wertbeitrag entsteht durch die Verbesserung der Steuerungsfähigkeit des gesamten Unternehmens, etwa über konsistentes Reporting und eindeutige Key Performance Indicators (KPIs). Das ist der Fall, wenn etwa die Geschäftsvorfälle fast ausschließlich über einheitliche, weltweite Standardplattformen laufen und damit klar definierte KPIs rechtzeitig zur Verfügung stehen. Auch hier ist die IT vor allem eine Befähigungstechnologie.
Martin Eldracher: Gibt es auch einen direkten Wertbeitrag? Sturm: Den direkten Wertbeitrag leistet die IT, indem sie die Kosten-Leistungs-Relation in einem stark wachsenden Geschäft massiv steigert – und das geht natürlich durch stetige Standardisierung und Konsolidierung, konsequentes Sourcing und stringentes Architekturmanagement etc. So trägt die IT unter anderem durch Kosteneffizienz direkt zum Geschäftserfolg bei. Wenn ich den Wert unserer IT auf eine Formel bringe: Sie ist gleichermaßen Befähiger wie Treiber. Martin Eldracher: Noch einmal zusammenfassend: Wie bewerten Sie die IT und ihre IT-Strategie insgesamt? Sturm: Die Mission der IT ist für den Innovationsführer BSH, Wettbewerbsvorteile mit IT zu erschließen, Exzellenz in der IT-Betriebsführung und in den IT-Projekten sicherzustellen und Kosteneffizienz zu gewährleisten. Wir reden beim Wertbeitrag über Businessexzellenz und die ist heute ohne IT ganz undenkbar. Aber wir dürfen hierbei die IT nicht als Einzelnes betrachten. Ein Hochleistungsunternehmen benötigt eben vieles – unter anderem auch eine Hochleistungs-IT. Kontakt: martin.eldracher@sdm.de
9|
Wisetaerkines Team
entsteht
in reicht nicht, damit le al s Da s? ste Be in se bt gi Jeder rbeiter konstruktiv ita M er nt te pe m ko pe up m Team zusammenne ei eine Gr zu n ge lle Ko e di nn Denn nur, we zusammenarbeiten kann. d Regeln zu beachten. sin in rth do eg W m de f Au . wachsen, haben sie Erfolg
„A person can never be perfect, but a team could be“, lautet die These des englischen Wissenschaftlers Meredith Belbin. Demnach basiert der Erfolg des Teams nicht nur auf dem Wissen und der Erfahrung der einzelnen Mitglieder, sondern auch auf der Vielfalt der Persönlichkeiten, die zusammenkommen. Je reichhaltiger das Spektrum der Charaktere, desto kreativer und besser die Ergebnisse. Belbin unterscheidet neun Typen: so etwa den dynamischen Macher, der stets die Aktivität antreibt und keine Trägheit duldet, den systematischen Umsetzer, der Konzepte in Form konkreter Maßnahmen realisiert, oder den kommunikativen Teamarbeiter, der den Zusammenhalt fördert und Spannungen abbaut. Wer in den Teammitgliedern die verschiedenen Typen zutreffend erkennt und ihnen eine ihren Eigenheiten entsprechende Rolle zuweist, schafft ein Spitzenteam. So einfach ist das?
|10
Auch Karin Schweigkofler, seit mehr als zehn Jahren Führungskraft bei sd&m, setzt auf die Analyse der verschiedenen Persönlichkeiten. Offen und kommunikativ ist sie. Auch morgens um acht hellwach, berichtet sie lebhaft über ihre Erfahrungen. „Ich war immer diejenige, die sich an Aufgaben und Ergebnissen orientiert hat. Bis ich merkte: Das alleine reicht nicht.“ Als Diplom-Informatikerin an sys-
Management
tematische Vorgehensweisen gewöhnt, fand Karin Schweigkofler ihren persönlichen Weg, um ihr Wahrnehmen verschiedener Charaktere zu verbessern. Sie fand das DISG-Model, das Persönlichkeiten nach vier Verhaltensstilen unterscheidet. Danach sind Menschen dominant, initiativ, stetig oder gewissenhaft. Oder – in Farben übersetzt – rot, gelb, grün oder blau.
Wer „rot“ ist, mag den Stress Die Qualifizierung in Typen erfolgt anhand zweier Dimensionen: Aufgaben- oder Menschenorientierung einerseits sowie offensivextrovertiertem beziehungsweise defensiv-introvertiertem Verhalten andererseits. Bei jedem Menschen herrschen bestimmte Kombinationen vor. Das definiert die vier Typen. So etwa ist der dominante rote Typ aufgabenorientiert und offensiv, er mag Stress und Leistungsdruck. „Insbesondere aufgabenorientierte Typen finden in Persönlichkeitsmodellen eine gute Unterstützung“, erklärt Thomas Fritzsche, seit 16 Jahren als Management- und Teamberater selbstständig. „Rote“ Typen machen sich tendenziell weniger Gedanken um die Persönlichkeiten in ihrer Umgebung. Die Teammodelle helfen ihnen, sich systematisch damit zu befassen. Positiver Nebeneffekt: Wer andere Charaktere mittels Modellen einzuordnen weiß, lernt nicht nur deren Schwächen kennen, sondern auch ihre Stärken zu schätzen. Was stört mich an einem Typus? Warum brauchen wir ihn dennoch? Das sind Fragen, auf die Fritzsche seine Seminarteilnehmer Antworten finden lässt. Schnell erkennen sie, wie wertvoll die Verschiedenheit der Typen ist. Bei alledem jedoch warnt der Teamberater vor dem Schubladendenken: „Zwei Dimensionen wie im DISG-Modell sind sehr wenig, eine Persönlichkeit ist naturgemäß viel komplexer.“ Henrik Ljungström, langjährige Führungskraft bei sd&m, ist ein „gelber Typ“, extrovertiert und menschenorientiert, der sich weniger auf Persönlichkeitsmodelle, sondern mehr auf sein Gefühl verlässt. „Für Kollegen und Mitarbeiter besitze ich ein gutes Gespür“, bestätigt er das Ergebnis seiner persönlichen DISG-Analyse. Mit Kollegin Schweigkofler hat er eines gemein: Beide stellen die Persönlichkeit der Mitarbeiter in den Mittelpunkt. „Menschen machen Projekte“ – so die Parole von sd&m, die sich das Unternehmen exklusiv hat schützen lassen. Wann sie ausgegeben wurde, daran kann sich selbst Henrik Ljungström, seit 14 Jahren beim Unternehmen, nicht mehr erinnern. Dafür erklärt er, was das im Alltag heißt: „Mitarbeiter sind bei sd&m Chefsache. Das gilt beim Recruiting wie auch bei der Planung unserer Projektteams. Dabei achten wir nicht nur auf die fachlichen und technischen Kompetenzen sowie die Ziele des Mitarbeiters, sondern berücksichtigen auch familiäre Aspekte oder die Reisebelastung in der Vergangenheit. So etwa werden Kollegen, die längere Aus-
wärtsprojekte hinter sich haben, anschließend verstärkt am eigenen Wohnort eingesetzt.“ „Wenn man es träumen kann, kann man es auch machen“, sagte einst Walt Disney und meinte nichts anderes als die große Vision, die auch ein Team zu besonders großem Erfolg beflügelt. „Wer eine wichtige Aufgabe mitträgt, ist besonders motiviert“, erläutert Ljungström. Und hat gleich ein Beispiel parat: „Ein Team, das eine Software für die Clearingstelle eines führenden Finanzdienstleisters konzipiert und weiß, dass die Bank binnen 24 Stunden illiquid ist, wenn die Lösung stillsteht, ist mit 200 Prozent bei der Sache.“
Vier Phasen bis zur produktiven Teamarbeit Erfolgreich ein Team zu bilden – das erfordert noch mehr, als die richtigen Typen zusammenzubringen und ihnen eine Vision zu geben. Es setzt voraus, dass sich die verschiedenen Persönlichkeiten gründlich kennenlernen, was gemäß der „Teamuhr“-Theorie von B.W. Tuckmann meist in vier Phasen erfolgt. Erstens „Forming“ (Orientierungsphase): Die Teammitglieder sind höflich zueinander, halten sich aber bedeckt. Jeder versucht, den anderen einzuordnen, und gibt dabei möglichst wenig von sich selbst preis. Wirklich konstruktiv ist diese Phase nicht. Die Distanz zwischen den Personen verhindert, dass die verschiedenen Persönlichkeiten sich entfalten können. Zweitens „Storming“ (Machtkampfphase): In dieser Phase wird um die Position im Team gerangelt. Sei es bei der Diskussion um die Reihenfolge der Agenda oder die Größe der Visitenkarte. Immer noch ist das Team nicht maximal produktiv, aber auf dem besten Weg dahin. Denn langsam zeichnet sich ab, wer welche Kompetenzen besitzt und für welche Rolle geeignet ist. Drittens „Norming“ (Vertrautheitsphase): Das Team findet zusammen, die Positionen stehen fest. Schließlich und endlich kommt viertens „Performing“: Erst hier beginnt mit der Leistungsphase das konstruktive Miteinander, bei dem 100 Prozent der Energie in den Dienst der gemeinsamen Aufgabe gestellt werden können. „Viele Teams konsultieren mich, weil sie in Phase zwei festgefahren sind“, berichtet Fritzsche. Dann verhindern andauernde Machtkämpfe, dass das Team optimale Leistung bringt. Er empfiehlt, sich zunächst einmal bewusst zu machen, dass jedes Team diese Phasen durchlebt, sie quasi braucht, um sich aufzustellen. Dann ist in der Regel allen rasch klar: Je flotter wir da durchmarschieren, desto schneller sind wir produktiv. Also gilt es, Phase zwei und drei anzukurbeln und eine Plattform für Hahnenkämpfe zu bieten. Einen guten Beitrag dazu können Kick-off-Meetings leisten, „in denen man die ersten drei Phasen gleich an einem Tag durchläuft“.
11|
Management
Gute Stimmung, gute Arbeit Auch Karin Schweigkofler arbeitet mit Kick-off-Meetings. Auf die Agenda setzt sie gern das DISG-Modell. Das helfe den Mitarbeitern, sich selbst und die Kollegen besser kennenzulernen. Und schließlich biete die Diskussion darüber, ob der „Psychokram“ sinnvoll ist, eine gute Plattform für den Hahnenkampf der Phase zwei. Karin Schweigkofler weiß, dass auch anschließend das gute Miteinander eine ihrer wichtigsten Aufgaben ist. „Nur wenn ich die Stimmung im Team kenne, kann ich es erfolgreich leiten.“ Daher kümmert sie sich immer wieder um jeden Einzelnen, fragt nicht nur nach dem Projektfortschritt und den aktuellen Aufgaben, sondern auch nach der persönlichen Motivation. Und wenn sie das Gefühl hat, alleine nicht weiterzukommen, sucht sie innerhalb des Teams die Unterstützung von „gelben“ Kollegen, die „gute Antennen“ besitzen. Ebenfalls wichtig für ein erfolgreiches Team: gemeinsame Erlebnisse auch außerhalb des Arbeitsalltags. Ein Cocktailabend, eine Kochrunde im Kollegenkreis. Karin Schweigkofler lädt des Öfteren dazu ein. Und seit kurzem gibt es in ihrem Stockwerk sogar einen Tischkicker. „Da wird der Kopf wieder frei – und es gibt Platz für neue Ideen.“
Mediator gefragt Trotz aller vorausgehenden Maßnahmen: Manchmal können Konflikte im Team durchaus tief gehend und hartnäckig sein. So zum Beispiel, wenn zwei rot-blaue Typen – beide also dominant und aufgabenorientiert – mit verschiedenen Meinungen zur Sache aufeinandertreffen. Karin Schweigkofler hat einen solchen Fall erlebt, in dem ein fachlicher und ein technischer Chefdesigner, beide mit viel Erfahrung und hoher Kompetenz, aber völlig kontroversen Vorstellungen, aufeinandertrafen. Mangelndes Verständnis und fehlender Respekt führten dazu, dass sich die Konflikte derart
|12
hochschaukelten, dass die beiden, die eigentlich eng hätten kooperieren sollen, nicht mehr miteinander reden wollten. Karin Schweigkofler sprang in die Bresche und übernahm die Vermittlerrolle: „Zwei Monate lang habe ich täglich das Gespräch zwischen beiden moderiert.“ Das half. Mit Unterstützung der Teamchefin gelang es den Kampfhähnen, Verständnis für die Ideen des Gegenübers zu gewinnen und Schritt für Schritt ein respektvolles, konstruktives Miteinander aufzubauen.
Fehler machen erlaubt Schließlich müssen Teams natürlich immer wieder wissen, wo sie stehen. Daher führt Karin Schweigkofler immer dann, wenn ein Meilenstein erreicht ist, ein „Touch Down“-Meeting durch: Was war gut? Was war schlecht? Was haben wir gelernt? Anhand einer Checkliste aus dem sd&m-Qualitätsmanagement analysieren die Mitarbeiter gemeinsam, wie die vergangene Projektphase gelaufen ist. „Auch wenn es Probleme gab und Fehler gemacht wurden, dürfen Schuldzuweisungen nicht im Vordergrund stehen“, erklärt Ljungström. „Und wenn wir danach fragen, warum etwas schiefgelaufen ist, dann mit dem Ziel, aus dem Fehler zu lernen.“ Nur so lässt sich Vertrauen schaffen, wie Ljungström aus eigener Erfahrung weiß. Als junger Mitarbeiter ging er für sd&m in die USA mit dem Auftrag, dort das Projektgeschäft aufzubauen. Zwei Jahre lang arbeitete er daran, letztlich ohne den gewünschten geschäftlichen Erfolg. Die Geschäftsführung stellte fest, dass sie das Vorhaben unter falschen Prämissen begonnen hatte. Anschließend übertrug man Ljungström – der von sich selbst sagt, dass auch er natürlich einiges hätte besser machen können – die Aufgabe, die Niederlassung Stuttgart zu führen und weiter auszubauen. „Da habe ich gesehen, dass ich mich auf mein Unternehmen verlassen kann“ – ebenfalls eine gute Grundlage dafür, dass ein starkes Team entsteht. Kontakt: redaktionmit@sdm.de
Management
Rot, gelb, grün oder blau? Persönlichkeitsprofil im Koordinatensystem Das DISG-Modell ist ein kommerzielles Verfahren zur Beschreibung von Persönlichkeiten. Grundlage des Modells ist die Arbeit des Psychologen William Moulton Marston (1930, Emotion of Normal People), die der Verhaltenspsychologe John G. Geier (Universität Minnesota) nutzte, um ein Profil mit Fragebogen und Selbstauswertung zu entwickeln. In das heutige DISG-Modell flossen zudem Theorien von Erich Fromm, Alfred Adler und Martin Fishbein ein. Vor- und Nachteile des Modells basieren auf seiner Einfachheit: Nur zwei Dimensionen und vier Typen sorgen für eine unkomplizierte Handhabung, Kritiker halten das zweidimensionale Modell für ungeeignet, Persönlichkeiten zu erfassen.
DISG steht für vier Verhaltenstendenzen: D = Dominant I = Initiativ S = Stetig G = Gewissenhaft In einem Koordinatensystem, aufgespannt aus den Polen aufgabenorientiert /menschenorientiert sowie extrovertiert /introvertiert, sind die Modelltypen folgendermaßen eingeordnet:
offensiv/ extrovertiert Choleriker
Sanguiniker
menschenorientiert
aufgabenorientiert
Melancholiker
Phlegmatiker defensiv/ introvertiert
13|
Den
Wahlsieg bauen Wahlkampf ist der Kampf um Stimmen. Ihn gewinnt, wer die meisten Menschen mobilisieren kann. Parteien setzen dazu Mittel aus PR und Werbung ein. Aber die besten Kommunikations- und Marketingmaßnahmen stürzen zusammen, wenn das Grundgerüst nicht steht: die Botschaft, die eine Partei vermitteln will.
Hessen wählt. Am 27. Januar 2008 entscheiden sich die Bürger, welche Partei in der kommenden Legislaturperiode die Regierung, welche die Opposition stellt. Etwa vier bis sechs Wochen vor dem Wahltermin dürfen die Parteien ihre Plakate aufhängen, doch die Strategen haben schon Monate zuvor den Grundriss ihres Wahlkampfs skizziert. „An morgen denken“ – mit dieser Botschaft beispielsweise ziehen die hessischen Spitzenkandidaten Kordula Schulz-Asche und Tarek Al-Wazir von Bündnis 90/Die Grünen in die Auseinandersetzung um politische Ideen, Programme und personelle Alternativen. Die Chancen stehen nicht schlecht, gemeinsam mit der SPD die bisherige Regierung von Roland Koch, CDU, in Bedrängnis zu bringen – wenn nicht die neue Unbekannte im Parteiensystem, die Linke, zu viele SPD-Wähler bindet. „Jede Stimme für die Linkspartei ist indirekt eine Stimme für Roland Koch“, so Tarek AlWazir, Fraktionsvorsitzender der Grünen im Hessischen Landtag. Schadensbegrenzung! Wahlkampf ist Kampf um Stimmen, Stimmen und nochmals Stimmen. Das Volk entscheidet schließlich über die künftige Verteilung der Rollen.
|14
Doch der Souverän in postmodernen Gesellschaften ist alles andere als festgelegt. Bei der vorgezogenen Bundestagswahl 2005 durften etwa 62 Millionen Bürger wählen. Ein knappes Viertel von ihnen verweigerte seine Stimme ganz, sei es aus einmaligem Protest oder grundsätzlichen Erwägungen. Dazu kommen bis zu 30 Prozent Wechselwähler, die sich erst kurz vor der Wahl für eine Partei, ein Programm oder eine Person entscheiden und deshalb besonders interessant für Wahlkämpfer sind. Nicht selten haben Politiker in den letzten Momenten eine verloren geglaubte Wahl zu ihren Gunsten entschieden. Vorgemacht hat es Helmut Kohl bei der Bundestagswahl 1994, Gerhard Schröder gelang es in den wenigen Wochen vor der Wahl 2002 – als erfolgreicher Krisenmanager auf den Dämmen der überfluteten Oder.
Wechselwillige Wähler „Die Fernsehbilder eines souveränen Schröder, der mit Bürgermeistern und den Führungskräften des THWs sprach, während der Herausforderer Stoiber in einem überfluteten Keller einer weinenden Frau hilflos gegenüberstand, hat die öffentliche Wahrnehmung erheblich geprägt“, so Boris Kositzke, Dozent für Rhetorik an der Universität Tübingen und Wahlkampfberater. „Es sind Menschen, die sich für oder gegen einen Kandidaten aussprechen. Deshalb ist jede Kampagne eine Schachpartie der Kommunikatoren“, so Kositzke. Hauptziel der Überzeugungsarbeit mit Worten, Bildern und Tönen ist die Mobilisierung der Parteimitglieder und der Wähler. Die einfache Formel – sie gilt seit Ciceros Auftritten auf dem Forum Romanum: Gute Mobilisierung – gutes Ergebnis, schlechte Mobilisierung – schlechtes Ergebnis.
Management
Vor allem die CSU hat mit ihren 2.800 Ortsverbänden in ganz Bayern einen hohen Grad an Durchdringung und damit die Möglichkeit, ihre Klientel zu erreichen. Die SPD kommt im Schnitt auf 625 Ortsverbände pro Bundesland.
PR und Polit-Marketing Doch die schiere Präsenz ist nicht alles. Die Parteien müssen auf die Menschen zugehen, den Kontakt mit ihnen suchen. Die Methoden dazu stammen zum Teil aus den nordamerikanischen Wahlkämpfen, sind der Wirtschaft nicht fremd, und seit Anfang der 90er Jahre spielen auch die deutschen Parteien immer virtuoser auf der Klaviatur von Öffentlichkeitsarbeit, Marketing und Werbung. Ihr Repertoire reicht von Flugblättern, Veranstaltungen, Infoständen in Fußgängerzonen über Internet-Foren, SMS, E-Mails bis hin zu Telemarketing oder Direct Mailing. In Anlehnung an Customer Relationship Management fällt bereits der Begriff Voter Relationship Management. Bevor die Parteien an die Bürger herantreten, müssen sie allerdings die Strategie und die Dramaturgie des Wahlkampfs festlegen. In der Phase der Wahlkampfplanung geht es deshalb darum, das Gelände zu erkunden. Beim sogenannten Targeting durchleuchten die Strategen zu diesem Zweck einzelne Wahlkreise und Wählergruppen: Sie erfassen die wirtschaftliche und soziale Situation des Wahlgebietes, ermitteln das bisherige Wahlverhalten, die soziodemographischen Veränderungen der Wählerschaft und erheben gleichzeitig deren Wahrnehmungen, Einstellungen und Verhaltensweisen mithilfe von Umfragen und Meinungsforschung. „Erfolgreiche Kommunikation setzt voraus, dass ich meinen Adressaten kenne. Ich muss auf das Vorwissen und die Einstellungen meines Publikums eingehen. Sonst rede ich schlicht an ihnen vorbei“, so Kositzke.
Glaubwürdige Botschaft Gleichzeitig analysieren die Parteistrategen die Stärken und Schwächen, Überzeugungen und Positionen des eigenen Kandidaten und beäugen die des Konkurrenten. Die Ergebnisse dieses Opposition Research, dem Targeting und dem Wahlprogramm einer Partei bilden schließlich das Gerüst jeder Strategie: die Botschaft einer Kampagne. „Wenn wir der Botschaft zu wenig Aufmerksamkeit schenken und gleich über Maßnahmen, Themen oder Slogans sprechen, reduzieren wir die Erfolgschancen erheblich“, so Grünen-Bundesgeschäftsführerin Lemke über die Architektur eines Wahlkampfs. „Es ist ein langer Prozess, bis wir die richtige Botschaft, die nur einen Satz, wenige Worte umfassen darf, formuliert und diskutiert haben. Sie muss einfach und klar sein, relevant, eingängig und glaubwürdig.“
Grundgesetz Artikel 20, 2 Alle Staatsgewalt geht vom Volke aus. Sie wird vom Volke in Wahlen und Abstimmungen und durch besondere Organe der Gesetzgebung, der vollziehenden Gewalt und der Rechtsprechung ausgeübt. Grundgesetz Artikel 21, 1 Die Parteien wirken bei der politischen Willensbildung des Volkes mit. Ihre Gründung ist frei. Ihre innere Ordnung muss demokratischen Grundsätzen entsprechen. Sie müssen über die Herkunft und Verwendung ihrer Mittel sowie über ihr Vermögen öffentlich Rechenschaft geben. Grundgesetz Artikel 38, 1 Die Abgeordneten des Deutschen Bundestages werden in allgemeiner, unmittelbarer, freier, gleicher und geheimer Wahl gewählt. Sie sind Vertreter des ganzen Volkes, an Aufträge und Weisungen nicht gebunden und nur ihrem Gewissen unterworfen.
Die Botschaft zieht sich wie ein roter Faden durch alle weiteren Maßnahmen, von ihr lassen sich Personen- und Imagekampagnen, die Slogans für Werbung und das Vorgehen der Medien- und Internetkampagnen ableiten. Und auch die Themen, mit denen eine Partei sich beim Wähler empfiehlt, hängen an der zentralen Botschaft. Denn trotz allen Infotainments, das die Logik der Massenmedien erzwingt: Ohne Inhalte, ohne Bezug auf die Sache, sprich: ohne Fundament lässt sich kein Walkampf gewinnen. „Die Menschen wollen wissen, worauf sie sich für die kommende Legislaturperiode einlassen, für welche Inhalte die Partei steht und welche Themen ihr wichtig sind“, so Lemke. „Vor allem die Grünen werden in erster Linie wegen ihres Programms gewählt. Das muss dann jeweils mit einer guten Medien- und Werbekampagne und durch die Spitzenkandidaten überzeugend vermittelt werden.“ Wichtige Wegmarke eines grünen Wahlkampfs sind deshalb die Wahlparteitage, auf denen knapp 1.000 Delegierte über Hunderte von Änderungsanträgen diskutieren. Was es bedeutet, wenn eine Partei ihre programmatische Identität verliert, musste die SPD mit dem Eintritt der Linkspartei erfahren. Die Situation ist so drastisch, dass selbst der ehemalige bayerische Ministerpräsident Edmund Stoiber warnte, die Union dürfe niemals in die Situation kommen, dass ihre Anhänger für einen Konkurrenten stimmten oder sich enthielten. Denn grundsätzlich gilt: Entzieht die Basis der Führung das Vertrauen, droht selbst das beste und nobelste Projekt zu scheitern. Kontakt: redaktionmit@sdm.de
15|
Die Frauenkirche ist das
Nonplusultra Ohne Eberhard Burger wäre die Frauenkirche in Dresden nicht wieder aufgebaut worden. Als Bauleiter und Geschäftsführer der Stiftung Frauenkirche meisterte er alle technischen und finanziellen Schwierigkeiten – und setzte sich selbst ein Denkmal.
m&it: Herr Burger, was macht für Sie den Wiederaufbau der Dresdner Frauenkirche so besonders? Eberhard Burger: Zunächst ist da die Architektur von George Bähr mit der einzigartigen glockenförmigen Kuppel, der größten steinernen Kuppel nördlich der Alpen. Außerdem haben wir uns beim Wiederaufbau strikt am historischen Vorbild orientiert, obwohl wir natürlich moderne Hilfsmittel benutzt haben. m&it: Ist das bei anderen bedeutenden Projekten nicht genauso, etwa beim geplanten Wiederaufbau des Berliner Schlosses? Burger: Nein, denn da soll ja nur die Fassade originalgetreu rekonstruiert werden. Der entscheidende Punkt ist für mich: Bei der Frauenkirche war immer klar, dass sie genauso genutzt werden sollte wie vor ihrer Zerstörung, nämlich als Kirche und nicht als Museum oder als Fassade eines Einkaufszentrums, wie das so häufig der Fall ist. m&it: Die Konstruktion von George Bähr galt damals als großes Wagnis. Was sagt ein Bauingenieur heute dazu? Burger: Wir haben ein Konstruktionsprinzip kopiert, das heute so nicht mehr realisiert werden würde. Heute würde man ein Betonskelett bauen und es mit Sandstein verblenden. Die Frauenkirche sollte aber wie im Original aus massivem Sandstein errichtet werden. Natürlich mithilfe neuester Technologien. So können wir die Steine mit Wasserstrahl präziser schneiden, auch der Mörtel hat heute eine viel bessere Qualität. Die Statik von George Bähr war genial und ist es auch heute noch. Dennoch haben wir einige Fehler gefunden und diese unsichtbar korrigiert.
|16
m&it: Hatten Sie auch schlaflose Nächte? Burger: Einige. Zum Beispiel, weil wir für die gesamte Bauzeit einen Witterungsschutz wollten. Bis wir die Lösung mit dem hydraulischen Dach fanden, brauchte es viel Gehirnschmalz. Neue Bestimmungen, zum Beispiel zum Brandschutz, brachten auch völlig neue Herausforderungen, die Bähr noch nicht kannte. So ist der Abrieb des Sandsteins durch die vielen Besucher so groß, dass normale Brandmelder den Staub als Rauch interpretieren und Alarm schlagen würden. m&it: Wie haben Sie es geschafft, in diesem gigantischen 3-DPuzzle Tausende von Steinen wieder an der richtigen Stelle einzubauen? Burger: Wir hatten Glück. Die Frauenkirche wurde ja nicht zerbombt, sondern ist von innen ausgebrannt und hat sich dann Richtung Süden „hingelegt“. Der Trümmerberg hatte also eine Geometrie, die uns beim Abtragen Schicht für Schicht Aufschluss gab, wo ein Bruchstück ungefähr hingehörte. Außerdem besaßen wir sehr gute Fotodokumentationen aus der Zeit vor dem Krieg, auf denen sogar die Zeichen der Steinmetze zu erkennen waren. Letztlich konnten wir 8.425 Steine wieder verwenden, die übrigen waren zu stark beschädigt. Von 20.000 Kubikmetern Trümmermasse haben wir 4.500 Kubikmeter wieder verwendet, das sind 45 Prozent der alten Bausubstanz, wenn man das intakte Fundament noch hinzurechnet.
Management
m&it: Ohne Computerhilfe wäre das doch sicher nicht möglich gewesen. Burger: Stimmt. 1992, zu Beginn des Projekts, hat IBM die Frauenkirche virtuell im Computer errichtet. Man konnte hindurchspazieren und bekam einen Eindruck, wie es einmal aussehen könnte. Das hat dem Vorhaben enorm geholfen, weil es dadurch für die Menschen glaubhaft wurde. Beim Bau haben wir alle Fundstücke vermessen und in einer Datenbank katalogisiert, jedes Stück mit 50 bis 60 Parametern. Das Architekten- und Ingenieurbüro IPRO in Dresden hat dann mit der Konstruktionssoftware CATIA von IBM aus alten Fotografien und Augenzeugenberichten ein maßstabsgetreues 3D-Konstruktionsmodell errichtet, das uns als Vorlage beim Bau diente. In dieses Modell wurden alle Trümmer eingesetzt, die wir wieder verwenden wollten. Das war aber Handarbeit, ein Programm, das alle Steine automatisch an die richtige Stelle platziert, gab es nicht. Der Computer ersetzt also nicht den Denkprozess des Baumeisters. m&it: Eine mindestens ebenso große Herausforderung war die Finanzierung. Ursprünglich sollte ein Drittel der Mittel von privaten Gebern kommen, am Ende waren es zwei Drittel, auch weil die öffentliche Hand knapp bei Kasse war ... Burger: Deshalb haben wir von Anfang an die Menschen einbezogen und für das Projekt begeistert, auch gegen kritische Stimmen, die der Meinung waren, wir hätten schon genug Kirchen und obendrein nach der Wende genügend andere Probleme. Mir war aber klar, dass der Trümmerberg, der in der DDR als Mahnmal für Frieden und Versöhnung gedient hatte, ein Symbol der Vergangenheit war und so nicht bleiben konnte. Deshalb haben wir die Stiftung Frauenkirche gegründet. m&it: Sie haben großes Verhandlungsgeschick bewiesen, wie man hört. Wo haben Sie das gelernt? Burger: Bei Gesprächen mit Geldgebern und Politikern kam mir die harte Schule in der DDR zugute. Ich musste damals oft mit Parteifunktionären verhandeln. Das war, wie Sie sich vorstellen können, nicht selten eine Gratwanderung. So bekamen wir zur Renovierung von Kirchen Dachziegel bester Qualität aus dem Westen, während es nebenan durch die Dächer der Parteigenossen regnete. m&it: Gab es Momente, wo Sie am liebsten aufgegeben hätten? Burger: Ja, aber zum Glück dauerten die nie lange. Immer wieder kam Hilfe und wir konnten den nächsten Knoten durchschlagen. Zum Beispiel, als unsere Stifterbrief-Aktion schiefging, mit der Privatleute oder Unternehmen Teile des Gebäudes als Paten erwerben konnten. Wir hatten auf den falschen Partner gesetzt; doch dann sprang die Dresdner Bank ein und verhalf der Idee glücklicherweise zum Durchbruch.
m&it: Sie sind jetzt 63. Gibt es andere Projekte, die Sie noch reizen würden? Burger: Natürlich werde ich hin und wieder als Experte um Rat gefragt. Aber etwas Vergleichbares zur Frauenkirche kann ich mir nicht mehr vorstellen – das war einfach das Nonplusultra. Kontakt: redaktionmit@sdm.de
Die Dresdner Frauenkirche – Zahlen und Fakten
I Erbaut: 1726 bis 1743 von Ratszimmermeister George Bähr I Zerstört: 15. Februar 1945 I Wiederaufgebaut: 1994 bis 2005 von Eberhard Burger und der Stiftung Frauenkirche
I Gewicht: 60.000 Tonnen (Kuppel 12.000 Tonnen, Vergoldung 600 Gramm)
I Baukosten: 288.910 Taler (kalkuliert 82.555 Taler) I Kosten des Wiederaufbaus: 131 Millionen Euro (kalkuliert 127 Millionen Euro)
I Internetseite: www.frauenkirche-dresden.de
17|
Hype oder
Hoffnung? Mit SOA ist das so eine Sache: Die einen preisen serviceorientierte Architekturen als Lösung aller IT-Probleme, die anderen sehen darin den Versuch, alten Wein in neuen Schläuchen zu verkaufen. Was bleibt, wenn der Hype vorüber ist?
Management
Am 5. Februar 1637 geschah in Haarlem in den Niederlanden das bis dahin Unvorstellbare: Ein zur Auktion ausgerufenes Pfund Tulpenzwiebeln „Witte Croons“ fand kein Gebot. Von einem Tag auf den anderen brach die seit 1633 anhaltende große Tulpenspekulation zusammen, über Nacht wurden vermeintlich wertvollste Spekulationsobjekte wieder zu hübsch anzusehenden Blumen. Der niederländische Tulpenwahn ist Geschichte, geblieben sind die riesigen Blumenfelder.
Geschäftsprozess des Unternehmens einen Nutzen bringen, und nicht nur Webservices, wie manche Anbieter Glauben machen wollen. Schon immer haben fachliche Funktionen und Schnittstellen eine Anwendung beschrieben, die Definition von Service ist dafür allerdings ein deutlich besseres Werkzeug – und eine gemeinsame Sprache, die sowohl Fachbereich und IT verstehen. Anforderung und Implementierung sind damit keine unterschiedlichen Währungen mehr, sondern zwei Seiten derselben Medaille.
Eine Art Tulpenspekulation gibt es seit 2001 auch in der IT. Dort werden nicht Blumen, sondern „serviceorientierte Architektur“ hoch gehandelt. SOA sei die Lösung aller Probleme der SoftwareEntwicklung, die Hersteller entsprechender Produkte verkünden sie als universelle Heilsbotschaft. Zum Thema serviceorientierte Architektur finden unzählige Konferenzen statt, Experten halten viele Vorträge und schreiben dazu jede Menge Bücher und Artikel. „Bei serviceorientierter Architektur war das Marketing mal wieder schneller als die Produktentwicklung“, nörgeln dagegen zahlreiche Skeptiker. Viele IT-Abteilungen hätten ihr SOA-Programm überhastet gestartet, so die Kritik, weil sie den vollmundigen Versprechungen glauben und fürchten, von der Entwicklung abgehängt zu werden. Sie scheinen recht zu haben: Schon zeichnet sich eine Marktkonsolidierung ab. Droht nun der serviceorientierten Architektur das gleiche Ende wie dem großen Tulpenwahn? Was bleibt, wenn der Lärm der Marktschreier verklungen ist?
Wenn sich die Fachabteilungen in Implementierungsdetails verlieren, statt das fachlich Benötigte präzise zu beschreiben, entstehen Provisorien, undurchschaubare Schnittstellen und Speziallösungen. Der vermeintliche Zeitgewinn schmälert den langfristigen Nutzen. Versteht man serviceorientierte Architektur dagegen richtig, liefert sie das passende Werkzeug, um die Anwendungslandschaft eines Unternehmens nachhaltig am Geschäft auszurichten und mit ihm zu entwickeln. Unternehmen verändern heute immer häufiger und schneller ihr Gesicht, sie gliedern Unternehmensteile aus oder integrieren neue. Das Tempo nimmt zu und die IT muss Schritt halten. Hier hilft serviceorientierte Architektur, weil sie bestehende Komponenten nur neu kombiniert und nicht ganze Anwendungslandschaften neu entwickelt.
Der Hype verpufft Klar ist: Der Hype um serviceorientierte Architektur wird irgendwann verpuffen. Aber als Gestaltungsprinzip für IT-Landschaften hinterlässt SOA bleibende Eindrücke über die kurzfristige Mode hinaus, zum Beispiel für die IT-Unternehmensarchitektur. Wer nachhaltige Lösungen von realitätsfernen Luftschlössern unterscheiden will, muss IT-Architektur ganzheitlich über das gesamte Unternehmen betrachten, denn nur dies garantiert das reibungsfreie Zusammenspiel aller Anwendungen – und genau darin liegt heute der entscheidende Nutzen der IT. Das haben auch die Unternehmensführungen gemerkt. Sie messen die IT nicht mehr an der korrekten Verrichtung einzelner Aufgaben wie der Rechnungsstellung oder der Verwaltung von Warteschlangen in der Produktion, sondern an der nahtlosen, kostengünstigen und flexiblen Abwicklung eines Prozesses von der Bestellung der Vorprodukte bis zur Bezahlung durch den Kunden. Diesen Bewusstseinswandel angestoßen zu haben, ist wohl die größte Leistung serviceorientierter Architektur. Sie strukturiert erstmals die gesamte IT eines Unternehmens nach fachlichen Aufgaben unter dem Begriff „IT-Unternehmensarchitektur“. Und sie hat die Art verändert, wie Fachabteilungen und die IT miteinander reden. Die zentrale Frage in Gesprächen über serviceorientierte Architektur: Was ist ein Service? Für den IT-Architekten sind Services fachlich vollständige, abgeschlossene Leistungen, die in einem
Das Sterben der ERP-Dinosaurier Ist SOA der Tod von ERP, wie vielfach behauptet wird? Die riesigen ERP-Systeme, ob selbst entwickelt oder als Fertigprodukt eingekauft, prägen die IT-Landschaften auch heute noch. Doch die Systeme wurden zu groß und zu komplex, lassen sich kaum noch beherrschen und werden obendrein nie wirklich fertig. Anwendungslandschaften müssen also flexibel sein, doch das sind sie nur, wenn sie aus kleinen Einheiten bestehen, die sich immer wieder neu zu größeren Einheiten zusammenfügen lassen – das grundlegende Strukturprinzip serviceorientierter Architektur. Die Puzzleteile sind bei SOA nur noch lose verbunden, eine Änderung der Kommunikationsbeziehung erfordert keine Änderung an diesen Einheiten. Es gibt also Hoffnung nach dem Hype. Die „Tulpenfelder“ gedeihen weiter: Die unternehmensweite Sichtweise der IT-Architektur, die Instrumente einer fachlichen Architektur und die Ausrichtung der Anwendungslandschaft an lose gekoppelten, immer wieder neu kombinierbaren Einheiten werden die IT-Verantwortlichen auch dann noch leiten, wenn keine Artikel und Bücher mehr mit „SOA“ im Titel erscheinen. Kontakt: oliver.f.nandico@sdm.de
19|
ร s|the|tik, die; -, -en Plur. selten (Wissenschaft von den Gesetzen der Kunst, bes. vom Schรถnen; das Schรถne, die Schรถnheit)
Schwerpunkt
Code
like a girl ... Beim Stichwort Ästhetik denkt nicht jeder zuerst an Programmcode. Dabei haben erfahrene Software-Architektinnen und Software-Architekten einen sechsten Sinn für verborgene Schönheit. Sie erkennen mangelnde Qualität bereits an Äußerlichem: Was ihnen „hässlich“ erscheint, bewährt sich nicht.
Der Onlineshop „Modern Coder“ hat eine klare Zielgruppe: weibliche IT-Fachkräfte. Der typischen Software-Entwicklerin, die zu viel arbeitet und keine Ruhe hat für einen Einkaufsbummel, liefert der Versender kesse Klamotten frei Haus – T-Shirts und Sweatshirts in schicken Schnitten von gertenschlank bis ernährungstechnisch herausfordernd. Sich schön anzuziehen, ist für die Kundinnen aber nur ein Grund, bei „Modern Coder“ zu ordern. Der Clou an den Textilien ist der applizierte Text: „code like a girl“. Der neofeministische One-Liner, der auch Accessoires von der Handtasche über Einkaufsbeutel und Kaffeepötte bis zum Bumper Sticker schmückt, wendet ein männliches Vorurteil gegenüber Frauen zum Vorbild: „Girl Code“, das neue Synonym für „schön“ geschriebene Programme, war ursprünglich eine Metapher mit gehässigem Unterton. Wer Code schreibt „wie ein Mädchen“, konzentriert sich nicht aufs Wesentliche, sondern glättet hier und striegelt da, bis auch das letzte Strähnchen richtig sitzt. Echte Männer haben es nicht nötig, auf die Ästhetik ihres Outputs zu achten. Sie sind effizient und pragmatisch, lassen Ecken und Kanten ste-
hen und folgen der Devise: „Was nicht passt, wird passend gemacht.“ Wer da die tumben Machos aus Rich Tennants genialem Cartoon-Klassiker „Real Programmers“ vor Augen hat, ist also im richtigen Film.
Kunst oder Handwerk? Der Antagonismus zwischen weiblichen und männlichen ITProfis, den das Schlagwort insinuiert, entspringt indes billiger Polemik. Nüchtern betrachtet, dreht sich der Diskurs um die Grundsatzfrage, ob in der Software-Entwicklung wirklich nur das Ergebnis zählt (das System funktioniert – irgendwie jedenfalls) oder auch das Aussehen, die Art und Weise, wie dieses Ergebnis erzielt wurde. Die relevanten Gegensatzpaare sind aus anderen Sphären des Lebens wie Architektur oder Literatur geläufig: Handwerk und Kunst, Regeln und Intuition, Pragmatismus und Perfektionismus. „Girl Code“ ist lediglich der Katalysator, der den Streit aufs Neue befeuert.
21|
Schwerpunkt
Richtig ins Rollen kam die Debatte über das Yin und Yang in der Softwareproduktion im März 2006. Auslöser war – wie so oft in Web-2.0-Zeiten – kein prominenter Vordenker, sondern ganz grassroots-mäßig ein Mann von der Basis. Der Entwickler, der sich Morten nannte, klagte im Blog „37signals.com“, er sei von einem männlichen Artgenossen des Schreibens von „Girl Code“ bezichtigt worden, weil er zu viel Zeit darauf verwende, dass sein Code gut aussehe. Zu diesem Coming-out ermutigt hatte ihn ein Posting des Bloggers Jamis Buck, in dem sich dieser als Perfektionist mit Faible für „schönen“ Code geoutet hatte. Tage später bemächtigte sich eine ungleich prominentere Frau des Themas: die BestsellerAutorin Kathy Sierra („Head First“, O‘Reilly Books). In ihrem bei amerikanischen IT-Leuten populären Blog „creating passionate users“ kommt die Debatte über die ganz eigene Ästhetik des immateriellen Guts Software und deren Bewertung seither nicht zur Ruhe.
Die Poesie der Programme Wer sich auf das Thema erst einmal einlässt, den lässt es so schnell nicht mehr los. Lange vor dem Scharmützel in der Blogosphäre philosophierten helle Köpfe bereits über die Bedeutung der Kreativität für die vermeintlich reine Ingenieurwissenschaft Informatik, über Parallelen zwischen Software-Architektur und Städtebau (siehe Seite 24), über Schönheit als Qualitätsmerkmal und – ja, tatsächlich! – über die Poesie, die den Programmen grundsätzlich innewohne. Es sind keineswegs nur weltfremde Theoretiker, die sich über solche Fragen einen Kopf machen. Hinter dem vieldiskutierten Gedankenkonstrukt der „Poetry of Programming“ steht beispielsweise der promovierte Informatiker, Lisp-Veteran und Open-SourcePionier Richard P. Gabriel. Der Kalifornier, der lange als „Distinguished Engineer“ bei Sun Microsystems wirkte und Anfang 2007 zu IBM Research wechselte, gilt als Vordenker einer effizienteren SoftwareEntwicklung. Mit einem Fachbuch gewann er bei den renommierten Jolt Awards sogar einen „Productivity Award“. Dass ausgerechnet ein ausgewiesener Rationalist wie er Parallelen zwischen dem Schreiben von Gedichten und dem von Softwarecode entdeckte, ist kein Widerspruch: Gabriel hat in den Neunzigerjahren ein Zweitstudium im Fach „Creative Writing“ absolviert und darf seither den Titel „Master of Fine Arts“ tragen.
|22
Der „Meister der schönen Künste“, der nach eigenen Angaben jeden Tag ein Gedicht verfasst, ist davon überzeugt, dass die Kreation von Softwarecode weniger eine mechanistische Ingenieurtätigkeit denn künstlerische Herausforderung ist – freilich ausgehend von der Prämisse, dass man Fertigkeiten in dieser Kunst erlernen und systematisch perfektionieren kann.
Bewährte Grundmuster Lässt man einmal außer acht, dass eine streng nach allen Regeln der Kunst getextete Ode durchaus öde oder sogar purer Nonsens sein kann, ist Richard „Dick“ Gabriels Analogie nachvollziehbar: Einem Gedicht, das schon im Versmaß holpert, wird kaum jemand applaudieren. Auch würde sich kein echter Poet für die Sorte grob zurechtgemeißelter Reime anschauen lassen, wie sie Hobby-Lyriker bei Hochzeiten zum Besten geben. Wenn sich Dichter bewährter Grundmuster wie des sechshebigen Jambus bedienen, tun sie nichts anderes als ein Projektleiter, der Ansätze des „Best Practice“ befolgt: Sie arbeiten professionell. Er strebe bei beiden Kunstrichtungen nach größtmöglicher Einfachheit, erklärte Gabriel in einem Interview. „Wenn ich ein langes Gedicht mit sehr vielen Strophen schriebe“, sagte der vollbärtige Nonkonformist, „würde ich mir überlegen: Wie passen die Stücke zusammen? Wie fügt sich ein Teil ins große Ganze ein?“ Die gleiche Harmonie postuliert er für Codezeilen, die sich einer übergeordneten Softwarearchitektur unterordnen. „Wenn Sie sich Quellcode von extrem begabten Programmierern ansehen, so steckt Schönheit darin“, findet Gabriel und vergleicht das fertige Programm mit einem Orientteppich, dessen Muster sich aus vielen kleinen, sich wiederholenden Mustern zusammensetzt. Etwas kategorischer bringt es der amerikanische Essayist und Entwickler von Programmiersprachen Paul Graham auf den Punkt: „Wenn etwas hässlich ist, kann es nicht die beste Lösung sein.“ Richard Hillesley, Kopf des softwarephilosophischen Blogs Tux Deluxe (.org), sieht das ähnlich. „Guter Code ist pure Poesie, die elegante Darstellung der perfekten Lösung eines vorgegebenen Problems“, schreibt der britische Gabriel-Exeget, „schlechter Code ist ein undurchdringlicher Alptraum, plump in der Form und unklar im Zweck.“ Guter Code sehe sogar dann gut aus, wenn man gar nicht wisse, zu welchem Zweck er geschrieben sei, behauptet Hillesley, und stellt sich hinter eine Idee des Meisters, mit der dieser die Informatiker-Ausbildung stärker auf Kreativität ausrichten möchte: Wie in klassischen künstlerischen Disziplinen üblich, sollten sich künftige „Masters of Software Arts“ (MSA) mit dem Leben und Werk der Großen ihres Fachs befassen, um so deren Arbeitsweise nachvollziehen zu können. Eine Uni, die einen solchen Studiengang planen würde, gibt es bisher allerdings nicht.
Schwerpunkt
Schönheit, die; Anmut, Beauty, Ebenmaß, Erhabenheit, Erlesenheit, Formvollendung, Glanz, Grazie, Harmonie, Herrlichkeit, Liebreiz, Pracht, Reiz, Schöne, Stattlichkeit, Wohlgestalt
Nützlich, schön und standfest Während sich die akademische Informatik mit Konzepten schwertut, die auf eine Abkehr vom Berufsbild des Software-Ingenieurs hinauszulaufen drohen, trifft die Analogie zur klassischen Architektur auf einen breiten Konsens – auch was den Aspekt „Schönheit“ betrifft. Dies hängt nicht zuletzt damit zusammen, dass die Architekten auf ein Theoriegebäude verweisen können, das schon zwei Jahrtausende überstanden hat und der Ästhetik eine zentrale Rolle zuweist. Im letzten vorchristlichen Jahrhundert hatte der Baumeister und Schriftsteller Vitruvius die Anforderungen an seine Zunft im Dreiklang „utilitas, venustas, firmitas“ verdichtet: Bauwerke sollten in erster Linie nützlich sein, dabei aber auch schön und natürlich standfest. Die Beurteilung, was als schön zu gelten hatte, überließ Vitruvius nicht dem subjektiven Geschmack des Lesers; er setzte klare Maßstäbe für die Proportionen und erteilte einem Übermaß an Schnörkeln eine Absage.
Besonders engagiert sind die amerikanischen Programmierer, vor allem die Vertreter des OpenSource-Gedankens. So warnt der Forenbetreiber und Blogger Paul Scrivens seine Mitstreiter davor, mit hässlichen Elaboraten an die Öffentlichkeit zu gehen: „Du kannst noch so eine tolle Idee haben, wenn Dein Code eine Katastrophe ist und das Design furchtbar, wird das Interesse sehr, sehr schnell sterben.“ Für den programmierenden Essayisten Paul Graham ist das unaufhörliche Streben nach Schönerem schlechthin die Triebfeder des Fortschritts: „Gäbe es keine Schönheit, könnte niemand in seinem Job besser werden.“ Wie es scheint, ist der einst verschriene Girl Code wirklich auf dem Vormarsch – adrett, frisch gekämmt und ohne schmutzige Geheimnisse. Schlechte Zeiten für raubeinige Nerds. Kontakt: redaktionmit@sdm.de
23|
Schwerpunkt
Virtuelle
Kathedralen
Ein Architekt plant Häuser und ein IT-Architekt plant EDV-Systeme. Niemand käme darauf, diese Aufgaben über einen Kamm zu scheren. Sie aber zu vergleichen, kann neue Einsichten eröffnen. Eine Gegenüberstellung, die die Vor- und Nachteile des abstrakten digitalen Schaffens zeigt.
Seit mehr als zehn Jahren ist Alexander Hofmann Spezialist für eine besondere Kunst. Mit seinen virtuellen Konstrukten löst der IT-Architekt Softwareprobleme für namhafte Unternehmen der deutschen Wirtschaft. Bis zu 50 sd&m-Kollegen errichten auf Basis seiner Entwürfe – meistens über mehrere Jahre hinweg – die perfekte IT-Infrastruktur für unternehmenskritische Prozesse. Der Mann weiß, wie man Abstraktes begreiflich macht. Er kann darstellen, was für viele unverständlich bleibt: komplexe SoftwareArchitektur. Anhand einer Grafik erläutert er, dass ein Softwaresystem aus vielen Komponenten unterschiedlicher Kategorien besteht, die man scharf voneinander trennen muss. Ruhig und präzise erklärt er, wie er die Komponenten sauber abgrenzt, damit sie später optimal zusammenspielen. Immer wieder vergewissert er sich, dass das bisher Gesagte verstanden ist. Erst dann setzt er seine Ausführungen fort.
IT-Architektur ist leider nicht begehbar „Gern würde ich einmal vorzeigen, was ich konstruiere“, sagt Hofmann, „aber IT-Systeme bleiben leider weithin unsichtbar.“ Nach Monaten harter Projektarbeit gibt es zwar eine funktionierende Softwarelösung, die die erfolgsentscheidenden Teile eines Unternehmens steuert, die mächtige Architektur hinter der Benutzeroberfläche bleibt jedoch schwer begreifbar.
|24
Ein wenig Neid verspürt Hofmann daher schon, wenn „Architektenkollege“ Stuart Stadler die steinernen Früchte seiner Arbeit nach nur einem Jahr zeigen kann. Stadler, Architekt im konventionellen Sinne, arbeitet seit 20 Jahren in München. Ein Mann, der mit hochgekrempelten Ärmeln und bequemen Freizeitschuhen über die Baustelle läuft, dort jeden Arbeiter kennt und mit ihm in dessen Landessprache spricht. Deutsch oder italienisch, mit dem Fliesenleger oder dem Maurer. Auf der Baustelle fühlt sich Stuart Stadler sichtlich wohl.
Anschaulich: Das Präsentieren mit Modell Derzeit entwirft er vor allem individuell geplante Einfamilienhäuser, die man sehen, begehen und fotografieren kann. Spricht Stadler über seine Arbeit, macht er das am liebsten anschaulich. Er zeigt eines seiner Objekte, abgelichtet in einer Ausgabe der Zeitschrift „Schöner Wohnen“, oder gleich das Original. „Dort lässt sich meine Arbeit erleben“, erklärt er und schlägt vor, das Interview auf einer seiner Baustellen fortzusetzen. Wenig später lenkt er sein Cabrio durch das sonnige München und erläutert – beiläufig – architektonisch interessante Gebäude am Straßenrand.
Schwerpunkt
Auch im Gespräch mit seinen Kunden liefert Stuart Stadler reichlich Anschauungsmaterial. Mit 3-DAnimationen und Miniaturmodellen erweckt er nüchterne Baupläne zum Leben. Besonders hilfreich: das Modell. Es zeigt Raumaufteilung und Lichteinfall noch deutlicher als die Animation. Das erleichtert manche Entscheidung, manch andere revidiert es. So wollten Bauherren, nachdem sie das Modell gesehen hatten, die Fensterflächen in einigen Räumen reduzieren. Das Miniaturhaus hatte gezeigt: Auch kleinere Fenster lassen genügend Licht ein und schaffen zudem mehr Stellfläche für Schränke, Regale und Co.
Erklärende Worte als Hilfsmittel Von solchen Hilfsmitteln kann Hofmann nur träumen. „Vielleicht stehen in Kürze Programme zur Verfügung, mit denen sich die verschiedenen Sichten einer Software-Architektur anschaulich visualisieren lassen.“ Das wäre immerhin ein erster Schritt. Bis dahin muss Hofmann sich jedoch mit Grafiken und speziellen Diagrammen begnügen. „Die bereiten meinen Kunden oft wenig Lesefreude, denn sie geben nur in Form nüchterner Übersichten voll beschrifteter Kästen, Boxen, Linien die Struktur der Software wieder, die wir gerade bauen.“ Während Stadler am Modell zeigen kann, was realisierbar ist und was nicht, ist es in der IT ungleich viel schwieriger, die Grenzen des Machbaren zu illustrieren. Leicht wird Unmögliches für möglich gehalten. Hofmann kommt die Aufgabe zu, seinem Kunden technologische Grenzen aufzuzeigen, ganz ohne unterstützendes Anschauungsmaterial. So etwa bedingt der Einsatz von Web-Technologien Einschränkungen bezüglich der Benutzerinteraktion. Oder beliebige Anfragen an eine Datenbank können die Performance eines gesamten Systems gefährden. „Ich muss die Umsetzbarkeit unter den Aspekten Kosten und zukünftiger Betrieb im Auge behalten. Entscheidend ist, dass ich in der Konstruktionsphase eines IT-Systems dem Kunden die Konsequenzen von Entscheidungen transparent mache. Und zwar in einer Sprache, die er gut versteht.“
Anforderungen bestimmen die Architektur Wichtige Eckpfeiler für Hofmanns Konstruktionen ergeben sich auch aus dem Bebauungsplan. „Gute Architektur integriert sich fließend in die IT-Landschaft des Kunden. Daher muss ich das Konzept strikt an bestehenden Vorgaben ausrichten.“ Gilt im Unternehmen etwa der strategische Grundsatz des „Realtime Enterprise“, nach dem Informationen möglichst zeitnah an andere Systeme weiterzugeben sind, muss Hofmann dementsprechend planen. Und zwar völlig anders als in einem System mit hohem Anteil an Batchverarbeitung. Auch Stuart Stadler hat Bebauungspläne zu beachten. In vielen Münchner Wohngebieten werden „seine“ Einfamilienhäuser einzig und allein aufgrund der Vorschriften mit Satteldach gedeckt. Egal ob es dem Bauherrn gefällt oder nicht. So viel externe Einmischung gibt es in der IT-Welt eher nicht.
Schwerpunkt
Meistens reicht eine Küche pro Haus Umgekehrt findet man in der virtuellen Architektur ein erstaunliches Phänomen. Redundanzen – wie etwa zwei Küchen in einem Einfamilienhaus – liegen dem Hausarchitekten fern. Für die ITLandschaften vieler Unternehmen aber wird das Vermeiden von Redundanzen gerade erst als wichtiges Prinzip und strategischer Grundsatz entdeckt. So zum Beispiel das mehrfache Vorhalten von Kundendaten in Buchhaltung, Vertrieb und Marketing. „Da besteht in vielen Unternehmen mit historisch gewachsenen Strukturen ein enormer Handlungsbedarf. Bei der Analyse von IT-Infrastrukturen stellen wir immer wieder fest, dass Datenhoheiten nur ungenügend geklärt sind.“ Ob IT- oder konventioneller Architekt, zwei Dinge haben die Kollegen stets im Blick: strikte Budgeteinhaltung und das Erfüllen der Anforderungen. Beides ist sowohl beim virtuellen wie auch beim realen Entwurf ein absolutes Muss und erfordert intensive Kundengespräche. Bei Stadler sind es etwa fünf sehr ausführliche Besprechungen bis zum ersten Planungsentwurf, dazu gehören persönliche Treffen mit dem Auftraggeber am Wochenende oder am Abend und Telefonate zu jeder Tageszeit. „Die meisten Bauherren haben eine Idee davon, wie ihr Haus aussehen soll. Gewünschte Funktionen und Details jedoch entwickeln sich erst im Projektverlauf.“ Mit Geduld diskutiert Stadler daher jede Einzelheit. Dabei muss er immer wieder seinen Entwurf hinterfragen und Alternativen präsentieren. „Das gehört zu meinem Beruf. Ich muss den Bauherrn ja mitnehmen. Oft führt die Diskussion neuer Ansätze dazu, dass er sich dann doch für den ersten Planungsentwurf entscheidet.“
Was der Kunde will, ... Das kann Hofmann nur bestätigen: „Was der Kunde wirklich will, kristallisiert sich meist erst nach und nach heraus.“ Seine Arbeit besteht vor allem aus Gesprächen, Gesprächen und noch mal Gesprächen, meist in Form von Workshops – Kontroversen inbegriffen. Dann tritt Hofmann zugleich als Architekt und Mediator auf. Er vermittelt und gleicht aus, er findet eine für alle passende Lösung, wenn beispielsweise die Vertreter von Fachund IT-Bereichen des Kunden unterschiedliche Vorstellungen mitbringen.
Ähnliches berichtet Kollege Stuart Stadler. Oft fungiert er als Planer und Schlichter in einer Person. Nicht selten glättet er die Diskussionswogen und sucht nach einem Kompromiss, wenn die Interessen seiner Auftraggeber auseinanderdriften.
Ambiente spielend zaubern Erst wenn alle Funktionen erfüllt sind, beginnt die Kür. Dann geht es um Ästhetik. „Auf den ersten Blick darf gute Architektur nicht erkennbar sein. Sie fällt im Straßenbild nicht auf. Aber sie schafft ein gutes Gefühl“ – so Stadlers Credo. Das gute Gefühl bewirkt er durch sorgfältig ausgewählte Materialien, die richtigen Proportionen und besondere Ideen: Er dreht den Kubus eines Gebäudeteils nur ein wenig gegen den anderen und schon hat er Spannung im Raum. Er verwendet Holz neben Beton, er öffnet den Blick in ein Nebenzimmer oder in den Garten. Er lässt den Pool unmittelbar an das Gebäude angrenzen, setzt mit Lichtleisten Akzente und lässt Decken schweben. Zwar spielt er mit den eher leisen Tönen, aber er spielt – und perfektioniert damit seinen Entwurf.
Die Küche in die Garage verschieben Hofmann hingegen erfüllt mit der Pflicht die Kür und mit der Kür die Pflicht. Kreativität ist wichtig, Ästhetik zählt bei der Konstruktion von Software jedoch nicht. Aus Bits und Bytes lässt sich kein Ambiente zaubern. Eine gute Software-Architektur ist einfach, entspricht den speziellen Anforderungen des Kunden und ermöglicht eine kostengünstige Umsetzung späterer Änderungswünsche. Schließlich werden bis zu 60 Prozent der IT-Budgets in Wartung und Weiterentwicklung von IT-Systemen investiert. „Es ist durchaus üblich, eine bereits produktive Software zu restrukturieren und die Architektur an neue Erkenntnisse anzupassen“, erklärt Hofmann. Ein Vorgehen, das Fingerspitzengefühl und Erfahrung erfordert, aber zugleich große Vorteile bietet: „So können wir ein IT-System schrittweise auf den optimalen Einsatz ausrichten. Das wäre in etwa so, als würde man nach dem Einzug kurzerhand die Küche in die Garage verschieben.“
Schwerpunkt
Haptik genießen Digitale Belastungstests Damit nicht genug. Das Arbeiten ohne Materie birgt weitere Vorzüge. Software-Komponenten können verteilt entstehen, in Deutschland, Polen oder Indien. Einmal pro Woche wird alles zusammengefügt und getestet. Sollte etwas nicht passen, wird es umgebaut – ohne Abbruchkosten, versteht sich. Und schließlich lässt sich im Test die Statik eines IT-Systems so lange strapazieren, bis man deren Grenzen kennt. „Erzählen Sie mal einem Bauherrn, dass er so lange Schnee auf sein Dach schaufeln soll, bis es bricht“, scherzt Hofmann, für den digitale Belastungstests völlig selbstverständlich sind. Als sehr junge Disziplin ist die IT in ihrer Standardisierung längst noch nicht so weit fortgeschritten wie das klassische Bauwesen. Eine deutsche Industrienorm in der IT sucht man vergeblich. Um stabile und zukunftssichere IT-Infrastrukturen zu errichten, verlassen sich daher viele Unternehmen auf unternehmenseigene Standards. So auch sd&m: Die Quality Software Architecture (Quasar) von sd&m enthält Methoden, Komponenten und Werkzeuge für die Errichtung großer IT-Systeme. Über 20 Jahre Erfahrung aus erfolgreichen Projekten und kontinuierliche Fortentwicklung stecken in Quasar, denn stetiger Fortschritt ist in der hochdynamischen IT-Welt ein absolutes Muss. Experten in aller Welt schaffen immer wieder neue Best-Practice-Lösungen und Standard-Definitionen. Hier erwartet Hofmann auch weiterhin rasante Entwicklungen: „In deren Verlauf könnte die Technik in Zukunft nicht mehr die gleiche Rolle spielen wie heute.“ Der Fokus wird sich zunehmend auf die Anforderungen des Kunden und dessen Geschäftsfunktionen verschieben. Das Bild des IT-Architekten befindet sich deshalb im Wandel. „Einfacher wird es in Zukunft sicher nicht“, urteilt Hofmann heute. Rücken dann doch die fachlichen Prozesse des Unternehmens für den IT-Architekten noch stärker in den Vordergrund.
Während Architekt Stuart Stadler zuschauen kann, wie sein Objekt Stein für Stein entsteht, beobachtet Hofmann die permanente Integration von Komponenten. Ein Projekt ist für Hofmann mit der Inbetriebnahme nicht wirklich zu Ende. Jetzt beginnt die Umsetzung von funktionalen Erweiterungen und Änderungswünschen. Hofmann muss also beim IT-System bleiben, um sein individuell konzipiertes System weiterzuentwickeln. Auch Stadler kommt hin und wieder zu einem Objekt zurück. Meist nach einigen Jahren, wenn es um eine Erweiterung, einen Ausbau oder einen Umbau geht. In der Regel aber heißt es für Stadler am Ende eines Projektes: Abschied nehmen, was ihm jedes Mal schwerfällt. Nach drei bis fünf Jahren in einem IT-Großprojekt verabschiedet sich Hofmann hingegen recht gern – in seine nächste Aufgabe. Erneut wird er Abstraktes greifbar machen und das Unkonkrete konkretisieren müssen. Eine neue intellektuelle Herausforderung eben, auf die er sich freut. Und wenn er am Wochenende genügend Zeit hat, widmet er sie dem Möbelbau. Dann schreinert er etwas, was er sehen, anfassen und vorzeigen kann, so unlängst einen Tisch – und freut sich, wenn er mit der Hand über die glatte, kühle Tischplatte streicht. Kontakt: redaktionmit@sdm.de
27|
Mit
Licht lenken
Wie muss gute Architektur beschaffen sein, damit sich Menschen leicht darin zurechtfinden und schnell ans Ziel kommen? Sie sollte natürliche Orientierungspunkte bieten und eine sparsame Beschilderung – wie am Flughafen München. Auch mathematische Modelle helfen, Fußgängerströme effizient zu lenken.
„Bitte begeben Sie sich spätestens 30 Minuten vor Abflug zum Check-in.“ Wer aus der Aufforderung der Fluggesellschaft schließt, es reiche, eine halbe Stunde vor Abflug am Flughafen zu sein, macht die Rechnung ohne die riesigen Entfernungen, endlosen Warteschlangen und die vertrackten Buchstaben-ZahlenKombinationen, mit denen die Flughäfen Schalter und Gates bezeichnen. Wer etwa in London Heathrow auf Anhieb sein Gate findet, darf sich glücklich schätzen.
Selbsterklärende Architektur Dass es auch anders geht, beweisen moderne Flughäfen, die von vornherein auf eine optimale Besucherführung ausgelegt sind; auch Messen oder Bahnhöfe leiten ihre Besucher heute effektiver. Ein gutes Beispiel ist der Flughafen München. Zu Beginn der Planung 1982 galt die Maxime: Die Architektur soll weitgehend selbsterklärend sein. Und sie muss verschiedene, mitunter widerstreitende Interessen von Passagieren, Airlines, Einzelhändlern,
|28
Lieferanten und Sicherheitspersonal unter einen Hut bringen. „Das geht nur, wenn alle Interessengruppen an einem Tisch sitzen“, sagt Ursula Wangler vom Münchener Büro für Gestaltung, das seit 1990 das Design der Besucherführung des Münchener Flughafens entwickelt. Das Konzept stammt noch von Otl Aicher, der mit dem Design des Leitsystems der Olympischen Spiele 1972 in München zu Weltruhm gelangte. Gute Architektur und gutes Design müssten ineinandergreifen, fordert Wangler. Keinesfalls dürften sie gegeneinanderarbeiten, doch das finde man immer wieder. Beispiel: Viele moderne Flughäfen haben Glaswände – das lässt Licht ins Gebäude und wird als angenehm empfunden. Und man sieht draußen die Schlange der Taxis,
Schwerpunkt
was die meisten Reisenden ebenfalls gut finden. Manche Airports versuchen allerdings, ankommende Fluggäste mittels Schildern im Gebäude an die Spitze der Taxiwarteschlange zu lotsen und erst dort nach draußen zu führen. Doch das widerspricht unserer Intuition. Wenn wir die Taxis sehen, wollen wir direkt durch die nächstgelegene Tür hinaus, auch wenn der Fußmarsch bis zur Spitze der Schlange genauso weit ist.
Verpönte Bunkerbauweise In älteren Flughäfen mit Betonwänden würde das nicht passieren, dennoch ist die dunkle Bunkerbauweise heute verpönt – zu Recht. „Der Besucher soll an jeder Stelle ein Gefühl dafür haben, wo er sich befindet“, sagt Florian Fischer, Leiter des Konzernbereichs Unternehmensentwicklung des Flughafens München. Und das gehe eben am besten mit Tageslicht und natürlichen Orientierungspunkten. Sieht er das Rollfeld und die Flugzeuge am Ende der Halle durch eine Scheibe, wählt der Passagier instinktiv diesen Weg. „Wo es hell wird, ist das Gate“, sagt unsere Intuition. Dieses Prinzip ist in der gesamten Besucherführung – von Parkplatz und S-Bahnhof bis zum Gate – konsequent verwirklicht. Immer hat der Besucher sein nächstes Ziel direkt vor Augen. Auch wenn Architektur viel zur guten Orientierung beitragen kann – ganz ohne Beschilderung geht es nicht. Denn die Nummer eines Gates erschließt sich nicht über die Architektur, und Toiletten mit Glaswänden wären zwar leichter zu finden, hätten dafür andere Tücken. Die Beschilderung sollte allerdings so sparsam wie möglich sein, die Zahl der Entscheidungsmöglichkeiten an einer Weggabelung möglichst gering. Am Flughafen in München hat das Büro für Gestaltung zur schnellen Orientierung einen dreistufigen Farbcode ausgetüftelt: Blau markierte Schilder regeln die Verkehrsbeziehungen, also den Weg zwischen Parkplatz und Gate beziehungsweise umgekehrt. Orange markierte Schilder weisen auf gastronomische Angebote und Ladengeschäfte hin. Und rote Schilder sind allein dem Thema Sicherheit vorbehalten, also zur Markierung der Fluchtwege. Für Ursula Wangler ist es selbstverständlich, dass sich Schrift und Gestaltung der Schilder am Corporate Design des Auftraggebers orientieren. Die Infoschilder verwenden deshalb weiße Schrift auf dunkelgrauem Grund.
Immer den Geschäften entlang Einen Königsweg für die Gestaltung der Schilder gibt es jedoch nicht, vielmehr hängt diese vom Zweck ab. So hat Wanglers Team auch die Besucherführung der Messe München entwickelt, dort mit weißer Schrift auf rotem Grund. Auf der Messe haben die Schilder eine etwas andere Funktion, weil die meisten Besucher nicht auf kürzestem Weg von A nach B gelotst werden wollen, sondern Gelegenheit haben möchten, ziellos an den Ständen vorbei durch die Hallen zu wandern, ohne jedoch die Gesamtorientierung zu verlieren. In manchen Flughäfen ist das Umherirren der Passagiere bewusst einkalkuliert. In Wien etwa sollen die Besucher nach dem Willen der Händler an möglichst vielen Ladengeschäften vorbeikommen, um den Umsatz in die Höhe zu treiben. Bei dieser Frage komme es mitunter zu Konflikten zwischen Flughafenbetreibern und Pächtern, so Fischer vom Flughafen München. Er ist stolz darauf, dass in München der Ausgleich der Interessen von Passagieren an schneller Orientierung, der Sicherheitsexperten an kurzen Fluchtwegen und der Pächter an ausreichendem Kundenkontakt gut gelungen ist. So konnte sich Fischer bisher auch gegen Begehrlichkeiten durchsetzen, die verglasten Fluggastbrücken zu plakatieren. Dies behindere den Ausblick und damit die Orientierung, so Fischer. „Die Passagiere fühlen sich instinktiv unwohl.“ An kniffligen Stellen ziehen die Planer Computer zurate. Als am Münchener Flughafen beim Bau des zweiten Terminals der Bahnsteig der S-Bahn-Haltestelle verlängert werden musste, kalkulierten sie mithilfe von Computersimulationen den besten Standort der Treppenaufgänge. Besucher, die zur S-Bahn wollen, sollen nicht mit denen kollidieren, die gerade mit der Bahn angekommen sind. Die Simulation zeigte auch, was passiert, wenn man die Treppe um 90 Grad dreht: Viele Leute übersehen den Aufgang und laufen daran vorbei. Die intuitive Orientierung ist vor allem in Notsituationen hilfreich, etwa wenn ein Brand ausbricht oder wenn das Terminal nach einer Bombendrohung evakuiert werden muss. Unterstützung liefern Fluchtwegpläne, so wollen es Unfallverhütungsvorschriften, die gut sichtbar ausgeführt und angebracht sein müssen. Bei der Beschilderung der Notausgänge brechen die Designer deshalb mit dem Prinzip der gestalterischen Einheitlichkeit. „Für die Fluchtwegschilder verwenden wir bewusst eine andere Gestaltung als für die Infoschilder“, so Ursula Wangler. Die Schilder dürften sich auch nicht gegenseitig verdecken und seien deshalb in einer anderen Achse angeordnet – „selbstverständlich über den Köpfen, so dass sie immer gesehen werden können“.
29|
Schwerpunkt
Eile mit Weile Kennen Sie das auch? Im Fußballstadion oder beim Konzerteinlass drängen sich große Menschenmengen durch enge Türen. Doch je mehr gedrängelt wird oder je schneller von hinten neue Menschen ankommen und seitlich zu überholen versuchen, um so langsamer scheint es vorne weiterzugehen. Dass das kein falscher Eindruck ist, sondern eine messbare Tatsache, hat Dirk Helbing bewiesen. Der Professor für Verkehrsökonometrie und -Modellierung an der Technischen Universität Dresden hat untersucht, wie sich Menschenströme an Flaschenhälsen, zum Beispiel in sich verengenden Korridoren, oder an Kreuzungen verhalten. Die Beobachtungen hat er in mathematische Modelle übersetzt, von denen Architekten bei der Planung von Gebäuden oder Verkehrswegen profitieren können. So hat Helbing herausgefunden, dass Fußgänger eine starke Abneigung gegen Umwege haben und am liebsten mit einer Geschwindigkeit von 1,35 Meter pro Sekunde gehen. In großen Menschenmengen lässt sich dieses Tempo jedoch nur schwer aufrechterhalten. Nur wenn ein Korridor breit genug ist, so dass sich zwei entgegengesetzte Ströme bilden können, kommen die Fußgänger schnell voran. An engen Türen kommt es zu Oszillationseffekten, wenn immer abwechselnd ein paar Personen aus der einen und dann ein paar Personen aus der anderen Richtung durchgehen. Kreuzen sich Fußgängerströme, bilden sich Streifen aus wenigen Personen, die sich ineinanderschachteln. Das alles kostet Zeit und zwar umso mehr, je schneller die Personen zu gehen versuchen. Geduld zahlt sich also für alle aus. Helbing gibt einfache Tricks, um Staus von Fußgängern und vor allem den Ausbruch einer Panik zu vermeiden: I Korridore mit Gegenverkehr sollten so breit sein, dass sich zwei homogene Ströme bilden können und es zu möglichst wenig
|30
Ausweichmanövern kommt. In der Regel wählen die Fußgänger instinktiv die Seite, die auch im Straßenverkehr gilt, in Deutschland also rechts. Sind Türen nötig, sollten zwei Türen – für jede Richtung eine – eingeplant werden. I Die Bildung gegenläufiger homogener Ströme lässt sich durch Säulen (Mülleimer, Blumentöpfe) in der Mitte des Korridors unterstützen. I Verengungen eines Korridors sind klassische Staufallen. Lassen sie sich nicht vermeiden, sollte die Verengung nicht abrupt erfolgen, sondern möglichst flach ausgeführt werden. Auch kurze Verbreiterungen eines Korridors haben Tücken, weil die Gehgeschwindigkeit an den Rändern zunimmt und es bei erneuter Verengung erst recht zu einer Flaschenhalssituation kommt. I Transparenz: Ungeduld und Angst an Flaschenhälsen entsteht vor allem dann, wenn die Menschen nicht sehen, was nach dem Hindernis kommt. Glasflächen mindern das Gefühl der Enge und helfen, den Druck der Nachdrängenden zu mildern. I Kreuzungen lassen sich am schnellsten passieren, wenn sich eine Kreisströmung aufbaut. Dies kann eine Säule in der Mitte und eine Beschilderung unterstützen, auch abgeschrägte Ecken der Korridore lenken die Fußgänger auf eine Kreisbahn. I Treppenaufgänge in Stadien oder Konzerthäusern sollten sich in Richtung des Ausgangs erweitern, weil die Zahl der Menschen dort zunimmt. Treppen im Zickzackdesign senken den Druck der Nachdrängenden und mildern die Folgen eines Sturzes. Kontakt: redaktionmit@sdm.de
‚
Weltsprache für
‚
Design
n wissen, dass die te gs ni we e di er Ab s. rn tte nnt sie: die Design-Pa mmt. ktur und Stadtplanung sta Jeder Software-Ingenieur ke ite ch Ar r de s au r te us M aren Idee der universell einsetzb en viel voneinander lernen. lin ip sz Di e id be en nn kö e Noch heut
Warum das Rad jedes Mal neu erfinden? Diese Frage stellte sich der Software-Ingenieur Erich Gamma Ende der Neunzigerjahre und lieferte in seinem Buch „Design Patterns“ die Antwort gleich mit: Flexible Muster – sogenannte Patterns – sollten Erfahrungswissen im Softwaredesign in präzise Häppchen fassen, die sich auf neue Anforderungen übertragen und kombinieren lassen. Die neuartige Idee der Design-Patterns elektrisierte die Branche und gehört heute zum Basiswissen jedes Software-Ingenieurs. Gamma gilt als Erfinder der Design Patterns – doch das stimmt nur zum Teil. Die Inspiration für sein einflussreiches Werk fand der Schweizer beim amerikanischen Architekten Christopher Alexander. Alexander lehrte seit den Sechzigerjahren Architektur und Stadtplanung in Berkeley und war gleichzeitig als praktischer Architekt tätig. In seinem Buch „A Pattern Language“ formulierte er eine Architekturtheorie, in der schöne und zeitlose Architektur in einer Sprache „geschrieben“ ist. Wörter dieser Sprache sind die Patterns, elementare Antworten auf viele Entwurfsfragen, die immer von den Grundbedürfnissen der Menschen ausgehen.
Reform und Tradition Alexanders Buch ist mittlerweile 30 Jahre alt und es bereitet nach wie vor Freude, es zu lesen. Das Buch ist geprägt vom antiautoritären und reformerischen Denken seiner Zeit. Andererseits ist Alexander auch tief verwurzelt in der traditionellen Architektur. Er entwickelt keine neuen Lösungen aus analytischer Abstraktion, sondern beobachtet, was in der Architektur funktioniert und welche Bedürfnisse dahinterstehen. Daraus formuliert er seine 253 Patterns, so zum Beispiel die folgenden:
Hausbau I South Facing Outdoors (105): Setze Gebäude immer auf den nördlichen Teil eines Grundstücks und reserviere den südlichen Teil für den Außenbereich. Lass keinesfalls eine Schattenzone zwischen dem Gebäude und dem sonnigen Teil des Außenbereichs entstehen. [...] I Positive Outdoor Space (106): Gestalte alle Außenräume um deine Gebäude positiv: gib ihnen eine Einfassung durch die Gebäude, durch Bäume, Hecken, Zäune, Arkaden und Laubengänge, so dass sie positiv als Einheit wahrgenommen werden und nicht an den Ecken zerfließen. [...] I Light on Two Sides of Every Room (159): Plane ein Haus so, dass jeder Raum mindestens zwei Außenwände hat. Setze in beide Außenwände Fenster, so dass in jeden Raum natürliches Licht aus mehr als einer Richtung eintritt. [...] Stadtplanung I Housing in Between (48): Baue einzelne Wohnhäuser zwischen die Geschäfte, Handwerksbetriebe, Schulen und öffentliche Einrichtungen, also in die Stadtteile, die am Tag Menschen anziehen, aber keine Wohngebiete sind. [...] I Public Outdoor Room (69): Verwandle in jedem Ortsteil ein Stück öffentliche Fläche in einen Außenraum: einen teilweise umschlossenen Platz, mit Dach, ohne Wände. [...]
31|
Schwerpunkt
Alexanders Ansatz wurde heftig diskutiert und stand im Gegensatz zu den damals vorherrschenden Architekturströmungen, die Rationalität und ideale Grundformen forderten. Die Stärke seines Ansatzes ist, komplexes, gewachsenes Wissen in kleine, gut zu vermittelnde Einheiten, die Patterns, zu strukturieren. Jedes dieser Patterns wird im immer gleichen Format präsentiert – ein Foto einer charakteristischen Anwendung des Patterns als Aufmacher, gefolgt vom Entwurfsproblem, der Lösung, einem illustrierenden Diagramm und zum Abschluss die Beziehungen zu anderen Patterns. Auch heute noch betrachtet der Mainstream der Architektur diesseits wie jenseits des Atlantiks Alexanders Theorie sehr kritisch, teils verächtlich. Man wirft ihm vor, rückwärtsgewandt zu sein und einen reaktionären Postmodernismus zu vertreten. Anhänger hat Alexander heute vor allem in der amerikanischen Architekturströmung des New Urbanism. Dort wirken seine Ideen und seine Ideale vom kleinstädtischen Leben mit kurzen Wegen und intensiver Nachbarschaft nach.
Kulisse für die Truman Show So kann man heute die Stadt Seaside, Florida, eine Ikone des New Urbanism, als Spätfolge von Alexander ansehen. Seaside ist vielen als Kulisse des Films The Truman Show von Peter Weir bekannt. Doch dahinter verbirgt sich eine ganz reale, in sich geschlossen geplante und gebaute amerikanische Kleinstadt. Seaside und hunderte andere amerikanische Siedlungen des New Urbanism zeichnet aus, dass sie für amerikanische Verhältnisse relativ dicht gebaut sind und dass Wohngebäude, Geschäfte und öffentliche Einrichtungen nah beieinanderstehen, im bewussten Gegensatz zum sonst vorherrschenden Urban Sprawl. Europäer empfinden Orte wie Seaside als Retortenstädte und rümpfen die Nase über den verspielten, manchmal kitschigen Architekturstil. Für viele Amerikaner ist es dennoch erstrebenswert, in solchen Ortschaften zu wohnen, entsprechend hoch sind die Preise für Immobilien.
|32
seine eigene Zunft übte Einen wesentlich stärkeren Einfluss als auf ik aus. Die Initialzündung Christopher Alexander auf die Informat Beck und Ward Cunningfand dort im Jahr 1987 statt, als Kent Alexanders Language of ham erstmals die Idee beschrieben, ngen für Probleme des Patterns zu nutzen, um praktische Lösu beschreiben. objektorientierten Softwaredesigns zu er Zeit. Das gerade erst Sie thematisierten damit ein Dilemma dies entierung brachte für die eingeführte Paradigma der Objektori Freiheiten, aber auch KomSoftware-Architekten wesentlich mehr eiten zu scheitern. Es war plexität – und damit auch mehr Möglichk versuchte durch die Entdie Zeit der Framework-Euphorie: Man zum Beispiel für die Userwicklung großer, mächtiger Frameworks, ität beherrschbar zu maInterface-Programmierung, diese Komplex igen. Bald sah man aber chen und abstrakte Lösungen vorzufert teuer und riskant war und ein, dass die Framework-Entwicklung esigns noch erhöhte. dass sie die Komplexität des Softwared Weg, Lösungen für EntBeck und Cunningham suchten einen wiederverwendbar zu mawurfsprobleme in vielen Situationen zementieren. Sie fanden chen, ohne sie gleich in Frameworks zu auch die passende Theorie sowohl die richtige Geisteshaltung als auf die praktischen Bebei Christopher Alexander: Besinne dich ue zurück und nutze wiedürfnisse und Probleme im Design, scha e funktioniert hat, und beder, was schon vielfach an anderer Stell urfsmustern. schreibe diese Lösungen in Form von Entw den Design Patterns in VerHeute wird vor allem Erich Gamma mit Richard Helm, Ralph bindung gebracht. Er und seine Koautoren darum verdient gemacht, Johnson und John Vlissides haben sich erfolgreichen Frameworks 23 grundlegende Design Patterns aus Stärke ihres Buchs Design zu extrahieren und zu beschreiben. Die rmatik eingegangen ist, Patterns, das längst in den Kanon der Info Prägnanz, mit der jedes liegt in der Form, der Ausführlichkeit und Pattern beschrieben ist.
Schwerpunkt
Drei der bekanntesten Patterns sind
die folgenden:
I Composite: Setze Objekte in Baumstruk turen zusammen, um Hierarchien aus Strukturen und Einzelob jekten zu beschreiben. Definiere die verschiedenen Operationen auf diesen Baumstrukturen jeweils in Form einer Schnittstelle, die gleichermaßen für Einzelobjekte wie für Strukturen gültig ist. I Observer: Definiere eine 1:n-Beziehung zwischen Objekten so, dass bei einer Zustandsänderung eine s Objekts alle abhängigen Objekte automatisch benachrichtig t und aktualisiert werden. I Strategy: Definiere eine Familie von Algorithmen und kapsele sie durch eine Aufrufschnittstelle vor der Anwendung, die sie einsetzt. Dann kann später bei Bedarf der Algorithmus ausgetauscht werden, ohne die Anwendung anpassen zu müssen.
Viel hilft nicht viel Design Patterns wurden in der Informat ik viel euphorischer aufgenommen als in der Architektur. Zahlreich e Konferenzen wurden und werden zu dem Thema abgehalte n, Patternkataloge erstellt und gepflegt. Die Begeisterung ging zeitw eise so weit, dass man sich rechtfertigen musste, wenn ein Entw urf keines der Patterns enthielt, „mehr Patterns“ galt als das bess ere Design. Im Rückblick sei es ein Fehler gewesen, sagt Erich Gam ma, der Pattern-Gemeinde nicht zu sagen, wann sie ein Pattern besser weglassen oder wieder entfernen sollte. Im Softwaredesign ist schließlich Einfachheit ein hohes Gut. Flexibilität, die man nich t benötigt, lässt man besser weg.
Heute ist es ruhiger um die Patterns geworden. Klar ist, dass man alleine mit Pattern-Katalogen nicht alle Design-Probleme lösen kann. Die Protagonisten Kent Beck und Erich Gamma haben das Thema der nächsten Generation übergeben und sich neuen Themen zugewandt: Extreme Programming, Test-driven Development, Software-Entwicklungsumgebungen. Die Patterns sind in den Mainstream der Informatik übergegangen. Frameworks, aus denen sie einst hervorgingen, sind auch heute noch reich an Patterns. So etwa Java Swing, ein Framework zur User-Interface-Programmierung, oder alle Varianten der Unit Test Frameworks. Die Patterns sind aber auch Teil der Sprache des Software-Designs geworden und tragen zum Austausch unter Software-Architekten bei: Jeder Software-Architekt weiß, was ein Proxy oder ein Observer ist und kann damit Designaspekte prägnant benennen. Was hat Patterns in der Informatik so erfolgreich gemacht? Nach Meinung Erich Gammas ist es genau der Blick zurück, für den Alexander in der Architektur so vehement kritisiert wurde: „Ich habe immer zurückgeschaut und gefragt, was hat funktioniert, während die anderen Pioniere Visionen hatten.“ Kontakt: volker.jung@sdm.de
33|
Bilbao ist 체berall Aus dem Nichts weltber체hmt: Mit dem Bau des Guggenheim-Museums katapultierte sich Bilbao an die Weltspitze der Kulturmetropolen. Auch andere St채dte entdecken Kunst und Architektur als Standortfaktor.
Schwerpunkt
„Bills Ballhaus in Bilbao ist das schönste auf dem ganzen Kontinent“, dichtete Bert Brecht in der Oper Happy End vor einem Dreivierteljahrhundert. Wenn Brecht noch leben würde, hieße sein Text wahrscheinlich anders: Heute ist nämlich das GuggenheimMuseum in Bilbao das schönste auf dem ganzen Kontinent. Am Ufer des Nervión auf 24.000 Quadratmetern ragt der silberne Bau aus Stahl, Stein, Titan und Glas in 50 Meter Höhe. Geometrische Formen mit Abertausenden von Titanplättchen verkleidet schieben sich ineinander, glänzen in der Sonne und spiegeln sich im Wasser. Sie tragen die Handschrift des kanadisch-amerikanischen Stararchitekten Frank O. Gehry, der die baskische Metropole in der ganzen Welt bekannt gemacht hat.
Einfach grandios: die „Fosterios“
Doch so glanzvoll die Gegenwart ist, so wechselhaft ist die Geschichte der Stadt: Von der Mitte des 19. Jahrhunderts bis etwa 1975 war Bilbao als Industrie- und Hafenstadt ein wirtschaftliches Zentrum Spaniens und zählte zu den wohlhabendsten Regionen des Landes. Doch der Niedergang der Stahl- und Schifffahrtsindustrie trieb die Arbeitslosenquote in die Höhe und Bilbao in die Armut: Umweltverschmutzung, Jobmangel und eine schlechte Stadtplanung machten die Stadt unattraktiv, Tausende von Menschen wanderten ab.
Ziel der baskischen Regierung war es, mit dem Guggenheim-Museum eines der bedeutendsten Gebäude des 20. Jahrhunderts zu errichten. Die Besucherzahlen belegen, dass der Plan aufgegangen ist: Etwa eine Million Menschen strömen jährlich nach Bilbao. Ein Ende ist nicht in Sicht: Zehn Jahre nach der Eröffnung des Museums arbeiten Architekten aus aller Welt weiterhin an der Stadtsilhouette Bilbaos. So sitzt Zaha Hadid derzeit an der Planung der Halbinsel Zorrotzaure, Philippe Starck gestaltet den Alhondiga-Bilbao um, einen über hundert Jahre alten Weinmarkt, und Cesar Pelli schafft mit dem Iberdrola Tower einen neuen Hauptsitz für das gleichnamige Unternehmen. Und die ehemaligen Industrieflächen werden zu neuen architektonischen Aushängeschildern der Stadt.
Von der Brache zur Kultstadt In den Neunzigerjahren kam die Wende: Statt weiter an den Problemen herumzudoktern, wagte Bilbao den Befreiungsschlag und setzte auf Kunst und Architektur als Zukunftsinvestition. Die baskische Verwaltung ergriff die Initiative und schloss mit der Solomon R. Guggenheim Stiftung eine Kooperation für den Bau eines Kunstmuseums. 1997 war es so weit: Das GuggenheimMuseum öffnete seine Tore und Bilbao wandelte sich von einer Industriebrache zur Kulturstadt. Seit zehn Jahren bringen Touristen zusätzliches Geld und Leben in die Stadt und tragen zu dem überraschenden wirtschaftlichen Aufschwung bei. Die Lebensqualität in Bilbao stieg und Bürger und Politiker sehen die Zukunft Bilbaos heute wieder positiv. Die Finanzierung des Museums hat sich für die Stadt durch die Einnahmen in Hotels und Gastronomie bereits bezahlt gemacht. Die Metamorphose der baskischen Stadt hat unter dem Begriff Bilbao-Effekt Eingang in Stadtplanung und Architektur gefunden. Die Idee: Städte sollen durch ausgefallene Architektur aufgewertet und für Bewohner und Touristen interessanter werden. Oder in der Sprache der Architekten: Der Bilbao-Effekt steht für die wirtschaftlich-kulturelle Initialzündung in einem heruntergekommenen Stadtquartier, bei der die Architektur eine führende Rolle spielt. Dabei löst sich die Architektur in gewissem Maße von ihrer ursprünglichen Funktion und erhält neue kulturelle, soziale und wirtschaftliche Aufgaben.
Der Bilbao-Effekt beruht aber nicht allein auf dem GuggenheimMuseum, es gibt weitere spektakuläre Bauten: So durchzieht eine 28 Kilometer lange Metrolinie die Stadt, deren Haltestellen fast alle vom britischen Architekten Sir Norman Foster entworfen wurden. „Fosterios“ werden die Metrostationen genannt, die über die ganze Stadt verteilt immer wieder als organische Skulpturen aus dem Boden wachsen. Und auch die geschwungene weiße Brücke Zubi Zuri – entworfen vom spanischen Architekten Santiago Calatrava – zählt zu den Impulsgebern des BilbaoEffekts.
Nachahmer in den Startlöchern Schnell hat Bilbao Nachahmer gefunden. Ob Valencia mit dem spektakulären Opernhaus Palau de les Arts (Architekt Santiago Calatrava), Herford mit seiner Kunsthalle und Designzentrum MARTa (Frank O. Gehry), Hamburg mit der Elbphilharmonie (Herzog & de Meuron), Kopenhagen mit der Erweiterung des Kunstmuseums Ordrupgaard (Zaha Hadid) oder das Jüdische Museum in Berlin (Daniel Libeskind) – sie alle wollen mit aufsehenerregenden Bauten von Stararchitekten punkten und Menschen anziehen. Doch nicht überall geht die Rechnung auf. Um vom Bilbao-Effekt profitieren zu können, müssen die neuen Gebäude die internationale Öffentlichkeit erreichen und begeistern – zu moderaten Preisen. So wie es Bill einst im Ballhaus in Bilbao machte: „Dort gabs für einen Dollar Krach und Wonne.“ Mehr Informationen zum Stadtwandel in Bilbao: www.bm30.es Kontakt: johanna.wetzel@sdm.de
35|
Corporate Architecture
Unternehmen legen mehr und mehr Wert auf ihren Außenauftritt. So hat sich auch die Architektur einen festen Platz in der Wirtschaftswelt erobert. In Form von repräsentativen Unternehmenssitzen, wagemutig konstruierten Fabrikationsstätten oder architektonisch außergewöhnlichen Erlebnisstätten für die jeweiligen Kunden gewinnt die sogenannte Corporate Architecture auch hierzulande an Raum. Ob Außen- oder Innenarchitektur – es gibt viele Wege, die Corporate Identity auch baulich umzusetzen …
|36
Schwerpunkt
37|
Schwerpunkt
Corporate Architecture
|38
Schwerpunkt
39|
SAP in
8
Minuten
Mit SAP NetWeaver® binnen kürzester Zeit neue Prozesse realisieren. Software aus Walldorf und Schnelligkeit? Das passt zusammen, wie die Experten von sd&m unlängst demonstrieren konnten. Sie erreichten sogar ein erstaunlich hohes Tempo und programmierten in gut 8 Minuten einen Geschäftsprozess. Zwar „nur“ im Rahmen eines stark vereinfachten Versuchsmodells. Doch auch in der Realität lassen sich mit SAP NetWeaver® in überschaubarem Zeitrahmen eindrucksvolle Ergebnisse erzielen. So etwa bei der Zahnradfabrik Friedrichshafen AG.
Teure Spezialmaschinen in einem komplexen Herstellungsprozess müssen zuverlässig arbeiten. Tun sie dies nicht, schnellen die Ausfallkosten in die Höhe. Ein Problem, das es auch bei der Zahnradfabrik Friedrichshafen AG (ZF) – einem Automobilzulieferer, der zu den weltweit größten Anbietern auf dem Gebiet der Antriebs- und Fahrwerkstechnik zählt – zu lösen galt. Auf bis zu fünfstellige Summen können sich dort die Kosten einer einzigen Ausfallstunde belaufen. Bei einer Zahl von 250 Werkzeugmaschinen, neben anderen Anlagen, können da beträchtliche Summen zusammenkommen. „Schon bei nur ein oder zwei Ausfallstunden pro Maschine und Jahr lohnt sich ein systematischer Instandhaltungsprozess“, erklärt Andreas Gollwitzer. Er ist SeniorBerater im Center of Competence NetWeaver bei sd&m, das den proaktiv gesteuerten Instandhaltungsprozess bei ZF konzipierte und implementierte.
SAP NetW im Reag
Software
eave
enzg
r®
las In 8 Minuten zur lauffähigen Anwendung 1:47
Heute messen dort Sensoren an den Maschinen deren technische Werte und vergleichen sie mit den Soll-Größen. Treten Überschreitungen auf, wird sofort eine Instandhaltungswarnung ausgelöst, ein entsprechender Auftrag angelegt und dessen Durchführung kontrolliert. Das erfreuliche Ergebnis: Die jährliche Ausfallzeit wurde um 390 Stunden gesenkt. Implementiert wurde der Geschäftsprozess in einem mehrwöchigen Projekt auf Basis SAP NetWeaver®. „In puncto Schnelligkeit hält der Technology Stack aus Walldorf, was er verspricht“, erklärt Gollwitzer und demonstrierte dies in einem Modellversuch. Mit der neuesten NetWeaver-Technologie setzten er und seine Kollegen innerhalb weniger Wochen Teilaspekte der Geschäftsprozesse aus dem Projekt bei der Zahnradfabrik im Reagenzglas um. „Die Idee war, ein realitätsnahes Modell zu konzipieren, anhand dessen wir zeigen können, wie schnell sich mit SAP NetWeaver® solide Lösungen erstellen lassen“, erklärt Gollwitzer. „Natürlich haben wir im Modell die Realität abstrahiert und uns auf die wesentlichen Aspekte des Geschäftsprozesses konzentriert. Denn nur dann können Sie innerhalb kürzester Zeitfenster Prozesse modellieren.“ Einige Arbeitsschritte wurden schon vorab erledigt: So etwa entwickelten die Berater ein Zusatzmodul, mit dem sich der Prozess von Aris in das Composition Environment überführen lässt, und nahmen die notwendigen technischen Basiskonfigurationen der doch komplexen Infrastruktur vorweg. „Sicherlich sind für produktive Lösungen weitaus mehr Qualitätssicherungsmaßnahmen und Feinheiten zu beachten“, so Gollwitzer. „Aber schließlich wollten wir im Modellversuch maximale Schnelligkeit demonstrieren.“ Was auch gelang: Im Rahmen einer SAP Jam Session haben Gollwitzer und seine Kollegen vom Prozessmodell bis zur lauffähigen Anwendung eine Applikation entwickelt und implementiert. In allerkürzester Zeit. Nämlich in nur 8 Minuten und 10 Sekunden. Kontakt: andreas.gollwitzer@sdm.de
2
3
4
5
6
7
8
( 1 M i n u t e 4 7 S e k u n d e n ) Die einzelnen Dienste des Prozesses werden mit ARIS 4 SAP NetWeaver modelliert. Nach 1 Minute 47 Sekunden ist der gesamte Prozess digitalisiert.
1
2:20
3
4
5
6
7
8
( 3 3 S e k u n d e n ) Das Modell wird in die SAP-Welt überführt. Die Geschäftsobjekte werden automatisch als Entity Services in das SAP Composite Application Framework überführt.
1
2
3:45
4
5
6
7
8
( 1 M i n u t e 2 5 S e k u n d e n ) Mithilfe des Service Repository werden die gewünschten Funktionen zusammengestellt. Im MenüPunkt „Maintenance Processing“ findet sich (fast) alles, was gebraucht wird. 1
2
3
4:51
5
6
7
8
( 1 M i n u t e 6 S e k u n d e n ) Die Orchestrierung: Innerhalb einer guten Minute werden die ausgewählten Services verknüpft.
1
2
3
4
5
6:30
7
8
( 1 M i n u t e 3 9 S e k u n d e n ) Der webbasierte Visual Composer unterstützt die Modellierung der Oberfläche. Mit nur wenigen Klicks lässt sich der Service auf der Gestaltungsoberfläche abbilden. Beim Erstellen der Eingabemasken unterstützt ein Assistent.
1
2
3
4
5
6
7
8:10
( 1 M i n u t e 4 0 S e k u n d e n ) Das Deployment: Per Knopfdruck wird der auf dem Notebook entwickelte Prozess auf den Server geschaltet und damit zu einer Anwendung im SAP-Portal. Nun gilt es noch, die Lauffähigkeit zu testen. Gut eine Minute später steht fest: Die Umsetzung des Prozesses in eine funktionierende Portal-Anwendung ist erfolgreich abgeschlossen.
41|
Die ausgebliebene
Revolution
Vor gut sechs Jahren versprach die Model Driven Architecture (MDA), manuell geschriebene Codes abzuschaffen: Künftig sollte Software mithilfe von Generatoren entstehen. Eine schöne Idee, die nach dem ersten Hype immer stärker in die Kritik geriet. Wieso wurden die Hoffnungen nicht erfüllt?
Die Vision klang verheißungsvoll: Einfacher Code sollte nicht mehr von Hand programmiert, sondern wie Maschinensprache automatisch erzeugt werden. Anstelle von C++ und Java sollte die Software mithilfe von Generatoren entstehen. So könnte sich der Software-Ingenieur auf das Wesentliche, auf das Modell, konzentrieren.
|42
So weit die Idee, die damals einen Hype in der Branche auslöste. Der Beruf des Programmierers schien vom Aussterben bedroht. Software sollte in Rekordgeschwindigkeit herstellbar sein. Dann aber wurden – wie bei so vielen Hypes in der IT und anderswo – die euphorischen Erwartungen enttäuscht. Und schließlich fällte Forrester Research im Jahr 2006 das vernichtende Urteil „Dead on Arrival“ und erklärte das Konzept für tot.
Software
Welche zentralen Ziele wurden mit MDA verfolgt und warum wurden sie nur teilweise erreicht?
Ziel 1 MDA erhöht das Abstraktionsniveau. So kann sich der SoftwareIngenieur auf das Wichtige fokussieren und das Unwichtige ausblenden. Die Modelldarstellung soll das Leben leichter machen, indem sie überschaubarer ist als der klassische Programmcode. Das gelingt leider in der Realität nicht immer. Denn oft ist das Modell selbst genauso komplex und unübersichtlich wie der einfache Code, nur eben in einer anderen, grafischen Darstellungsform. Ein UML-Klassendiagramm der Geschäftsobjekte etwa, das bereits nahezu alle Informationen des Programmcodes enthält, kann man nicht mehr als Abstraktion bezeichnen. Es ist allenfalls eine übersichtlichere Darstellung – jedenfalls solange das Diagramm noch überschaubar ist. Die Kunst besteht also darin, zu erkennen, wann die Modelldarstellung mit MDA zu einer sinnvollen Abstraktion und damit zur Vereinfachung führt und wann nicht. Und es gibt durchaus Fälle, in denen Abstraktion eine große Hilfe ist. Wenn man beispielsweise für die Persistenz der Geschäftsobjekte Enterprise Java Beans einsetzt, muss für den Datenzugriff einer einzelnen Entität eine Reihe von Klassen implementiert werden. Modelliert man sie mit UML, ist dies nicht nur abstrakter, sondern auch übersichtlicher. Ein sinnvoller Anwendungsfall also für MDA. Aber natürlich ist MDA nicht der einzig gangbare Weg zur Abstraktion: So etwa erlaubt die Aspektorientierte Programmierung (AOP) das Abstrahieren von bestimmten Implementierungsdetails wie Logging und Transaktionen. Und bei einem O/R-Mapper wird ohnehin auf der Implementierungsebene abstrahiert, so dass weitere Abstraktionen durch Modellierung überflüssig sind. Allerdings ist MDA nicht obsolet, nur weil es andere gute Lösungen gibt.
Ziel 2 MDA hilft, die Spezifikation zu formalisieren, um diese als Grundlage automatischer Code-Generierung zu verwenden. Das ist richtig. Jedoch kann das UML-Diagramm eine Spezifikation nur in seltenen Fällen ersetzen. Denn diese dient vor allem der Kommunikation im Rahmen eines Softwareprojekts. Die Fachbereiche der Unternehmen erwarten nach wie vor ein lesbares Textdokument als fachliche Basis der Realisierung. Sprich: Sie erwarten die Spezifikation, die zwar vereinzelte Modelle zur Illustration enthalten darf. Reine Generate aus Modellierungswerkzeugen aber nimmt kein Fachbereich ab.
Bei der Softwareentwicklung werden Modelle meist eingesetzt, um statische Programmteile wie Datenzugriffsschichten und Schnittstellen zu generieren. Die Gegenstände der Modelle sind in der Regel technischer Natur, also Services, Komponenten oder Klassen. Nur selten erzeugen Modelle Programmcodes für Fachlichkeit und Anwendungen. Denn nach wie vor erstellen Software-Entwickler die fachliche Ablauflogik traditionell, sprich: von Hand. Das Gleiche gilt für die Benutzerschnittstellen. MDA beinhaltet technische Spezifikationen und Standards rund um das Arbeiten mit Modellen, davon ist die Modellierungssprache UML die am meisten genutzte und bekannteste. Weitergehende Standards, beispielsweise zum Austausch oder zur Transformation von Modellen zwischen Werkzeugen, werden nur selten in Reinform verwendet. Folglich setzten Entwickler spezielle MDA-Werkzeuge, die sich ganz diesen Standards verschrieben haben, kaum ein. Funktionalität aus diesen Werkzeugen wandert vielmehr in die bekannten Werkzeuge der „klassischen“ Softwareentwicklung wie Eclipse oder Microsofts Visual Studio.
43|
Wann sind Modellierungstechniken sinnvoll? Folgende Fragen helfen weiter:
I Wird zusätzliche Abstraktion benötigt? Kann sie die Effizienz erhöhen oder die Qualität verbessern?
I Ist die Modellabstraktion den pragmatischeren Alternativen, etwa dem Einsatz eines Frameworks, überlegen?
Ziel 3
I Rechtfertigt der Zusatznutzen die zusätzliche Komplexität?
MDA soll die Unabhängigkeit von technischen Plattformen ermöglichen und die Fachlichkeit von der Technik trennen, damit Software flexibler wird. MDA-Werkzeuge alleine schaffen keine Plattformunabhängigkeit. Stattdessen begründen UML als Modellierungssprache und die zugehörigen Werkzeuge eine Plattform, die zu den typischen Abhängigkeiten führt. Hinzu kommt, dass Plattformunabhängigkeit auch durch moderne Programmiersprachen und Entwicklungsumgebungen unterstützt werden kann. Kapselung hinter einer Schnittstelle ist ebenfalls ein möglicher Lösungsansatz. Nicht nur die lückenhafte Zielerreichung hat MDA gebremst. Hinzu kommt als weiteres Erfolgshindernis ein essenzielles Marketing-Problem: Das MDA-Konzept lässt sich nur schwer vermitteln. Es löst kein aktuelles, fachliches Problem, so wie SOA die anforderungsspezifische Gliederung von Anwendungslandschaften ermöglicht. Darüber hinaus sind Modellierung und Generierung komplexe, technische Themen, deren Spezialbegriffe die Domäne von Experten sind. Management-taugliche Darstellungen der Konzepte und Bewertung der Nutzungsaspekte sind daher sehr schwierig.
Eine Idee scheitert häufig nicht daran, dass sie nicht brauchbar wäre, sondern an überzogenen Erwartungen. So auch im Falle MDA. Selbst mit Modellen lässt sich die gewünschte Abstraktion oft nicht erreichen. Und Abstraktion um jeden Preis stiftet keinen Nutzen. Zudem können die Modelle eine fachliche Spezifikation nicht ersetzen, weil sie für Fachabteilungen unlesbar sind. Und schließlich ist die Festlegung auf eine einzelne Modellierungsarchitektur zu unflexibel. Kurzum: MDA besitzt nicht den Rang des für sich allein stehenden Softwareentwicklungsprinzips, in den es seine glühendsten Verfechter gern erheben wollten. Dennoch ist MDA nützlich: Als eine Technik zur effizienten Softwareentwicklung gehört MDA in den Werkzeugkasten eines jeden Software-Ingenieurs. Denn Modellierungs- und Generierungstechniken sind und bleiben aktuell, auch wenn sie zum Teil deutlich älter sind als MDA selbst. Kontakt: friedemann.ludwig@sdm.de
|44
Software
Charakter Der Entscheidung für neue Softwarelösungen geht in der Regel ein langwieriger Auswahlprozess voraus. Häufig steht dabei die Frage im Fokus, ob Individual- oder Standardsoftware die bessere Lösung ist. Um dies unter Berücksichtigung aller technischen und betriebswirtschaftlichen Argumente zu beurteilen, werden alle Aspekte auf das Sorgfältigste evaluiert. Auf die ausführlichen Präsentationen der Anbieter folgen ebenso ausführliche interne Analysen und Besprechungen, an die sich erneute Präsentationen der Externen anschließen. Alles überflüssig, meinen wir. Denn zuallererst ist die Entscheidung zwischen individueller und standardisierter Lösung eine Charakterfrage.
An die Standardlösung glauben: An die Individualsoftware glauben: 1. Abenteurer: Zu den Polen, über die Meere, auf den Himalaya – auch unter IT-Entscheidern gibt es Pioniere. Ihr Ziel ist es, neue digitale Welten zu entdecken. Ihr Weg führt über die Analyse der Fachlichkeit, die Konzeption und Programmierung hin zur besten aller Software-Welten. 2. Perfektionisten: Besser geht’s nicht. Erst wenn sie davon überzeugt sind, hören sie mit dem Verbessern auf. Das kann dauern. Den passenden Spielplatz dafür bietet die Individualsoftware. 3. Baumeister: Wer möchte sich nicht ein Denkmal setzen? Allerdings sind Baugrund und finanzielle Mittel heute denkbar knapp. Den Ausweg bieten digitale Pyramiden, Paläste oder Kathedralen, individuell konstruiert nach eigenen Ideen und persönlichem Gusto.
1. Finanzminister: Eines ist sicher: Mit Standardlösungen lässt sich sparen. Also entscheidet man sich für sie – selbst wenn ihre Adaption so lange dauert und so viel Manpower verbraucht, dass die Gesamtkosten das Budget sprengen und die Software schlussendlich teurer als die individuelle Lösung ist. 2. Ungeduldige: Schnell, schneller, am schnellsten steht eine Lösung von der Stange zur Verfügung. Ergebnisorientierte Macher setzen auf die Standardlösung. Und wenn sich schließlich die Einführung doch komplexer gestaltet als erwartet, üben sie sich grummelnd in Geduld. 3. Traditionalisten: Wer auf Bewährtes setzt, kommt um die Standardlösung nicht herum. Sie ist ausgereift und schon vielfach erprobt. Da weiß man, was man hat. Wer allerdings zugleich die im Unternehmen bewährten Prozesse beibehalten will, braucht zusammen mit der Standardlösung ein umfangreiches Customizing. Denn schließlich haben wir das schon immer so gemacht.
45|
Software
4. Kreative: Neues als Erster denken, Neues schaffen – und die Welt verblüffen. Danach streben die Kreativen, auch im ITGeschäft. Und sie finden Mittel und Wege, ihr kreatives Potenzial an den Start zu bringen. Natürlich nur, wenn sie sich für Individualsoftware entscheiden. 5. Kämpfer: Wer die ewige Herausforderung sucht, wird in der Individualsoftware einen echten Quell der Freude finden. Sie muss nicht nur individuell programmiert, sondern auch individuell getestet und gewartet werden. Genügend Aufgaben für alle Rast- und Ruhelosen. 6. Experimentierfreudige: An vorderster Entwicklerfront fühlen sie sich pudelwohl. Sie experimentieren und probieren und verweilen mit besonderer Freude bei der Beta-Lösung, weil sie die Einzigen sind, die diese so lang testen dürfen, bis sie schließlich und leider die Produktreife erreicht. 7. Nonkonformisten: Was alle haben, will ich nicht. Der einfache Weg ist allein deswegen nicht gangbar, weil ihn alle beschreiten könnten. 8. Verzweifelte: Sie wissen, dass es für jede Aufgabenstellung in der IT schon eine Lösung gibt. Man muss bloß systematisch danach suchen, qua präzise formulierten Pflichtenhefts. Erst wenn sich nach dutzendfachem Abgleich der Funktionsübersichten des vorhandenen Standardangebots mit dem Pflichtenheft immer wieder zwischen Soll und Ist eine unüberbrückbare Lücke klafft, beginnt der Verzweifelte zähneknirschend mit der Suche nach dem geeigneten Software- und Beratungshaus.
4. Gleichmacher: Das Soll steht immer links, das Haben immer rechts. Und überhaupt, alle Unternehmen funktionieren gleich – und können daher gut mit der gleichen 08/15-Lösung leben. 5. Coach-Potatoes: Warum lange nachdenken, konzipieren und tüfteln, wenn das Rad schon längst erfunden ist und die Allinclusive-Lösung zur Verfügung steht? Schließlich ist die Standard-Lösung ausgereift und liefert einen Best-PracticeProzess frei Haus. Auf langwierige eigene Überlegungen zum Thema Effizienz und Innovation im eigenen Unternehmen kann man dann getrost verzichten. 6. Label-Victims: Einen guten Eindruck schinden lautet das oberste Gebot all jener, die sich mit Markenware schmücken. Wer anfällig dafür ist, schaut auch bei der Software auf das Label und macht mit Marken-Lösungen führender Anbieter eine gute Figur. 7. Vorsichtige: Bewährte Standardprodukte zugunsten einer unsicheren Individuallösung ablehnen? Und dann am Ende den Kopf hinhalten, wenn etwas schiefläuft? „Nein danke“, lautet das Vorsichtsprinzip umsichtiger IT-Entscheider, die einen großen Bogen um allzu Individuelles schlagen. 8. Ignoranten: Klammern sich gern an das vollmundige Versprechen „One size fits all“, auch wenn es für ihr Problem keine Standardlösung gibt. Und sie wundern sich erst ganz am Schluss, wenn die Ärmel zu kurz, der Bund zu stramm und die Hosen zu lang sind. Kontakt: redaktionmit@sdm.de
|46
Software
Ohne Plan geht nichts – weder im Hausbau noch bei der Entwicklung von IT-Systemen. Doch so wie Städte mehr sind als die Summe der Gebäude, lassen sich Anwendungslandschaften in der IT nicht einfach aus einzelnen Systemen zusammensetzen. Nötig ist ein Masterplan – und den liefert Quasar Enterprise.
Wer ein Gebäude planen und bauen kann, kann noch lange keine Stadt planen – das leuchtet jedem ein, denn Städtebau und Gebäudebau sind zwei grundlegend unterschiedliche Disziplinen, auch wenn die Stadt noch so klein oder das Gebäude noch so groß ist. Auch in der IT-Branche gibt es eine ähnliche Konstellation: Die Gestaltung einzelner, gerne auch großer Anwendungssysteme (Gebäude) und die Gestaltung ganzer Anwendungslandschaften (Städte). Die Anwendungslandschaft eines Unternehmens umfasst alle für die Unterstützung des Geschäfts notwendigen Anwendungssysteme und ist wie eine Stadt mit vielen Gebäuden.
Mit dem Bau von Anwendungssystemen beschäftigt sich sd&m seit seiner Gründung. Als Referenz für unsere „Gebäudebauer“ haben wir Quasar (Quality Software Architecture) entwickelt – die sd&m-Standard-Architektur für betriebliche Informationssysteme. Auf der anderen Seite beschäftigt sich sd&m zunehmend mit ganzen Anwendungslandschaften. Das Spektrum reicht von IT-Beratung und Unternehmensarchitektur über die Integration technischer, aber auch fachlicher Fertigkomponenten bis hin zum Bau einzelner großer Anwendungssysteme, die in die Landschaft passen müssen. Dafür brauchen die „Städtebauer“ bei sd&m eine analoge Referenz – Quasar Enterprise – ein Quasar auf Unternehmensebene.
Mehr Inhalt für den Rahmen Hinter dieser Analogie steckt mehr, als man zunächst vermutet. Das Komplizierte an Gebäuden und Anwendungssystemen sind Planung und Neubau, weniger die Instandhaltung. Falls es seinen Zweck nicht mehr erfüllt, wird ein Gebäude eben abgerissen und durch ein neues ersetzt. Bei Städten – und bei Anwendungslandschaften – geht das nicht. Sie werden im Sinne einer kontrollierten Evolution langsam weiterentwickelt. Es gibt noch weitere Parallelen: So umfasst Stadtgestaltung neben der Bebauungsplanung auch die Versorgung mit Infrastrukturdiensten wie Strom, Gas, Wasser oder Müllabfuhr. Auch in Anwendungslandschaften wird gebaut (Standard- oder Individualsoftware) und Infrastruktur geplant (zum Beispiel Integrationsinfrastrukturen).
Für die Unternehmensarchitektur existieren schon seit etlichen Jahren Rahmenwerke für IT-Architekten, die Ordnung ins Dickicht bringen. Quasar Enterprise bedient sich dieses Ansatzes und nutzt ein solches Rahmenwerk zur Strukturierung. Doch ein solches Rahmenwerk reicht den IT-Städtebauern nicht. Es erklärt zum Beispiel nicht, wie die Gestaltung konkret funktioniert. Hier fehlt der Inhalt zum Rahmen. Genau den liefert Quasar Enterprise mit konkreten Bausteinen für ein methodisches Vorgehen – nachvollziehbare Schrittfolgen, Regeln, Heuristiken, Muster und Referenzarchitekturen für die Gestaltung von Anwendungslandschaften.
47|
Software
wendungslandschaft eines Unternehmens identifiziert. Input dieses Verfahrens sind Geschäftsobjekte, Geschäftsfunktionen und eine strategische Bewertung relevanter Geschäftsdimensionen, Output ist die Domänenstruktur. Am Beispiel eines fiktiven Touristikunternehmens sieht das so aus: Neben den genannten üblichen Geschäftsobjekten und -funktionen gibt es Schwerpunkte in der Strategie, hier zum Beispiel unterschiedliche Verkaufskanäle, etwa über das Internet, sowie das Angebot von Pauschal- und Individualreisen. Diese Schwerpunkte beeinflussen vor allem die Geschäftsfunktionen Produktgestaltung und Verkauf. Daraus lässt sich über das Verfahren der folgende Flächennutzungsplan ableiten:
Christoph Kolumbus Reisen AG (CKR) Kundenzugang
Reisebüro (RBÜ)
Kerngeschäft
Planung (PLA)
Ressourceneinkauf (REK)
Ressourcen
Lieferantenmanagement (LIM)
Leistungsmanagement (LEM)
Unterstützung
Quasar Enterprise greift hier vor allem den Ansatz der serviceorientierten Architektur (SOA) auf. Die meisten Protagonisten sehen SOA heute nicht mehr als Technik, insbesondere Webservices. Vielmehr ist SOA ein Gestaltungsprinzip der IT auf Unternehmensebene, deren wichtigster Mehrwert die Ausrichtung der Anwendungslandschaft auf das Geschäft nach fachlichen Anforderungen ist. Quasar Enterprise sagt jetzt konkret, wie man eine Anwendungslandschaft nach SOA baut.
Domänen regeln Bebauung In der Stadtplanung regeln Flächennutzungspläne die Bebauung. Sie legen fest, wo Wohnhäuser und wo gewerbliche Gebäude stehen dürfen. Die Bebauung in Anwendungslandschaften regeln sogenannte Domänen. Sie sorgen für die fachliche Struktur einer Anwendungslandschaft und stellen sicher, dass jede Anwendung für einen ganz bestimmten Zweck nur einmal und an die richtige Stelle gebaut wird. Schaut man sich verschiedene Anwendungslandschaften an, so fallen schnell Gesetzmäßigkeiten bei den Flächennutzungsplänen auf. Unternehmen unterschiedlicher Branchen sind sich auf einer abstrakten Ebene sehr ähnlich, was ihre Hauptgeschäftsobjekte (Lieferant, Ressource, Produkt, Auftrag, Kunde) und ihre Hauptgeschäftsfunktionen (Planung, Einkauf, Produktgestaltung, Verkauf, Abwicklung) betrifft. Allerdings haben sie aufgrund ihrer Geschäftsstrategie sehr unterschiedliche Schwerpunkte. Quasar Enterprise berücksichtigt dies und liefert ein Verfahren, das die ideale Domänenstruktur für die künftige Entwicklung einer An-
|48
ERP
Internet (INT)
Callcenter (CCE)
Produktgestaltung Individualreisen (PGI)
Verkauf Individualreisen (VKI)
Produktgestaltung Pauschalreisen (PGP)
Verkauf Pauschalreisen (VKP)
Angebotsmanagement (ANM)
Reiseauftragsmanagement (RAM)
Abwicklung (ABW)
Kundenmanagement (KUM)
Reporting (REP)
Im Städtebau ist es sinnvoll, unterschiedliche Kategorien von Gebäuden zu unterscheiden, zum Beispiel Wohnhäuser, Verwaltungsgebäude, Lagerhallen oder Freizeiteinrichtungen. In einer Anwendungslandschaft sollten Anwendungssysteme zur Verwaltung großer Bestände (z.B. Kunden- oder Produktdaten) von solchen getrennt werden, die komplexe Fachfunktionen anbieten (z.B. Preisermittlung oder Abrechnung). Diese wiederum sollten isoliert werden von Anwendungssystemen zur Steuerung übergreifender Prozesse (z.B. Auftragsmanagement) sowie von solchen zur menschlichen Interaktion (z.B. Kundenportal).
Die ideale IT-Stadt Quasar Enterprise nutzt diese Erkenntnis in einer Referenzarchitektur, die Kategorien ausweist (Bestands-, Funktions-, Prozessund Interaktionskomponenten) und Regeln für deren Abhängigkeiten festlegt. Das Ergebnis ist – wie im Städtebau – ein Plan zur Bebauung der Domänen.
Software
CKR RBÜ
INT
<<AL>>
xxx xxxxxxx x xxx xx xx xxxxx xxxxxx xx xxxx xxx xx xx cxxx xcxxxxx xxxxx
xxx xxxxxxx x xxx xx xx xxxxx xxxxxx xx xxxx xxx xx xx cxxx xcxxxxx xxxxx
RBBU
<<AL>>
PGI
<<AL>>
Saison-Planung
FlugEinkaufsprozess
SPLA
INBU
VKI
CCBU
Individualbuchungsprozess
IPRB
PGP
HEPR
LEM
<<AL>>
VKP
PauschalPreisberechnung
ANM
<<AL>>
Lieferantenmanagement
LIMA
RAM
<<AL>>
<<AL>>
Flug-Lagermanagement
FLMA
AUMA
Angebotsmanagement
HLMA
<<AL >>
<<AL>>
Auftragsmanagement
<<AL>>
Hotel-Lagermanagement
...
KUM <<AL>>
PPRÜ
LAPR
REPR
PBPR
Plausibilitätsprüfung
<<AL>>
Regulierungsprozess
<<AL>> Pauschalbuchungsprozess
<<AL>>
Lager-Prozess
<<AL>>
IBPR
PPRB
LIM
ABW
<<AL>>
IndividualPreisberechnung
HotelEinkaufsprozess
FEPR
xxx xxxxxxx x xxx xx xx xxxxx xxxxxx xx xxxx xxx xx xx cxxx xcxxxxx xxxxx
<<AL>>
<<AL>>
<<AL>> Call-CenterBuchung
Internetbuchung
REK
Kerngeschäft
PLA
CCE
<<AL>>
Reisebürobuchung
Kundenmanagement
KUMA
xxx xxxxxxx x xxx xx xx xxxxx xxxxxx xx xxxx xxx xx xx cxxx xcxxxxx xxxxx
<<AL >>
ANMA <<AL >>
ERP
<<AL>>
<<AL>>
REP
SAP FI/CO
SAP BW
SAPF
<<AL >>
SAPB
Im Beispiel des fiktiven Touristikunternehmens liefert die Methode den folgenden Bebauungsplan mit idealen Anwendungssystemen, der die Entwicklung der Anwendungslandschaft steuert.
In Quasar Enterprise erfolgt diese Auswahl der Infrastruktur mittels Referenzarchitekturen. Diese kennzeichnen technische Dienste
Offline-Dienste
Online-Dienste Sicherheit
Workflow Postkorb
Monitoring Ausfallsicherheit Lastverteilung Fehlerbehandlung
Identifizierung & Authentifizierung Zugriffsschutz
Transformation Fachliche Transformation Technische Transformation (Adapter)
Repository Dialogeinsprung
Prozesssteuerung Business Transaktionen Activity & Rollback Monitoring Process Engine
Ereignisverwaltung
Entwicklung
OrganisationsRepository Prozessmodellierung ProzessRepository
Transformationsmodellierung
Service Repository
Adapterentwicklung Konfigurationsmanagement
Kommunikation Protokollierung
Lieferung
Anwendungslandschaftskomponenten
Prozesskomponenten
Funktionskomponenten
Bestandskomponenten
für die Integration und dienen somit der Normierung. Im Beispiel unseres fiktiven Touristikunternehmens ist eine Integration der einzelnen Anwendungssysteme auf Ebene der Fachlogik nötig. Dabei müssen Services über eine passende Infrastruktur in Form eines Enterprise Service Bus (ESB) verwendet werden. Die Anforderungen in diesem Bereich werden als Anforderungen an technische Dienste der Referenzarchitektur wie Kommunikation, Transformation, Prozesssteuerung, Repository oder Workflow heruntergebrochen. Ausgehend von den Referenzarchitekturen ordnen sogenannte Produktlandkarten einzelne Integrationsprodukte mit einer Bewertung ihrer spezifischen technischen Dienste ein. So lassen sich Alternativen in der Umsetzung objektiv vergleichen.
Auf der technischen Seite liefert Quasar Enterprise Bausteine zur systematischen Auswahl der zentralen technischen Infrastruktur, die die Anwendungssysteme miteinander verbindet und die Versorgung mit der nötigen Information sicherstellt. Solche zentralen Infrastrukturen gibt es auch in Städten, etwa für Strom oder Telefon.
Laufzeit Management
Interaktionskomponenten
Dynamische & statische Adressierung
Das waren drei Beispiele, wie Quasar Enterprise den Bau von Anwendungslandschaften unterstützt. So wie Städte niemals fertig sind, bleibt auch die nachhaltige Gestaltung von Anwendungslandschaften eine große Herausforderung, die auch in Zukunft die Erfahrung der Architekten und Ingenieure benötigt. Mehr Informationen zu Quasar Enterprise finden Sie in unserem gleichnamigen Buch, das Anfang 2008 erscheinen wird. Kontakt: markus.voss@sdm.de
49|
Transfer
Bauverordnungen und -gesetze wiegen im wahren Leben schwer. Wer seine architektonischen Träume heute ausleben will, der baut lieber in der digitalen Welt von „Second Life“. Doch auch in der virtuellen Realität ist die Freiheit nicht grenzenlos. Bauherren müssen mit Einschränkungen und ersten Vorschriften leben.
Second Life als Erlebniswelt ist in aller Munde. Nicht nur die Marketiers, auch kreative Architekten haben das leicht anarchistische Leben aus der Digitalkonserve mittlerweile für sich entdeckt. Mit gutem Grund: „Regelungen für die Konstruktion von Gebäuden gibt es bei Second Life nicht.“ Was Terry Beaubois, Professor für Architektur am College of Arts and Architecture der Montana State University, zunächst scheinbar felsenfest feststellt, relativiert sich auf Nachfrage beim ausgewiesenen Experten für Architektur in der virtuellen Welt allerdings ein wenig. Es gibt auf jeden Fall Spezialitäten in der virtuellen Boom-Welt, die Bauherren beachten müssen: „Wegen der leicht erhöhten Kameraposition hinter dem Kopf, mit der ein Avatar bei Second Life gezeigt wird, müssen Räume zum Beispiel höher sein als im wahren Leben. Sonst kann es passieren, dass meine Figur sich im ersten Stock eines Gebäudes befindet, der Bildschirm allerdings die zweite Etage zeigt.“ Beaubois spricht aus Erfahrung: Seit 2005 veranstaltet er Seminare für den Architektennachwuchs zu 50 Prozent im virtuellen Freizeitpark der Firma Linden Lab. Die digitale Landschaft ermöglicht es ihm, einen Teil seiner beruflichen Zeit in Kalifornien zu verbringen, ohne dass seine Studenten in Montana darunter leiden. Der Reichtum an dreidimensionalen Details ist allerdings nicht unerschöpflich: Auf einem Standardgrundstück, dem sogenannten Sim, das einer realen Fläche von etwa 65.000 Quadratmetern entspricht, können lediglich etwa 15.000 Prims verbaut werden. Prims sind geometrische Objekteinheiten, aus denen jeder Gegenstand in Second Life besteht und denen mit der Linden Scripting Language (LSL), die sich an objektorientierte Programmiersprachen wie C++ und Java anlehnt, bestimmte Eigenschaften zugeordnet werden können.
Kleine Einschränkungen gibt es also, doch die Freiheiten sind trotzdem grenzenlos, vor allem, wenn sich Baumeister primär auf die Ästhetik ihrer Gebäude einschießen wollen. „In Second Life braucht man schließlich nicht auf elektrische Leitungen oder andere Infrastruktur zu achten. Auch Treppen oder Wege sind sekundär, da die Avatare fliegen können“, meint Beaubois. So können sich die Akteure vor allem auf die Hülle, den ikonenhaften Ansatz der Architektur, einlassen. Ein Grund, der den Münchner Architekten und Künstler Stephan Doesinger dazu bewogen hat, den ersten internationalen Architektur-Preis für Second Life zu initiieren: „Der virtuelle Raum wird aus meiner Sicht zur primären Präsentationsfläche für Architekturentwürfe werden. Was die Realität von morgen sein wird, ist die Virtualität von heute“, meint Doesinger. „Früher haben Computerspiele die Realität kopiert, in Zukunft wird die Realität mehr und mehr die Inhalte von digitalen Welten adaptieren.“ Das wird in der Architektur vieles auf den Kopf stellen, davon ist Doesinger überzeugt. Die schöne neue Welt der Architektur wird allerdings nur dann in Second Life stattfinden, wenn sich das erste Leben zurückhält. Schon machen sich erste Regeln breit, wie Terry Beaubois berichtet: „Manche Landbesitzer beginnen schon, Verordnungen aufzustellen. Wer eine Parzelle oder Baurecht von ihnen erwirbt, der darf zum Beispiel nur zwei Stockwerke hoch bauen.“ Und auch Stephan Doesinger beobachtet Vertrautes: „Viele Leute bauen einfach ihr langweiliges Vororthaus nach, die Psychologie dahinter würde mich wirklich interessieren.“ Die Entwicklung bleibt spannend. Ob am Ende der Gestaltungswille der Architekten siegt? Kontakt: redaktionmit@sdm.de
51|
Welt-
wunder der
IT
Die Weltwunder der Antike sind bekannt, doch 2007 sorgte die Wahl der sieben neuen Weltwunder für viele Diskussionen. Ein guter Anlass, um über die Weltwunder der IT nachzudenken.
3 1 2
1. Internet – die Welt unter unseren Fingerspitzen In der Politik ist es eine Utopie, in der Informatik Realität: Das Internet ist ein weltumspannendes, Menschen verbindendes Netzwerk. Wir nutzen es, um miteinander zu kommunizieren und uns zu informieren; Unternehmen entwickeln neue Geschäftsideen und optimieren ihre Prozesse; neue Berufe, Hobbys und Kontakte entstehen – und das Internet entwickelt sich immer weiter. 2. Digitale Kommunikation – überall, sofort und fast umsonst Information schnell und sicher weiterleiten zu können, ist oft von entscheidender Bedeutung für Erfolg oder Misserfolg. Entsprechend vielfältig sind die Mittel, die die Menschheit im Verlauf ihrer Geschichte dafür eingesetzt hat: Boten, Postkutschen, Rauchzeichen, Semaphore, Morselampen und vieles mehr. Durch die Digitalisierung der Kommunikationstechnik sind wir es heute gewohnt, zu jedem Zeitpunkt erreichbar zu sein und selbst Nachrichten senden zu können – ob per E-Mail oder Handy und unabhängig von unserem Aufenthaltsort. Und alles zu einem Bruchteil der Kosten, die früher für Post und Telefon angefallen sind.
|52
3. Der PC – unser ständiger Begleiter Computer existierten zunächst nur in Rechenzentren: Abgeschlossene Räume mit Klimaanlagen, Sicherheitsvorkehrungen und Spezialisten, die sich in dieser eigenen Welt auskannten. Der Personal Computer (PC) veränderte dies dramatisch: Er eroberte unsere Büros, unsere Wohnzimmer, unsere Autos und nach und nach alle Lebensbereiche. Mittlerweile sind die elektronischen Helfer unsere ständigen Begleiter, egal wo wir uns aufhalten und was wir tun. 4. Das Moore'sche Gesetz – schneller, kleiner, weiter Gordon Moore hat bereits 1965, nur wenige Jahre, nachdem die integrierten Schaltungen erfunden waren, das nach ihm benannte empirische Gesetz formuliert, dass sich die Leistung dieser Schaltungen alle 12 Monate verdoppeln wird. Erst durch diese exponenzielle Entwicklung wurde die Miniaturisierung der IT möglich, die neben der Leistungssteigerung die Voraussetzung ist, um immer neue Anwendungsbereiche zu erschließen. Erstaunlicherweise gilt das Moore'sche Gesetz 40 Jahre später immer noch, wobei von untergeordneter Bedeutung ist, dass heute meist von 18 Monaten als Verdoppelungszeitraum ausgegangen wird.
4
Transfer
5
6
8 9
7
?
5. Virtuelle Realität – fantastische neue Welten Second Life gilt vielen derzeit als die Krone der künstlichen Schöpfung – und anderem als Plattform für diejenigen, die in der realen Welt nicht zurechtkommen. Bereits früh hat Homo ludens, der spielende Mensch, dafür gesorgt, dass die IT auch den Bereich der Spiele revolutioniert hat: Aufwendige, detailgetreue Echtzeitsimulationen und interaktive, massiv-parallele Spiele haben buchstäblich neue Welten erschaffen. Aber auch andere Bereiche profitieren: Gebäude und Fahrzeuge können vor ihrem Bau simuliert werden, Kinofilme entstehen heute nur noch teilweise in Studios und Computertomographen ermöglichen die Reise in den menschlichen Körper. 6. Die Turingmaschine – auf das Minimum reduziert Selbst im Vergleich zu den ersten Computern erscheint die Turingmaschine denkbar primitiv: Gesteuert von einem einfachen Zustandsübergangsprogramm liest und schreibt sie das Zeichen Null oder Eins auf ein Rechenband und kann den Lese-/Schreibkopf um eine Stelle nach links oder rechts verschieben. Besonders an diesem Computermodell ist eigentlich nur die Tatsache, dass es auf einem theoretisch unendlich langen Band operiert. Trotzdem hat die Informatik bewiesen, dass die Turingmaschine alle Probleme lösen kann, die auch unsere Computer berechnen können. Die Turingmaschine zeigt auf beeindruckende Weise, wie komplexe Dinge reduziert werden können, ohne an Mächtigkeit zu verlieren. 7. Google und Wikipedia – die Summe des Wissens Alexandria hatte die letzte weltweite Bibliothek, Leibniz gilt als der letzte Universalgelehrte. Danach schien es unmöglich geworden zu sein, das Wissen der Menschheit noch vollständig zu speichern und zu überblicken. Doch Wikipedia als universelles Lexikon und Google als weltweite Suchmaschine haben diese Utopie wieder möglich gemacht.
8. Das Halteproblem – die Grenzen der Berechenbarkeit Angesichts der unaufhörlichen Steigerung der Rechenleistung erscheint es nur logisch, dass irgendwann auch die schwierigsten Problemstellungen mit dem Computer gelöst werden können. Die Informatik hat jedoch bewiesen, dass für die vermeintlich einfache Frage, ob ein beliebiges Programm terminiert, keine allgemeine Lösung existiert. Diese als Halteproblem bekannte Tatsache hat zwar für praktisch relevante Aufgabenstellungen zumeist keine Bedeutung, zeigt jedoch die Grenzen der Berechenbarkeit in verblüffender Klarheit auf. 9. Software-Integration – Komplexität zerlegen und beherrschen Komplexe Softwaresysteme bestehen heute aus Millionen Zeilen Programmcode – die Software von Betriebssystem, Datenbanksystem, Middleware, Application Server, GUI-Bibliothek, Workflowmanagementsystem, Reportgeneratoren, Systemmonitoring und Gerätetreibern ist dabei nicht mitgerechnet. Softwaresysteme erfordern die Integration vieler unterschiedlicher Komponenten und wir erwarten selbstverständlich, dass dies auch funktioniert. Erst die systematische Zerlegung des Gesamtsystems in überschaubare Teile mit definierten Schnittstellen erlaubt die Beherrschung dieser Komplexität – auch wenn stets umfangreiche Tests benötigt werden, damit es auch wirklich klappt. 10. Hier fehlt noch etwas Unsere Redaktion konnte sich nicht auf ein 10. Weltwunder einigen. Jetzt sind Sie gefragt. Schreiben Sie uns an redaktionmit@sdm.de und schlagen Sie das 10. Weltwunder der IT vor. Wir werden in der nächsten Ausgabe über Ihre Ideen berichten und freuen uns auf den gegenseitigen Austausch. Kontakt: ruediger.azone@sdm.de arnim.buch@sdm.de
Die Wahl der sieben neuen Weltwunder Als neue Weltwunder wurden 2007 gekürt:
I I I I I I I
Machu Picchu (Peru) Chinesische Mauer (China) Felsenstadt Petra (Jordanien) Chichén Itzá (Mexiko) Christusstatue (Brasilien) Colosseum (Italien) Taj Mahal (Indien)
53|
Claus Mattheck optimiert Bauteile nach dem Vorbild der Natur – mit verblüffenden Erfolgen: Seine Methode hilft Ingenieuren und Handwerkern, Konstruktionen leichter und stabiler zu machen. Der Physiker mit den revolutionären Ideen und dem skurrilen Outfit genießt mittlerweile Kultstatus.
Claus Mattheck liebt Bäume – ihre Kurven, ihre raue Schale und ihre Launen. Natürlich ist die Liebe rein platonisch, wissenschaftlich, um genau zu sein. Denn Mattheck liest aus dem Wuchs der hölzernen Kameraden heraus, ob sie krank oder gesund sind. Mehr noch: In ihrer filigranen und dennoch stabilen Struktur entdeckte
|54
der Physik-Professor ein Prinzip, das sich mittlerweile geradezu als Naturgesetz entpuppt hat. Dieses hat der Abteilungsleiter für Biomechanik am Forschungszentrum Karlsruhe mittlerweile auf Kurbelwellen, Schrauben, Hüftprothesen oder Implantate übertragen, damit fiese Kräfte, die in scharfen Kerben zu Rissen und Brüchen führen, abgemildert werden – ganz so wie es Bäume machen, die an neuralgischen Punkten Holz ansetzen, um die sogenannte Kerbspannung zu senken und die Last gleichmäßig zu verteilen.
Transfer
geben, vor allem wenn der 1,90-Meter-Hüne bei seinem Auftritt selbst in die Rolle von Igel Stupsi oder Bär Pauli schlüpft, um an herumstehendem Mobiliar die Wirkung seiner Bärenkräfte zu demonstrieren. Mattheck gibt aber nicht nur, noch viel lieber nimmt er – vor allem, wenn er „Faulpelze“ entdeckt. Die findet er in vielen technischen Konstruktionen, nicht jedoch in der Natur. Gemeint ist überflüssiges Material, meist in Ecken, das keine Kräfte aufnimmt. Auch diese Ecken lassen sich mit der Methode der Zugdreiecke ausmerzen – das Bauteil wird leichter, ohne dass die Stabilität leidet. Ohne dieses Prinzip wären unsere Knochen so schwer, dass wir uns nur schleppend fortbewegen könnten. „Einer trage des anderen Last“, zitiert Mattheck und macht klar, dass das biblische Prinzip der gleich verteilten Belastung nicht nur in der Natur gelten sollte, sondern auch in seinem Team und überall dort, wo Menschen zusammenarbeiten. Auch Ingenieure nutzen so eine Strategie. Sie verdicken bruchgefährdete Kerben – leider häufig ohne Erfolg, wie Mattheck immer wieder feststellen muss, wenn er als Sachverständiger nach einem Unfall vor Gericht geladen wird. Mehr Material heißt nicht unbedingt mehr Sicherheit. Nicht die Menge Holz ist laut Mattheck entscheidend, sondern die Form – und die ist bei Bäumen so simpel, dass einem die Lösung fast ins Auge springt, wenn der 60-Jährige den Stamm eines Baumes in sein Notizbuch zeichnet. Verblüffend einfach ist auch Matthecks Methode, diese Idealform der Natur für technische Konstruktionen anzuwenden. In den Neunzigerjahren hatte der gebürtige Dresdner dafür ein Computerprogramm entwickelt. Doch das war ihm zu kompliziert. „Ich will die brutale Vereinfachung“, sagt Mattheck und beginnt erneut zu zeichnen. In Sekunden entstehen auf dem Papier in einer Kerbe drei sogenannte Zugdreiecke, ohne Formeln, allein mit dem Geodreieck. Selbst der Laie sieht: Der Baum (oder der Laternenmast oder der Schraubenschaft) kann nun kaum noch abknicken, weil die angreifende Kraft durch das zusätzliche Material unter den Zugdreiecken ins Fundament geleitet wird.
„Ich suche Heidelbeeren in der Wüste.“ Prof. Dr. Claus Mattheck
Popstar unter den Physikern Die Methode kann vom Ingenieur bis zum Tischler jeder anwenden, deshalb lässt Mattheck sie auch nicht patentrechtlich schützen, sondern erklärt sie in mitreißendem sächsisch kostenlos auf zahlreichen Vorträgen bei Unternehmen – was bei Kollegen immer wieder für Staunen sorgt, für Mattheck aber fast so natürlich ist wie die Form seiner Bäume: „Ich bekomme mein Gehalt vom Steuerzahler, also gebe ich der Gesellschaft wieder etwas zurück.“ Zum Beispiel in Büchern wie „Stupsi erklärt den Baum“ oder „Warum alles kaputt geht“ mit Zeichnungen vom Meister persönlich, die sogar Kinder verstehen. Und Studenten. Bei Matthecks Vorlesungen platzt der Hörsaal regelmäßig aus allen Nähten, sogar Autogrammstunden muss der Physik-Popstar manchmal
55|
Transfer
Bis vor kurzem dachte Mattheck, dass die Kontur, die sich bei der Konstruktion der Zugdreiecke ergibt, eine Überlebensstrategie der Natur sei. Doch sie ist mehr: Sie ist möglicherweise eine Urform, nach der sich auch Teile der unbelebten Natur – wie von einer höheren Gewalt geleitet orientieren. Allerdings sind die Grenzen des Gültigkeitsbereiches noch nicht abgesteckt. Auf die Idee kam Mattheck, als er Fotos von erodierten Eisbergen und Erdpyramiden ansah. Was Wind und Wasser übriglassen, ähnelt verblüffend der Mattheck’schen Universalkontur. Aber warum? Einer Eisscholle oder einer Bergkuppe ist es schließlich egal, ob sie bricht oder nicht, sie muss ihre Form nicht aktiv der Umgebung anpassen, dennoch bleibt bei Erosion unter bestimmten Bedingungen genau die optimale Form übrig, in die auch ein Baum wachsen würde. Mattheck gerät ins Schwärmen: Wenn es gelänge, dieses Prinzip auf Fertigungstechnologien zu übertragen, „das wäre eine Revolution“. Man müsste die Form von Bauteilen nicht mehr am Computer entwerfen, sondern einfach einen Materialklotz einer bestimmten Belastung aussetzen und den Prototyp durch Erosion, zum Beispiel mit einem Sandstrahl, herausschälen lassen.
Unkaputtbare Technik Recht eng ist die Analogie zwischen Mechanik und Software beim Safe-Fail-Design, das der Professor gerade austüftelt. Ziel ist eine Bibliothek aus Warnern und Stoppern, die sich mit möglichst vielen Bauteilen kombinieren lassen, nicht als Ersatz, sondern als Ergänzung, als zusätzliche Sicherheitsbarriere zur Zugdreiecksmethode bei Material- oder Fertigungsfehlern. Warner zeigen Materialermüdungen an, bevor das Bauteil versagt, indem sie schon vorher abreißen und vielleicht durch eine rote Farbmarkierung auf das drohende Unheil hinweisen. Vorbild ist ein Korbstuhl, der anfängt zu wackeln, wenn eine Faser des Geflechts reißt, der aber dennoch nicht zusammenbricht. Stopper dagegen sind Anbauten, die gezielt die Ausbreitung von Rissen im Material aufhalten und den Weiterbetrieb unter Extremsituationen erlauben, um das Schlimmste abzuwenden. Das Flugzeug landet noch, der Mähdrescher bringt die Ernte noch ein, der Computer sichert vielleicht noch alle Daten, ehe er abstürzt.
Prof. Dr. Claus Mattheck
I Seine Herkunft: geboren 1947 in Dresden I Seine Ausbildung: Theoretischer Physiker I Sein Beruf: Abteilungsleiter für Biomechanik am Institut für
I I I I I
Materialforschung II des Forschungszentrums Karlsruhe, Sachverständiger für Bruchverhalten von Bäumen und mechanischen Bauteilen Seine Berufung: Der Natur in die Karten schauen und die Prinzipien jedem (auch Kindern) verständlich machen Seine Preise: Literaturpreis der Karl-Theodor-Vogel-Stiftung für Technikpublizisten, Deutscher Umweltpreis 2003 (und zahlreiche weitere) Seine Bücher: Stupsi erklärt den Baum, Warum alles kaputt geht, Verborgene Gestaltgesetze der Natur Sein Markenzeichen: Ziegenlederanzug, Schaftstiefel, Sonnenbrille, selbstgeschnittene Haare Seine Hobbys: Großkalibergewehrschießen, StaffordshireBullterrier, Schreiben und Zeichnen von Cartoons für Kinder über Mechanik
www.mattheck.de
Bleibt eigentlich nur noch eine Frage: Wie kommt man auf all das? „Ich suche Heidelbeeren in der Wüste.“ Soll heißen: Mattheck verlässt gerne ausgetretene Pfade, denn Homogenisierung sei der Killer jeder Kreativität – eine Lektion, die der Republikflüchtling in zwei Jahren Stasihaft gelernt hat. Noch heute passt Mattheck in kein Schema und kleidet sich hartnäckig in Ziegenleder (wegen der klimatisierenden Wirkung), braune Schaftstiefel (gegen Zecken) und trägt eine John-Lennon-Sonnenbrille (gegen das Streulicht beim Schießen mit Großkalibergewehren). In dieser Kluft nahm Mattheck auch den Umweltpreis vom früheren Bundespräsidenten Johannes Rau entgegen. Der hatte Verständnis für das skurrile Outfit. Mattheck: „Ich optimiere halt nicht nur Bauteile, sondern auch meine Klamotten.“ Kontakt: redaktionmit@sdm.de
|56
Transfer
Erinnern Sie sich noch? Armageddon in Sicht Gut acht Jahre ist es her, da stand der IT-Supergau kurz bevor. Das Jahr 2000 nahte – und die Programme dieser Welt waren nicht vorbereitet. Die Worst-Case-Szenaristen malten ein dunkles Bild: Raketen machen sich selbstständig, Sicherungssperren an Staudämmen öffnen sich, der gesamte Zahlungsverkehr bricht zusammen. Year 2 Kilo, Y2K, so das Kürzel des Übels, drohte die zuständigen Programme auszuhebeln, das blanke Chaos drohte auszubrechen. Während sich der Rest der Welt überlegte, wie er das neue Millennium begrüßt, formierten sich in der IT die Truppen, die das Schlimmste verhindern sollten. Taskforces wurden ins Leben berufen, Jahr-2000-Verantwortliche ernannt und Pläne geschmiedet. Armageddon schien nicht fern. Selbst die Urgroßväter von Cobol wurden für einen Last-Level-Support reaktiviert, Assemblercracks und Makrofetischisten feierten ihre Comebacks. Was war die Ursache des Problems? Zumindest keine, die mit der Zahl 2000 zusammenhängt. Auch der Übergang ins Jahr 1900 hätte die Routinen aus der Spur gebracht. Der Berechnung von Rentenfälligkeiten und Verjährungsfristen liegt nämlich die schlichte Logik zugrunde, dass sich Zeit nur in eine Richtung bewegt. Datumswerte, die diesen Zeitfluss abbilden, haben für heute einen kleineren Wert als für morgen. Dieser Logik folgen die Programme. Sie versagt aber, wenn man, um Speicherplatz zu sparen, das Jahr verkürzt und nur zweistellig darstellt, wenn Programmierer das Jahr 2007 als 07 festhalten. Dann scheint 99 größer als 00, obwohl 2000 nach dem Jahr 1999 kommt. Da halfen auch die Kommentare in Klammern nicht weiter: „Achtung im Jahr 2000 läuft diese Routine falsch“. Viele Programmierer lächelten darüber und sagten: „Bis dahin bin ich pensioniert oder das Programm ist ersetzt.“ Zu kurz gedacht. Denn selbst wenn sie Programme austauschten, in den Bestandsdaten blieb das zweistellige Datum. Außerdem entwickeln Programme
einen zähen Überlebenswillen. Man mag sie durch neue ersetzen: An irgendeiner Ecke bleibt ein Schnörkel, der nicht abgelöst wird, der wächst und schließlich ein Eigenleben entwickelt. Was also tun? Die Lösungen für das Y2K-Problem lagen auf der Hand: ITAbteilungen zogen geplante Erneuerungen vor, lagerten Programmteile aus, um die Misere zumindest finanziell weiterzureichen, oder sie untersuchten Bestände auf verräterische Befehlsketten, Kommentare und Datenbeschreibungen. Und? Was ist am Tag X passiert? Nichts, gar nichts. Zumindest nicht das, was die Apologeten des Untergangs befürchteten. Ein paar Videorekorder spielten verrückt, Arzneien, die anstatt des Datums 2001 1901 trugen, wurden vernichtet. Mehr aber kaum. War das Ganze am Ende nur Geldmacherei der Beratungs-Unternehmen? In jedem Fall haben die Medien das Problem ins öffentliche Bewusstsein getragen – wenn auch in übersteigerter Form. Raketen wären nicht selbsttätig gestartet und Schleusen hätten sich nicht geöffnet. Richtig ist aber auch, dass in einem riesigen, unternehmensübergreifenden Projekt in fast allen Systemen hunderte von Fehlern gefunden wurden. Diese hätten beim Übergang ins neue Jahrtausend zu mehr Programmabstürzen geführt als die Handvoll von Komplikationen, die tatsächlich auftraten. Es war eine Herkules-Aufgabe. Programm für Programm meldeten die Verantwortlichen Y2K-proof. Vermutlich war es das erste weltumspannende IT-Projekt. Und, was es von vielen unterscheidet: Es war zum geplanten Termin fertig. Kontakt: redaktionmit@sdm.de
57|
Impressum
Impressum
m&it Menschen und Informationstechnik
Ausgabe
6/2007
Herausgeber und ViSdP
sd&m AG Edmund Küpper Vorstandsvorsitzender Carl-Wery-Str. 42 81739 München
Chefredaktion
sd&m AG, München Rüdiger Azone, Dr. Uwe Dumslaff, Dr. Martin Eldracher, Götz Grabowski
Art Direction, Gestaltung Horst Metzner GmbH, München und Produktion Horst Metzner, Thomas Scheuplein Druck
Alpha-Teamdruck GmbH, München
Bildquellen
BMW AG, Corbis GmbH, Daimler AG, www.erco.com, Flughafen München, Forschungszentrum Karlsruhe, Getty Images GmbH, Wilfried Hösl (Bayerische Staatsoper), Horst Metzner GmbH, O2, Tobias Pregler, Ricola AG, Prof. Jörg Schöner, sd&m AG, Volkswagen AG: Archiv der Gläsernen Manufaktur, Johanna Wetzel
Copyright
© sd&m AG 2007 Bei Abdruck ist die Einwilligung der Redaktion erforderlich. Informationen zu sd&m finden Sie auch im Internet unter www.sdm.de
Storymaker GmbH, Tübingen Marc Voland Autoren
Rüdiger Azone, Arnim Buch, Dr. Martin Eldracher, Björn Eichstädt, Ulf J. Froitzheim, Andreas Gollwitzer, Dr. Volker Jung, Friedemann Ludwig, Bernd Müller, Oliver F. Nandico, Arndt Pählig, Marc Voland, Dr. Markus Voß, Johanna Wetzel, Ursula Zeppenfeld
Fachliche Beratung bei sd&m
Arnim Buch, Dr. Volker Jung, Oliver F. Nandico
Projektleitung und Schlussredaktion
Johanna Wetzel
Lektorat
Julian von Heyl
Auszeichnungen für die m&it:
|58
Engagement
Talente fördern
Kultur und gesellschaftliches Engagement gehören zum Unternehmensbild von sd&m. Deshalb fördern wir Akademisten des bayerischen Staatsorchesters und unterstützen die Ausbildung der 25-jährigen Musiker Anaïk Morel, Mezzosopran, Claudia Sautter, Klarinette, und Rolf Gelbharth, Violine. Sautter und Gelbharth studierten an der Musikhochschule Detmold und sammelten Erfahrungen in verschiedenen Orchestern. Die Französin Morel studierte in Lyon Gesang und ist seit 2001 Solosängerin an der Opéra de Besançon. Die Sopranistin nimmt an der Ausbildung im Opernstudio der Bayerischen Staatsoper teil, die beiden Instrumentalisten sind Akademisten des Bayerischen Staatsorchesters. Eine Kostprobe ihres Könnens werden sie auf der sd&m-Konferenz am 8. November 2007 in Berlin geben.