Update 16 SS 13 Forschung + Wirtschaft
Inhalt Editorial 3 Lehre und Studium
Das finanzielle Interesse „der VR China“ im Ausland und sein Träger Dr. Jörg-M. Rudolph
Die SWOT-Analyse – Ein populäres Instrument genauer betrachtet Prof. Dr. Volrad Wollny 13
Unternehmensplanspiele in der Hochschullehre _ Prof. Dr. Britta Rathje 21
Destinationsmanagement als komplexe Aufgabe in der Touristik Prof. Dr. Knut Scherhag
26
Wo bleibt die Zeit unserer Studierenden? _ Prof. Dr. Hans-Dieter Hippmann
32
Kommunikation richtig steuern – Erfolge und Erfahrungen mit einem wissenschaftsbasierten Controlling-System für Unternehmenskommunikation Prof. Dr. Lothar Rolke, Alexander Zell
42
Wie dumm dürfen Menschen wirklich sein? Das blaue Trompetentierchen und die Ökonomen: Die Kritik am Menschenbild der Ökonomen beruht auf einem falschen Verständnis von Wissenschaft_ Prof. Dr. Hanno Beck
50
Crowdsourcing-Kampagnen _ Prof. Dr. Heinrich Holland, Patrizia Hoffmann
53
5
Unternehmenspraxis
Experiment: Innovation der Innovation _ Arno Dirlewanger
64
Alternative Investments – Bescheidene Gewinner der Finanzkrise Thomas Werner
69
Die Macht der Medien – Zwischen gesellschaftlichem Funktionszweck und medialen Eigengesetzlichkeiten _ Dr. Klaus Hofmann 81
Traineeprogramme als Personalentwicklungsinstrument für Nachwuchskräfte – ein Überblick über ausgewählte Ansätze in Theorie und Praxis Tobias Koeder, Achim Saulheimer 86
Fähige Mitarbeiter brauchen fähige Vorgesetzte _ Dr. Markus Hilleke 98
Religiöse Einflüsse auf die praktische Marketingarbeit: Fallbeispiel Indien Werner Heesen 103
Sieben Erfolgsfaktoren für gutes Management-Reporting _ Joerg Schwebel 107
Beiratsgremien im Mittelstand: Zusammensetzung des Beirats und Anzahl der Mitglieder _ Dr. Christoph Achenbach, Dr. Frederik Gottschalck 113
Wirtschaftsmediation: Konflikte lösen und gleichzeitig Kosten senken Nicole Musäus-Rausch
117
Unternehmensprofile
Verlagsgruppe Rhein Main – Den Menschen in der Region verpflichtet Hans Georg Schnücker
122
mpm Corporate Communication Solutions – Spezialagentur für crossmediale Konzepte und Publishing-Tools _ Frank Bockius
126
Impressum
EDItoRIal Klug fragen können ist die halbe Weisheit. (FRANCIS BACON)
Prof. Dr. Andrea Beyer lehrt die Fächer Medienökonomie, Wirtschaftsjournalismus, Kommunikationsmanagement und Betriebswirtschaft an der Fachhochschule Mainz. E-Mail: a.beyer@wiwi.fh-mainz.de
Das Konzept der Semesterzeitschrift „Update“ basiert auf mehreren Grundsätzen: Die Themenpalette soll breit gefächert sein, um dem Spektrum der Fragestellungen aus der Betriebs- und Volkswirtschaftslehre zu folgen. Die Beiträge im vorliegenden Heft erfüllen diesen Anspruch. Aus den klassischen Bereichen des Personal- und Marketingmanagements, der Strategieplanung und der Unternehmensorganisation werden ebenso Fragen aufgegriffen wie aus der Kommunikations-, Medien- und Finanzwirtschaft. Ergänzt werden diese Analysen durch einen Artikel zur Lehrmethodik und eine Untersuchung zum Zeitbudget von Studierenden. Die Themenpalette soll grundsätzliche und aktuelle Analysen aufweisen. Einerseits sind Fragen aus der Realität aufzuarbeiten, andererseits ist aber auch die Methoden- und Forschungskompetenz weiter zu entwickeln. Der Beitrag zu chinesischen Staatsunternehmen bspw. zeigt, wie spannend, brisant und interessant die aktuelle Entwicklung sein kann. Die im Februar bekannt gegebene Beteiligung des Daimler Konzerns an der Beijing Automotive Group (BAIC) verstärkt die Auseinandersetzung mit dieser Thematik. Das Dauerthema Finanzkrise in unserer direkten Umwelt darf in puncto Aktualität natürlich auch nicht fehlen; es ist mit einer Analyse zu alternativen Investments vertreten. Demgegenüber ist der grundsätzliche und kritische Artikel zum Homo Oeconomicus ebenso wich-
update 16 | ss 2013 | editorial
tig wie etwa der Beitrag zur SWOT-Analyse, einem wichtigen Handwerkszeug für angehende Ökonomen, oder die Darstellung eines wissenschaftsbasierten Controllingsystems für die Unternehmenskommunikation. Die Themenpalette soll auch Fragen aufgreifen, die Erkenntnisse aus anderen Wissenschaftsbereichen für die Betriebs- und Volkswirtschaftslehre nutzbar machen, um differenzierter planen und entscheiden zu können. Der Artikel zu den religiösen Einflüssen auf die Marketingarbeit am Beispiel Indiens ist hierfür ein gutes Beispiel. Die gleiche Zielsetzung erfüllen die Beiträge zur Macht der Medien und zur Innovation der Innovation. Die Themenpalette soll nicht nur hausintern und nicht alleine von Wissenschaftlern bearbeitet werden. Auf diese Weise wird Praxisorientierung und Wissenschaftstransfer gefördert. Die Beiträge in der Rubrik „Unternehmenspraxis“ erfüllen bereits einen Teil dieses Grundsatzes. Die Beiträge von Kollegen aus Ludwigshafen, Worms und Pforzheim in der Rubrik „Lehre und Studium“ zeigen, dass die Zusammenarbeit der Hochschulen bestens funktioniert. Die Themenpalette soll durch die Beiträge Interesse wecken, Ansatzpunkte für weitere Analysen und neue Themenfelder aufzeigen, zur Diskussion anregen und auch Spaß beim Lesen bringen. Das wünsche ich dem Leser mit dieser neuen Ausgabe.
3
LEHRE UND STUDIUM Unternehmens praxis unternehmens Profile
4
lehre und studium | update 7 | ws 08/09
Das finanzielle Interesse „der VR China“ im Ausland und sein Träger Jörg-M. Rudolph
1. Einführung Erstmals 2011 publizierte die amerikanische Heritage Foundation unter der Leitung von Derek Scissors, Forscher im Asian Studies Center bei Heritage, ihren „China Global Investment Tracker“, eine Datensammlung, die Auslandsinvestitionen und Auslandsverträge erfasst, die ihren Ursprung in der VR China (VRCh) haben. Die Heritage-Datensammlung beginnt mit dem Jahr 2005, die letzte Aktualisierung erfolgte im Dezember 2012. Insgesamt erfasst der „Tracker“ in diesem achtjährigen Zeitraum für den Bereich Investitionen 667 Transaktionen (Investitionen), deren Wert sich bis einschließlich 2012 auf 606,6 Milliarden US-Dollar summiert, was bei einem BIP 2012 von ca. 8.300 Milliarden US-Dollar einem Anteil von etwa 7,3 % entspricht. Bei den Investitionen verzeichnet Heritage 405 Transaktionen mit einem Volumen von 386,7 Milliarden US-Dollar, bei den Verträgen (= Lieferabkommen für den Import in die VRCh, meist von Rohstoffen, oder den Export von Leistungen seitens chinesischer Unternehmen) sind 262 Transaktionen ausgewiesen, deren Volumen sich auf 219,9 Milliarden US-Dollar beläuft1. Eine chronologische Sortierung der Transaktionen beider Bereiche offenbart eine höchst dynamische Zunahme pro Jahr von 21 Projekten 2005 bis 153 in 2012. Nicht einmal die Weltfinanzkrise 2009 hat diese Beschleunigung aufgehalten, im Gegenteil sah dieses Jahr mit 29 Projekten die größte jährliche Zunahme. Ende 2012 beläuft sich die Gesamtzahl auf das Siebenfache des Jahres 2005. Ein ebenso dynamisches Wachstum wie bei der Anzahl der Transaktionen zeigt sich bei Betrachtung der jährlich investierten bzw. vertraglich vereinbarten Kapitalsummen. Hier stiegen die jährlichen Beträge von 14 Milliarden US-Dollar 2005 auf
1 Es ist zu beachten, dass die Kapitalsummen der einzelnen Transaktionen – Investitionen und Verträge – nicht sofort und insgesamt fließen, häufig streckt sich dies über Jahre. Für die hier vorgenommene Betrachtung zu den finanziellen Interessen der „VR China“ im Ausland und deren Träger ist dies jedoch nicht so relevant. Ich bin der Ansicht, dass schon die Bereitstellung, die Zusage und die vertragliche Codierung ein „Interesse“ an den Zielländern mit allen seinen Folgen konstituiert.
update 16 | ss 2013 | lehre und studium
Dr. Jörg-M. Rudolph Hochschule Ludwigshafen am Rhein, Studien gang International Business Management (East Asia), China-Dozent E-Mail: Rudolph@OAI.de
127 Milliarden 2012. Das durchschnittliche Volumen pro Transaktionen liegt bei 909 Millionen US-Dollar.
2. Geographische Verteilung und Größe der Auslandsinvestitionen Der „China Global Investment Tracker“ der Heritage Foundation enthält nicht nur die Transaktionen und Kapitalsummen, sondern benennt auch die Zielstaaten, die beteiligten Firmen (VRCh-Investor und ausländische Empfängerfirma bei Investitionen bzw. die Vertragspartner bei Verträgen), die Höhe der Beteiligung (bei Investitionen), der Vertragssummen (bei Lieferverträgen) sowie die Wirtschaftsbranchen. Bis Dezember 2012 sind insgesamt 85 Staaten Zielgebiete VRchinesischer Investitionen und müssen damit in Peking als „von besonderem Interesse“ gelten, denn im Unterschied zu den Verträgen sollte investiertes Kapital dorthin geschafft also unter Umständen gefährdet sein. Bei der Sortierung nach Höhe der Investitionen ergibt sich jedoch ein ganz anderes Bild, als jener Alarmzustand à la „Chinesen kaufen Afrika“, den Leser des Wirtschaftsteils der Tagespresse bisweilen haben mögen: Auf die entwickelten Industriestaaten (= OECD-Mitglieder) entfallen nämlich 51,3 % aller Investitionen aus der VR China – über die Hälfte also. In das oft als Schwerpunkt genannte Afrika fließen hingegen nur 11,9 %. Eine Verteilung auf so eingeteilte Regionen ergibt das in Abbildung 1 gezeigte Bild. 5
Abb. 1: Auslandsinvestitionen der VRCh 2005 bis Dezember 2012 nach Regionen, Quelle: eigene Zusammenstellung nach Daten der Heritage Foundation, http://www. heritage.org/research/projects/ china-global-inestment-tracker-interactive-map
Auf die entwickelten Industriestaaten (OECD) entfällt die Hälfte der Investitionen, die zwischen 2005 und Dezember 2012 aus der VR China gekommen sind, mehr als viermal soviel Kapital wie in Afrika angelegt ist, weshalb es also falsch wäre zu behaupten, chinesisches Kapital fließe vor allem in unterentwickelte Gebiete mit fragwürdigen Regimen. Auch innerhalb der OECD ist die Verteilung der Investition sehr ungleich: Von den insgesamt 198,6 Milliarden US-Dollar entfällt über die Hälfte allein auf die USA und Australien. Eine radikal andere Rangfolge mit Blick auf die Rolle der Industriestaaten hingegen ergibt sich jedoch bei den Lieferverträgen, die aus der VR China heraus mit anderen Staaten abgeschlossen worden sind. Hier spielen die OECD-Länder mit nur 6,6 % keine Rolle. Eine Sortierung nach den kumulierten Vertragsvolumina zeigt, dass erst auf Rang 12 (von insgesamt 84) mit Griechenland ein OECD-Staat erscheint. Bis dahin sind aber bereits 49 % der Vertragsvolumina vergeben. Mit anderen Worten: Während bei den Investitionen Industriestaaten eine bedeutende Rolle spielen, dominieren bei den Lieferverträgen unterentwickelte Staaten. Die regionale Zusammenfassung der Lieferverträge seit 2005 (dargestellt in Abbildung 2) zeigt dies deutlich. Ein Drittel der Vertragssummen sind in Afrika abgeschlossen, gefolgt von Südostasien, Lateinamerika und Nahost. Ca. 80 % des Gesamtvolumens entfällt damit auf Regionen, die wegen ihrer Rohstoffe wichtig sind, nicht jedoch wegen ihrer Industrien, in die sich zu investieren lohnte, weil sie gute Gewinne erwirtschaften und weil es in vielerlei Hinsicht, Technik und betriebswirtschaftliches Wissen, etwas zu holen bzw. zu lernen gibt. Die auf OECD-Staaten entfallende Summe erreicht bei den Verträgen lediglich 14,4 Milliarden US-Dollar, ein Anteil von nur 6,6 % an der gesamten Vertragssumme von 219,9 Milliarden US-Dollar. 6
Addiert man beide Kategorien – Investitions- und Vertragsvolumina – zusammen und ordnet sie Staaten und Regionen zu, so bestimmt die Höhe des für einzelne Staaten bzw. Regionen veranschlagten Kapitals die Intensität des „Interesses der VR China“ an den Verhältnissen und Entwicklungen in jenen einzelnen Staaten und Regionen: Je mehr Kapital, desto größer das Risiko, desto größer das Interesse. Dieses Interesse bildet sich aus dem Wunsch, das bei Investitionen eingesetzte Kapital zu erhalten, besser: zu vermehren bzw. für die bereitgestellten Geldsummen der Lieferverträge die Gü-
Abb. 2: Auslandsverträge der VRCh 2005 bis Dezember 2012 regionale Verteilung, in Prozent, Quelle: eigene Zusammenstellung nach Daten der Heritage Foundation, http://www.heritage.org/research/projects/chinaglobal-inestment-tracker-interactive-map
lehre und studium | update 16 | ss 2013
ter auch so wie vereinbart zu erhalten (respektive bei eigenen Lieferungen die Bezahlung). Das Interesse resultiert also konkret aus dem Verlangen nach in diesem Sinn günstigen Bedingungen in den Partnerstaaten. „Partnerstaat“ ist hier jedoch nicht als geographische Einheit zu definieren, sondern als organisierte Gesellschaft. „Interesse an einem Staat“ ist deshalb genau: Interesse an einer als Staat organisierten Gesellschaft. Was ist ein Staat in diesem Sinne? Ich folge hier dem Begründer der deutschen Soziologie Max Weber (1864 bis 1920), der den Staat letztlich als ein auf Gewaltsamkeit gestütztes Herrschaftsverhältnis von Menschen über Menschen definiert. Es bestimmen im Staat stets diejenigen, die herrschen (= die Politik bestimmen), und die mit Hilfe ihrer Macht auf die Gesellschaft (= die Summe der tätigen Individuen dort) und deren Ressourcen zuzugreifen vermögen. Die Interessen der chinesischen Kapitalgeberseite an den inneren Verhältnissen der Partnerstaaten sind somit Ansprüche an das Handeln der Machthaber (= Politiker) in jenen Staaten. Wer erhebt diese Ansprüche? Natürlich derjenige im Staat VR China, der über das investierte Kapital bestimmt. Das sind zunächst einmal die Vorstände der beteiligten chinesischen Unternehmen, letztlich aber deren Eigentümer.
3. Die Träger der finanziellen Interessen „der VR China“ Wer genau sind nun die unternehmerischen Träger der VRchinesischen Finanzinteressen in anderen Staaten? Ende 2012 sind es 182 Firmen und zentralstaatliche Institutionen (Banken und der Staatsfonds China Investment Corp.). Allerdings verteilen sich die finanziellen Auslandsinteressen hier sehr ungleich.
52,6 % oder 319 Milliarden Dollar entfallen auf nur zehn Unternehmen (siehe Tabelle 1). Worum handelt es sich bei diesen, mit 52,6 %-igem Anteil am Gesamt im Ausland aktivsten chinesischen Unternehmen? Bis auf den staatlichen Investitionsfonds China Investment Corporation (CIC, derzeit ausgestattet mit 410 Milliarden Dollar) sind acht der zehn Firmen in der Fortune 500 Liste (2012, nach Umsatz) vertreten und zwar insgesamt recht weit oben auf den Rängen (siehe Tabelle, rechte Spalte). Und sie alle (Ausnahme: der Staatsfonds CIC) haben noch etwas gemein: Sie gehören zum Kreis des so genannten National Team der VR China, bisweilen auch Champions genannt, einer nach gewissen Kriterien zusammengestellten Gruppe. Die ihr derzeit zugehörigen 120 Unternehmen unterstehen alle einer Abteilung der Zentralregierung der VRCh, nämlich der 国 务院国有资产监督管理委员会 State Asset Supervision and Administration Commission of the State Council (Staatsrat = Zentralregierung der VRCh), abgekürzt als SASAC. Aufgabe dieser Regierungsabteilung ist es, aus den 120 Unternehmen international aktive, mit den „Großen der Welt“ konkurrenzfähige Einheiten zu machen. Was dazu nötig erscheint, veranlasst die Pekinger Zentralregierung. Vor diesem Hintergrund überrascht es nicht, dass alle oben genannten acht führenden, die Hälfte der finanziellen Auslandsinteressen tragenden Unternehmen zu dieser elitären Gruppe gehören, die in der VRCh als 中央企业 oder abgekürzt 央企 bekannt ist: „Zentral-Unternehmen“. Wer leitet als Vorstand diese Unternehmen, bestimmt mithin durch Investitions- oder Vertragsentscheidungen über Kapitalfluss in andere Staaten? Schaut man sich über die Webseiten der Firmen an, wer den Vorstand dieser größten der großen Zentral-
1
Sinopec
64.130.000.000
Anteil am Gesamt 10,6 %
2
China National Petroleum Corp.
52.790.000.000
8,7 %
6 Zentralregierung, entfällt
Finanzinteressen im Ausland (US-$)
Position Fortune 500 (2012) 5
3
China Investment Corporation
39.360.000.000
6,5 %
4
China National Offshore Oil Corp
35.660.000.000
5,9 %
101
5
Sinomach (Maschinenbau)
29.510.000.000
4,9 %
367
6
China Railway Construction
22.870.000.000
3,8 %
111 –
7
Chinalco (Aluminium)
21.410.000.000
3,5 %
8
China Communications Construction
18.850.000.000
3,1 %
216
9
China Railway Engineering Corporation
17.640.000.000
2,9 %
112
10
CITIC (Bank)
17.010.000.000
2,8 %
194
Gesamt
319.230.000.000
52,6 %
Tab. 1: Ausgewählte Träger der VR-chinesischen Finanzinteressen update 16 | ss 2013 | lehre und studium
7
Unternehmen bildet2, so zeigt sich das folgende Bild:34 Unternehmen
Vorstandsvorsitz, politische Mitgliedschaften
中国石化 Sinopec Fortune 500, 2012: 5
傅成玉 Fu Chengyu KPCh, ZK-Disziplinkontrollkommission3, Delegierter des 17. Parteitages4
中国石油天然气集团公司 China National Petroleum Corp. Fortune 500, 2012: 6
蒋洁敏 Jiang Jiemin KPCh, Kandidat des 17. Zentralkomitees, Mitglied des 18. Zentralkomitees
中国投资有限责任公司 China Investment Corporation Staatsfonds der VRCh
楼继伟 Lou Jiwei KPCh, Kandidat des Zentralkomitees, Mitglied des 18. Zentralkomitees
中国铁路工程总公司 China Railway Engineering [Construction] Corporation Fortune 500, 2012: 111
李长进 Li Changjing KPCh, Sekretär (Leiter) der Parteizelle im Unternehmen, Delegierter des 18. Parteitages
中国铝业股份有限公司 China Aluminium Corp. Fortune 500, 2012: 298
熊伟平 Xiong Weiping KPCh, Sekretär (Leiter) der Parteizelle im Unternehmen
中国海洋石油总公司 China National Offshore Oil Corp. Fortune 500, 2012: 101
王宜林 Wang Yilin KPCh, KPCh, Sekretär (Leiter) der Parteizelle im Unternehmen, Delegierter des 18. Parteitages, Mitglied im Präsidium des 18. Parteitages
中国建筑工程总公司 China State Construction Engineering Fortune 500, 2012: 100
易军 Yi Jun KPCh, KPCh, Sekretär (Leiter) der Parteizelle im Unternehmen, Delegierter des 18. Parteitages
中国机械工业集团有限公司 China National Machinery Industry Corp. Sinomach Fortune 500, 2012: 367
任洪斌 Ren Hongbin KPCh, Sekretär (Leiter) der Parteizelle im Unternehmen, Delegierter des 18. Parteitages, Kandidat des 18. Zentralkomitees
中国国际信托投资公司 China International Trust and Investment Corp. (CITIC) Fortune 500, 2012: 194
常振明 Chang Zhenming KPCh, Sekretär (Leiter) der Parteizelle im Unternehmen, Delegierter des 17. und des 18. Parteitages 田国立 Tian Guoli, General Manager KPCh, Delegierter des 17. Parteitages
Tab. 2: Die Vorstände der größten Unternehmen der VRChina mit Kapitalinteressen in anderen Staaten
2 Nur die chinesischen Webseiten machen Angaben zur folgend aufgezeigten Parteizugehörigkeit der Vorstände. Die englischsprachige Variante gibt nur die Namen der Vorstandsmitglieder an, nicht deren Parteizugehörigkeit, ein Verfahren, das der Verschleierung dem Ausland gegenüber dient: Ausländer sollen nicht erkennen, dass die Vorstände alle Mitglieder der Staatspartei KPCh sind und folglich deren Parteidisziplin und Hierarchie unterliegen. 3 Die 中央纪律检查委员会 „Disziplinkontrollkommission des Zentralkomitees [der KPCh]“ ist eine parteieigene Einheit mit staatsanwaltlichen und polizeilichen Vollmachten gegenüber Parteimitgliedern. Sie verhaftet Funktionäre – auch Firmenvorstände –, verhört sie teils jahrelang an unbekannten Orten (sog. 双规 „Verfahren gemäß den zwei Bestimmungen“, nämlich zu fester Zeit an festem Ort zum „Gespräch“ Verfügung zu stehen, Basis: §28, Abs. 3 der中国共产党纪律检查机关案件检查工作条例 „Bestimmungen für die Fall-Untersuchungsarbeit der Disziplinkontrollkommission der Kommunistischen Partei Chinas“). Meist erfolgt anschließend die Übergabe des „Falles“ an ein Gericht, das nach kurzer „Verhandlung“ die Verurteilung vornimmt. Wie die Parteieinheiten der zentralistisch organisierten KPCh auch, findet sich diese „Kommission“ bei allen hierarchischen Ebenen der Parteileitungen wieder, von der zentralen bis zur lokalen. 4 Aufgrund seines Alters (60 Jahre) war er kein Delegierter mehr auf dem im Oktober 2012 abgehaltenen 18. Parteitag der KPCh und nimmt seither keine zentralen Parteileitungsaufgaben mehr wahr.
8
lehre und studium | update 16 | ss 2013
Nicht nur die hier ausgewiesenen Vorsitzenden der Vorstände gehören übrigens der – wie sie sich in der VRCh selbst bezeichnet: 唯一执政党 einzigen regierenden Partei – an, nämlich der KPCh, sondern stets alle Mitglieder des Vorstandes. Das gilt nicht nur für diese Neuner-Spitzengruppe, sondern für sämtliche 120 Zentral-Unternehmen: stets ist der Vorstand identisch mit der KP-Zelle der Unternehmung. Unter den führenden 80 (von den insgesamt 182) Unternehmen mit finanziellen Auslandsinteressen, das sind jene, die ab einer Milliarde Dollar Auslandskapital verwalten (sie haben einen Anteil am Gesamt von 94,1 %), finden sich insgesamt 31 Zentral-Unternehmen. In allen ist der Vorstand identisch mit den leitenden Funktionären der dort bestimmenden Parteiorganisation (= Parteizelle), der „Parteisekretär“ ist stets der Vorstandsvorsitzende. In einigen Fällen sind die Vorstandsvorsitzenden sogar Mitglied im Zentralkomitee der KPCh, dem nominell höchsten Gremium der Partei (zwischen den nur alle fünf Jahre stattfindenden Parteitagen). Was die Entscheidungsgewalt über den hier betrachteten Kapitaleinsatz im Ausland anlangt, so sind den insgesamt 42 Zentral-Unternehmen, die eine Abteilung der Zentralregierung verwaltet (die o.g. SASAC), noch jene acht Einheiten hinzuzurechnen, die direkte Abteilungen der chinesischen Zentralregierung sind: der Staatsfonds China Investment Corporation (CIC), die Quasi-Bank China International Trust and Investment Corporation (CITIC), die staatliche Devisenverwaltung State Administration of Foreign Exchange (SAFE), die China Development Bank, die Export Import Bank, die Bank of China, die Minsheng Bank und die China Construction Bank. Auch in diesen Staatsorganen gehören Chef und Vorstand der KPCh an, teils ebenfalls dem Zentralkomitee wie bei der Industrial and Commercial Bank of China (ICBC) und der China Development Bank. Der Chef der Export Import Bank war Delegierter des 17. und des 18. Parteitages der KPCh und gehört damit auch zur Parteielite. Die finanziellen Auslandsinteressen aller dieser direkt oder indirekt (über die SASAC) der Zentralregierung angegliederten 50 Unternehmen/Staatsorgane belaufen sich auf 72,3 % der gesamten finanziellen Auslandsinteressen bzw. auf satte 439 Milliarden Dollar.
4. Wer bestimmt den Kapitalfluss der im Ausland tätigen VRCh-Unternehmen? Wer sind diese Vorstände, die alle ein und derselben Partei angehören und wie im Falle der Firma Sinopec über Kapitaleinsätze von bis zu 64 Milliarden US-Dollar entscheiden? Woher kommen sie? Wer setzt sie ein? Wer setzt sie ab? Wem sind sie also verantwortlich? Bei wem holen sie sich gegebenenfalls Rückendeckung oder Hilfe, wenn sie in einem anderen Staat Probleme mit der Kapitalverwertung haben? Was bedeutet ihre update 16 | ss 2013 | lehre und studium
durchgängige Zugehörigkeit zur „einzig regierenden Partei“ der VRCh? Die 中央企业 „Zentral-Unternehmen“, jene Firmen, die über die State Asset Supervision and Administration Commission der Zentralregierung unterstehen, gibt es etwa seit dem Jahr 2000. Die ersten gingen im Zuge der Reform der Staatsverwaltung Ende der 1990er Jahre aus den seinerzeit abgeschafften Ministerien der VR China hervor: Ministerium für Stahlindustrie, für Kohlebergbau, für Maschinenbauindustrie, für die Öl- und Chemie-Industrie usw. Alle diese Ministerien gibt es seither nicht mehr, die große „Regierungsreform“ des seinerzeitigen Ministerpräsidenten 朱镕基 Zhu Rongji beseitigte sie als eigenständige Einheiten5. Die Auflösung dieser Ministerien, die ja im Rahmen der Planwirtschaft à la Sowjetunion eher Unternehmen waren, markierte in der VRCh das Ende dieses Wirtschaftsmodells. Die Ministerien bzw. Abteilungen der Ministerien verschwanden also nicht rückstandsfrei. Aus ihnen gingen vielmehr eigenständige (und von Goldman Sachs und anderen Profis restrukturierte und sogar börsenreif gemachte) Unternehmen hervor. Und zwar genau jene, die heute zu den größten in der VRCh zählen, ja zu den größten der Welt, wie sie in den Fortune 500 verzeichnet sind, eben das National Team. Dem tiefgreifenden Regierungsumbau 1998/99 lag dabei ein Beschluss der einzigen regierenden Partei zugrunde, der zentralen KPCh-Parteileitung. In der关于成立中共中央企业 工作委员会及有关问题的通知 „Mitteilung zur Gründung der Arbeitskommission des Zentralkomitees der KPCh für die Zentral-Unternehmen und damit zusammenhängende Fragen“ vom 1. Dezember 1999 ist die Einbindung des National Team in die Zuständigkeit der obersten Parteileitung festgelegt6. Als Mittel zur Einflussnahme diente ihr damals die im Titel der „Mitteilung“ genannte 中央企业工作委员会 „ZKArbeitskommission“, deren Vorsitz damals ein gewisser吴邦 国 Wu Bangguo übernahm, ein Top-Funktionär, der (wie heute immer noch) Mitglied im innersten Zirkel der Partei, dem Politbüro (25 Mitglieder) war. (Heute ist吴邦国 Wu Bangguo
5 Diese Neuschaffung von Unternehmen, die dann auch rasch, vor allem in Hongkong, an Börsen gelangten, erfolgte unter tatkräftiger Mithilfe von Profis wie Goldman Sachs etc., die von der VR-Zentralregierung damit beauftragt worden waren. Details dazu in: Carl E. Walter, Fraser J. T. Howie, Red Capitalism – The Fragile Financial Foundation of China’s Extraordinary Rise, Singapur, 2011, S. 156 ff. 6 Die Archivbezeichnung ist 中发[1999]18号 „ZK-Mitteilung Nr. 18 [1999]“. Der vollständige Text der „Mitteilung“ findet sich auf der Webseite des chinesischen Wikipedia-Clons 百度 Baidu, Bereich Dokumente, hier: http://baike.baidu.com/view/3133501.htm.
9
sogar die nominelle Nr. 2 der VR China, Vorsitzender des „Nationalen Volkskongresses“ und, was viel wichtiger ist, Mitglied im Allerheiligsten der Partei, dem Ständigen Ausschuss des Politbüros des Zentralkomitees.7) Die „Arbeitskommission“, so heißt es in der „ZK-Mitteilung“ unter Punkt 1, sei 党中央的派出机关 „eine von der Parteizentrale beauftragte Körperschaft“ (also von den damals 22 Politbüromitgliedern). Ihre „wichtige Aufgabe“ sei es, 保证党的路线 „die Linie der Partei sicherzustellen“ ebenso wie die贯彻落实 „vollständige Umsetzung“ der Beschlüsse des ZK und der Zentralregierung in den Unternehmen; die Kommission 负责国务院稽察特派员 的管理工作 „ist verantwortlich für die Verwaltungsarbeit der von der Zentralregierung [in die Unternehmen] entsandten Sonderermittler“, sie überprüft die Einhaltung der Richtlinien [der Zentrale] durch die Unternehmensleiter. Die „Arbeitskommission“ ist damit die vorgesetzte Stelle der Unternehmensleitungen. Zur Auswahl der Unternehmensleiter heißt es in der Mitteilung: 涉及国家安全和国民经济命脉的国有重要骨干企业的 领导班子列入中央管理干部的范围 die Vorstände wichtiger staatlicher Schlüsselunternehmen, solche, die den Bereich der Staatssicherheit berühren oder lebenswichtige Bereiche der nationalen Volkswirtschaft, sind in der Kaderverwaltung des Zentralkomitees gelistet. In einer weiteren „Mitteilung“ vom 12. März 2002 teilte die Kommission gemeinsam mit der 中共中央组织部 „Organisationsabteilung des Zentralkomitees der KPCh“ weitere Anweisungen an das National Team der 中央企业 „Zentral-Unternehmen“ mit8. In dieser „Mitteilung“ findet sich auch die Definition für den Status „Zentral-Unternehmen“: … 中央企业,是指领导班子列入中央管理和中央企业 工委管理的国有重要骨干企业(含国有控股企业)。 … Zentral-Unternehmen sind solche staatlichen, wichtigen Schlüsselunternehmen (inkl. jene Unternehmen mit kontrollierendem Staatsanteil), wo das Zentralkomitee [der KPCh] und die Kommission für die Zentral-Unternehmen die Führungsgruppe [= den Vorstand] verwalteten. Dies alles betraf seinerzeit 163 Zentral-Unternehmen. Durch Zusammenlegungen, die in diesem System der Unternehmens-
7 Auf dem im Oktober 2012 abgehaltenen 18. Parteitag der KPCh wird er wegen zweifacher Amtszeit und Erreichens der Altersgrenze den Posten im Ständigen Ausschuss sowie im Politbüro, vielleicht auch im Zentralkomitee, räumen. Als Vorsitzender des „Nationalen Volkskongresses“ dürfte er bei dessen Neu-Konstituierung im Frühjahr 2013 ausgetauscht werden. 8 Der chinesische Text findet sich auf der KPCh-Webseite 中国共产党 新闻 „News of the Communist Party of China“. Titel: 中共中央企业工 作委员会、中共中央组织部关于印发《关于中央企业领导人员廉 洁自律若干规定的实施办法(试行)》的通知 „Mitteilung der Kommission des ZK der KPCh für die Zentral-Unternehmen, Organisationsab-
10
verwaltung ebenfalls (letztlich) per Beschluss der Parteileitung erfolgten, sank die Anzahl der Firmen bis auf derzeit 120. Die Leitung dieser Firmen setzt also eine Abteilung der zentralen Parteileitung ein – laut „Mitteilung“ das „Zentralkomitee“, da dieses aber nur einmal im Jahr zusammenkommt, dürfte es das heute 25-köpfige „Politbüro“ sein. Die Konstruktion erklärt natürlich, warum es stets Parteimitglieder sind, die die Vorstandsposten besetzen. Und woher kommen diese vom ZK „verwalteten“ Leute? Ihre Namen stehen auf einer Liste, die die Organisationsabteilung des ZK der KPCh zusammenstellt und verwaltet. Eine solche Liste hieß in der Sowjetunion „Nomenklatura“. Sie beinhaltete die Personalakten all jener Funktionäre, die für Beförderungen bzw. Postenbesetzungen in Frage kamen. Und die sich natürlich in ihrer bisherigen Karriere als politisch (oder anderweitig) loyal erwiesen hatten. Die „Nomenklatura“ ist ihrem Wesen nach eine geheime Liste, nicht einmal im geschwätzig-räsonierenden chinesischen Internet finden sich substantielle Ausführungen dazu. In der VRCh heißt die Nomenklatura 名单 „Namensliste“. Die Verwaltung der chinesischen Nomenklatura, sozusagen die Personalförderung der obersten Parteileitung der KPCh, erfolgt in der 中共中央组织部 „Organisationsabteilung des Zentralkomitees der KPCh“, die von allen 25 Abteilungen, über die die zentrale Parteileitung ihren Willen im Staate durchsetzt, die wichtigste ist: sie figuriert deswegen in Organigrammen an erster Stelle (gefolgt von der Propaganda-Abteilung)9. Die Besetzung der Vorstandsposten im National team der Zentral-Unternehmen bestimmt damit letztlich die oberste Parteileitung der KPCh. Sie tut das – wie alles, was sie tut oder unterlässt – in sehr geheimer, vollständig intransparenter Weise. Damit sind die im Ausland arglos als „Staatsunternehmen“ bezeichneten Firmen tatsächlich Parteifirmen oder ganz genau: Unternehmen in der Verfügungsgewalt der Parteizentrale, des Politbüros der KPCh, seit dem 18. Parteitag im Oktober 2012 25 Personen, 23 Männer und zwei Frauen. Am 24. März 2003 veränderte ein Beschluss des zu diesem Zeitpunkt tagenden Zentralkomitees („2. Plenartagung des 16. ZK“) dieses Arrangement, aber nur kosmetisch: Der Beschluss transformierte die „ZK-Arbeitskommission“ in eine KP-Parteizelle und versetzte diese in die neu geschaffene Einheit der Zentral-
teilung des ZK der KPCh ‚Ausführung der Vorschriften zum Sauberbleiben und Einhalten der Selbstdisziplin der Führung der Zentral-Unternehmen (Entwurf, versuchsweise durchzuführen) ‘“, Text hier: http://cpc.people. com.cn/GB/64162/71380/102565/182145/11001887.html. 9 Eine Übersicht der internen Gliederung der Abteilung ist nicht auf ihrer Webseite, jedoch auf dem (recht offiziellen) Wikipedia-Clon 互动百科 Interaktive Enzyklopädie zu finden: http://www.hudong.com/wiki/ dort中 共中央组织部 eingeben.
lehre und studium | update 16 | ss 2013
regierung, die State Owned Assets Surveillance and Administration Commission (SASAC), die damit unter der Leitung einer der obersten Parteileitung rechenschaftspflichtigen Parteizelle stand und bis heute steht10. Damit ist die Leitung der SASAC identisch mit dieser Parteizelle und ist diese Abteilung der Zentralregierung tatsächlich eine „Abteilung des Zentralkomitees“11. Die komplette Vermischung dieser staatlichen Behörde mit der KP-Parteiorganisation macht auch ihre Organisationsstruktur deutlich, die ebenfalls auf der chinesischen Webseite einsehbar ist. Da gibt es zum Beispiel die Abteilung 党建工作局 „Büro für
10 Die Bezeichnung lautet: 中共国务院国有资产管理委员会委员会. Die hier verwendete Information dazu findet sich auf der mit Hammer und Sichel gezierten Webseite des „State Commission Office for Public Sector Reform”: 中国机构编制网 Netz der Organisation der chinesischen Staatsorgane, hier: http://www.scopsr.gov.cn/zlzx/zlzxlsyg/201203/ t20120323_35157_10.html. 11 Sie ist da nicht die einzige. Die ZK-Abteilung für Propaganda ist zum Beispiel identisch mit dem „Informationsbüro des Staatsrates [= der Zentralregierung] und das „Staatsarchiv“ der VRCh ist identisch mit der ZKAbteilung für das Parteiarchiv. Siehe Webseite der VR-Zentralregierung, 政府机构 „Regierungsorgane“, hier: http://www.gov.cn/gjjg/2005-08/01/ content_18608.htm. An diesen Stellen hört die sonst beharrlich behauptete „Trennung“ von Partei und Regierung/Staat einfach auf, der Staat ist hier ganz ungeniert Beute der „einzig regierenden Partei“-Leitung, muss man hinzufügen.
den Parteiaufbau“, die identisch ist mit der党委组织部 „Organisationsabteilung der Parteizelle“, also der Personalförderung der Zelle. Das Büro – immerhin dem Namen nach ein staatliches Büro! – sei 根据有关规定,负责所监管企业党的组织 建设和党员教育、管理工作 „auf der Basis der relevanten Bestimmungen verantwortlich für den Aufbau der Parteiorganisationen, die Ausbildung der Parteimitglieder und deren Verwaltung in den [von SASAC] überwachten Firmen“, also den 120 Zentral-Unternehmen. Damit sieht das Organigramm der Parteikontrolle für das National team der VR China, oder Kapitalinteressen in Höhe von mindestens 439 Milliarden US-Dollar im Ausland, derzeit wie in Abbildung 3 dargestellt aus: Sieben Personen des „Ständigen Ausschusses“ bzw. 25 Personen eines „Politbüros“ halten die oberste Kontrolle. Die Eingangsfrage dieses Abschnitts, wer denn über den Kapitalfluss der im Ausland tätigen VRCh-Unternehmen entscheide, ist deshalb so zu beantworten: Für rund 439 Milliarden USDollar, also 72 % der im Ausland bestehenden Kapitalinteressen VR-chinesischer Firmen treffen/trafen zwar – wie wohl meist in der Welt – die Vorstände der beteiligten Zentral-Unternehmen diese Entscheidung. Im Falle der VRCh jedoch sind diese Personen wegen ihrer KP-Mitgliedschaft eingebunden in die Disziplin der „einzigen regierenden Partei“, sind der ihrer Parteizelle übergeordneten Parteieinheit verantwortlich, in diesem Falle der Parteizelle, die die SASAC kontrolliert, sowie letztlich der „Organisationsabteilung des Zentralkomitees der KPCh“, die sie in ihre Posten eingesetzt hat (und von dort abberufen kann).
Abb. 3: Organigramm der Parteikontrolle für das National team der VR China
update 16 | ss 2013 | lehre und studium
11
Damit aber liegt ihre Karriere in der Hand der Mitglieder der obersten KP-Einheit, der zentralen Parteileitung, genauer: in der Hand der 25 Mitglieder der obersten Parteileitung, Polit büro genannt. In jedem Fall gilt: Die Zentral-Unternehmen der VRCh, auf die 72 % der Kapitalinteressen im Ausland entfallen, sind direkt abhängig von diesem innersten Zirkel der „einzig regierenden Partei“ der VR China, vom Willen ganzer 25 Personen! Diese „Familie“ wirkt – das ist unbestritten – in vollkommener Intransparenz sowohl innerhalb der 82-Millionen Partei KPCh, als auch innerhalb der VRCh und natürlich auch nach außen.
5. Ökonomische Ressourcen im Dienste politischer Machtinteressen Fürwahr sind die finanziellen Interessen, die chinesische Unternehmen in anderen Staaten verfolgen, eine Familienangelegenheit: Eine klandestine kleine Gruppe sehr verschwiegener Leute hat – wenn sie will – in diesem System Zugriff auf die Vorstände des National team und kann sie bei Bedarf anweisen, dies zu tun oder jenes zu unterlassen, kann Personen befördern, absetzen oder (auch Familienangehörige, Verwandte, Günstlinge etc.) hineinbringen. Letztlich hat die Handvoll Politbüro-Mitglieder auf diese Weise Zugriff auf die Verwendung hunderter Milliarden Dollar sowie natürlich die Erträge, die sie erwirtschaften. Und die kleine Gruppe von maximal 25 Personen kann diese ökonomische Macht nutzen, um ihrem politischen System Einfluss in anderen Staaten zu verschaffen. Es ist ein Black-box-System. Die Zentral-Unternehmen verfolgen ihre wirtschaftlichen Interessen unter vollständiger Rückendeckung der obersten Parteileitung. Wenn sie Kapital brauchen, beschafft ihnen das der Politbürogenosse vom Chef der Zentralbank, der ZK-
12
Genosse ist, Untergebener also und somit gehorcht. Wenn sie in anderen Staaten andere Bedingungen brauchen, weist das Politbüro über das Außenministerium die Botschaften (Leiter: Parteizellen-Sekretäre) an zu helfen. Im Zweifel kann der Generalsekretär der Partei, der zugleich Staatspräsident ist, bei seinem nächsten „Staatsbesuch“ Hilfsgelder (oder Projekte) mitbringen und austeilen. Oder die lokale Elite mit anderen Freundlichkeiten versorgen, wofür diese dann Konkurrenten aus anderen Staaten, Europa zum Beispiel, abweisen oder behindern. Sollten die Mitglieder des Politbüros sich darin einig sein, dass in diesem oder jenem fragwürdigen Staat aus politischen Erwägungen heraus unternehmerische Präsenz hilfreich wäre oder – mit Blick auf Konkurrenten – besser verstärkt würde, so könnten sie das über die Organisationsabteilung der KPCh oder gleich direkt über ihre Parteizelle in der SASAC leicht veranlassen: eine Anweisung an den Vorstand genügt. Ebenso das Gegenteil, den Abzug, oder irgend etwas auf der Skala, die dazwischen liegt. Und dabei bleibt das ganze Verfahren für die chinesische Bevölkerung in vollkommenem Dunkel – von der Außenwelt ganz zu schweigen, da die ja bereits an den Schriftzeichen scheitert. So ist es dem Politbüro möglich, in vollkommener Intransparenz – und daher ungestört von Einsprüchen seitens anderer Interessen – die Ressourcen der zweitgrößten Wirtschaft der Welt seinen außenpolitischen Interessen dienstbar zu machen. Sofern also eine Abhängigkeit der „Gast“staaten von chinesischem Kapital besteht, ist das keine Abhängigkeit „von China“ oder von „chinesischem Kapital“ etc., sondern eine Abhängigkeit von Interessen und Wünschen der zentralen Leitung einer politischen Partei, genau: von nur 25 im Verborgenen wirkenden Politbüromitgliedern. Eine in dieser Mächtigkeit weltweit einmalige und sehr gefährliche Situation.
lehre und studium | update 16 | ss 2013
DIE SWot-analySE — EIn popUläRES InStRUMEnt gEnaUER BEtRaChtEt Volrad Wollny
Zusammenfassung: Die SWOT-Analyse ist eines der populärsten Managementinstrumente, mit dem unternehmensinterne Stärken (Strengths) und Schwächen (Weaknesses) einerseits und externe Chancen (Opportunities) und Bedrohungen (Threats) andererseits ermittelt werden. Mit SWOT kann die Ausgangslage analysiert und aus der Gegenüberstellung interner und externer Faktoren können strategische Optionen entwickelt werden. Diese können mit einer Nutzwertanalyse bewertet und ausgewählt werden. Die SWOT-Analyse legt kein genaues Vorgehen fest. Daher wird SWOT oft oberflächlich angewendet und typische Fehler treten auf. Für eine bessere Anwendung von SWOT wird in diesem Artikel ein schrittweises Vorgehen beschrieben.
Prof. Dr. Volrad Wollny lehrt das Fach Unternehmensführung an der Fachhochschule Mainz. E-Mail: volrad.wollny@wiw.fh-mainz.de
1. Die Entwicklung der SWOT-Analyse In Lehrbüchern zum strategischen Management taucht SWOT ab Mitte der 1960er Jahre auf (vgl. Learned et al. 1965), ihre Entwicklung wird je nach Autor entweder dem Stanford Research Institute (Humphrey 2005) oder der Harvard Business School zugeschrieben (Panagiotou 2003). Eine SWOT-Analyse vereinfacht und aggregiert die Unternehmenssituation, basierend auf der Idee, dass für den Erfolg die internen Fähigkeiten des Unternehmens mit den Anforderungen der Umwelt übereinstimmen müssen (Ansoff 1965). Weihrich (1982) schlug eine systematische interne und externe Analyse vor. Die internen Faktoren werden direkt im Vergleich zu den Wettbewerbern, externe direkt in Hinblick auf den Unternehmenserfolg bewertet. Die von Weihrich (1982) unter dem Begriff „TOWS-Matrix“ vorgestellte Auswertung der SWOT-Analyse gilt heute als ihr wichtigster Bestandteil (vgl. Wheelen/Hunger 2010). Die einzelnen internen Stärken (Strengths) und Schwächen (Weaknesses) einerseits und Chancen (Opportunities) und Bedrohungen (Threats) andererseits werden auf zwei Achsen angeordnet. Es ergibt sich die bekannte Matrix mit vier Feldern (Abbildung 1), in denen die Wechselwirkungen identifiziert und daraus strategische Optionen abgeleitet werden können.
David (1986) ermöglichte mit der quantitativen strategischen Planungsmatrix (Nutzwertanalyse) eine Bewertung dieser Optionen in Bezug auf die internen und externen Faktoren. Populäre Darstellungen von SWOT (z.B. Wikipedia 2012a, b) konzentrieren sich meist auf die TOWS-Matrix von Weihrich (1982), deren Anwendung nur vage beschrieben wird. Auch Lehrbücher geben oft nur eine grobe Übersicht über die Methode. Deshalb wird hier ein systematisches Vorgehen mit den drei Phasen interne und externe Analyse, Entwicklung von Handlungsoptionen und deren Bewertung unter dem Oberbegriff „SWOT“ vorgeschlagen (vgl. Paul/Wollny 2011).
Abb. 1: SWOT-Analyse (Quelle: Paul/Wollny 2011)
update 16 | ss 2013 | lehre und studium
13
2. Phase 1: Die Ausgangssituation analysieren und bewerten (SWOT)
2.2 Analyse der externen Umwelt: Chancen und Bedrohungen
2.1 Vorbereitung In Unternehmen müssen Branchenberichte, Marktanalysen, Marktforschungsberichte, eigene und fremde Geschäftsberichte, eigene Analysen und die externe Berichterstattung über das Unternehmen und seine Konkurrenten vorab zusammengestellt und ausgewertet werden. Das durchführende Teams sollte heterogen zusammengesetzt sein (nach Funktionsbereichen und Hierarchieebenen), um durch unterschiedliche Sichtweisen Voreingenommenheit und „blinde Flecken“ zu vermeiden (Brownlie 1989, Stevenson 1976). An der Hochschule kann eine SWOT-Analyse auf der Basis einer umfangreicheren Fallstudie oder Recherchen der Studierenden nach obigem Muster durchgeführt werden. Unternehmensinterne Informationen sind dabei normalerweise nicht zugänglich. Bei der Fallbearbeitung mit SWOT ist aus den gleichen Gründen eine heterogene Gruppenzusammensetzung bei Studierenden sinnvoll (Geschlecht, Herkunft, Schwerpunkt im Studium). Zunächst ist der Analysegegenstand festzulegen (Unternehmen, strategische Geschäftseinheit (SGE) oder Funktionsbereich?) sowie die zeitliche Perspektive. Unternehmen oder eine SGE werden mit den Kriterien Geschäftsmodell, Produkte und Dienstleistungen, Kunden, Kundenwünsche, grundlegende quantitative Kenn- und Ergebnisgrößen, geographische Ausdehnung, Betriebsabläufe, gegenwärtige Zielsetzungen, Beurteilung der Leistung und abschließend die Entwicklung und Veränderungen in den letzten Jahren beschrieben. Weiter sind die organisatorischen Strukturen, die grundlegenden Werte des Top-Managements und die Grundzüge der Unternehmenskultur zu skizzieren. Die Konkurrenzsituation wird mit dem Marktanteil und den Schlüsselerfolgsfaktoren der Branche (z.B. Preis, Qualität, Service, Produktinnovation, Produktion, Standorte, Vertriebs- und Distributionssysteme) dargestellt.
Bereich/ Kriterium
Ergebnis und Qualität
Chancen und Bedrohungen ergeben sich aus Veränderungen in der allgemeinen Unternehmensumwelt (Makro-Umwelt) und in der Branche (Mikro-Umwelt). Für erstere werden dem PEST(LE)Ansatz (Müller-Stewens/Lechner 2005) folgend politische, ökonomische, sozio-kulturelle und technologische, evtl. auch ökologische und legislative (regulatorische) Trends untersucht. Politische und regulatorische Faktoren können gut zusammengefasst werden, die ökologischen Faktoren beanspruchen heute zu Recht eine gesonderte Behandlung. Die Branche wird mit der Fünf-Kräfte-Analyse (Porter 1980) oder einer gezielten Konkurrenzanalyse untersucht. Dabei sind Veränderungen des Marktes, des erwarteten Verhaltens der bisherigen und neuer Wettbewerber sowie Veränderungen bei Lieferanten und Kunden (Weihrich 1982) zu berücksichtigen. Zusätzlich sind produktbezogene und technologische Entwicklungen in der Branche einzubeziehen. Die so ermittelten Trends können meistens unmittelbar als Chancen oder als Bedrohungen für das Unternehmen eingestuft werden. Sinnvoll ist eine Bewertung der Bedeutung der erkannten Trends (z.B. als Prozentanteil) und eine Beschränkung auf die wichtigsten externen Faktoren. Wheelen/Hunger (2010) schlagen eine Obergrenze von acht bis zehn Faktoren vor. Wichtig: die Chancen und Bedrohungen dürfen nicht mit Handlungsmöglichkeiten des Unternehmens verwechselt werden. Diese sollen erst im nächsten Schritt mit der TOWS-Matrix abgeleitet werden – als mögliche Reaktion auf Veränderungen in der Umwelt.
2.3 Interne Analyse des Unternehmens: Stärken und Schwächen Die interne Analyse erfolgt systematisch anhand von Checklisten (Tabelle 1). Stärken und Schwächen des Unternehmens ergeben sich bei deutlichen positiven oder negativen Abweichungen vom Branchendurchschnitt (Welge/Al-Laham 2008) oder im Vergleich zu den wichtigsten Wettbewerbern. Zusätzlich können Projekterfahrungen und -ergebnisse des Unternehmens aus der Vergangenheit ausgewertet werden.
Ressourcen und Kosten
Zeit und Flexibilität
Unternehmen allgemein Reputation des Unternehmens bei Übergreifende Kernkompetenzen Allgemeiner Kostenvorteil verschiedenen Anspruchsgruppen Supply Chain Konfiguration Mix des Leistungsangebotes Vertikale oder horizontale Integration und Synergie-Effekte Wachstum
Reaktionsfähigkeit des Unternehmens auf neue Entwicklungen Kooperationsfähigkeit
Forschung und Entwicklung (F&E)
Entwicklungsdauer Kooperationen Technologische Prognosefähigkeit
14
Patente, Innovationen, neue Produkte, neue Prozesse Einnahmen aus Patenten, Lizenzen etc. Neuprodukte
F&E-Einrichtungen, Standorte, Ausstattung F&E-Aufwand F&E-Personal Zahl und Qualität
lehre und studium | update 16 | ss 2013
Bereich/ Kriterium
Ergebnis und Qualität
Ressourcen und Kosten
Zeit und Flexibilität
Einkauf und Logistik
Lieferantenbasis Umschlagshäufigkeit Lieferfähigkeit Lieferzuverlässigkeit Attraktivität für Lieferanten Eigene Rohmaterialressourcen
Beschaffungskosten Lagerkosten Kapitalbindung Logistikkosten Fehlmengenkosten
Lieferzeit Lieferflexibilität Kontrolle der Bestände
Produktion
Prozessqualität Technologie Know-how Produktivität Umweltfreundlichkeit Ressourcenbedarf Kapazitäten Kapazitätsnutzung
Produktion Einrichtungen, Standorte, Ausstattung, Automatisierung, Integration Technologie Skaleneffekte Produktionskosten Investitionskosten Abschreibungen
Durchlaufzeiten Mengenflexibilität Flexibilität nach Qualität und Produktvarianten
Marketing
Marktanteil Kundenzufriedenheit Wiederkäufer Marktkenntnis Externes Rating Produktimage Markentreue
Standorte Vertrieb Standorte Lager Standorte Service Marktforschung Vertriebs- und Werbeaufwand Marken Preisstrategie
Lieferfähigkeit Lieferflexibilität
Produkt/ Dienstleistungen
Produktqualität Umweltfreundlichkeit Breite/Tiefe der Produktlinie Design Technische Leistungsfähigkeit Service
Produktstückkosten Kosten kunden-spezifischer Produkte Gesamtlebenszyklus-kosten der Produkte Preis-Leistungsverhältnis
Anteil neuer Produkte Produktlebenszyklus Flexibilität gegenüber K undenwünschen
Organisation und Management
Unternehmenskultur Werteorientierung Synergien in der Organisation Beziehungen zu Anspruchsgruppen Qualität der Corporate Governance Interessen und Fähigkeiten des TopManagements Verhältnis Management zu den Mitarbeitern
Managementsysteme Zertifizierungen Managementkapazität IT-Systeme Managementkosten Overhead
Flexibilität Fähigkeit zur Selbstorganisation Lernfähigkeit Fähigkeit zu Teamarbeit/ Gruppenarbeit
Finanzen und Controlling
Eigenkapital Gewinn Rendite Cashflow Aktienkurs Dividenden
Systeme für Cash Management, Finanzprognosen und Rechnungswesen Kapitalkosten Controlling-Kosten Bestandsbewertung
Liquidität Verschuldung Zugriff auf unterschiedliche Finanzierungen Kreditrating
Personal
Motivation Zufriedenheit Qualifikation Betriebsklima Attraktivität für neue Mitarbeiter Fluktuationsrate Produktivität
Personalstruktur Fehlquote Anreizsysteme Personalkosten Weiterbildungsaufwand
Entwicklungsfähigkeit Flexibilität der Mitarbeiter Zeitbedarf für Personalanpassungen
Tab. 1: Checklisten für Stärken und Schwächen eines Unternehmens (Quelle: Paul/Wollny 2010: Zusammenstellung aus Brownlie 1989; Grant 2010; Grünig/Kühn 2009; Hinterhuber 1996; Welge/Al-Laham 2008)
update 16 | ss 2013 | lehre und studium
15
Stärken: Das Unternehmen verfügt über sehr qualifizierte Mitarbeiter. Es hat eine starke Marktstellung bei öffentlichen Auftraggebern erreicht. Das Unternehmen genießt aufgrund seiner qualitativ hochwertigen Arbeit, einem guten Preis-Leistungsverhältnis und der Fähigkeit zur engen Zusammenarbeit eine hohe Reputation bei den Architekten. Das Unternehmen ist in der Lage, flexibel auf Kundenwünsche einzugehen und auch ungewöhnlichere Anforderungen zu realisieren. Das Unternehmen verfügt über eine hohe Eigenkapitalquote von 45% Schwächen: Die Altersstruktur der Mitarbeiter ist ungünstig, es besteht ein gewisser Nachwuchsmangel. Das Leistungsspektrum bei den verschiedenen Gewerken ist beschränkt. Die Kapazität des Unternehmens ist wenig flexibel. Chancen: Steigende Energiepreise und energetische Anforderungen an Gebäude erfordern hochwertigeres Bauen und eröffnen neue Teilmärkte (Sanierung). Die demografischen Veränderungen führen zu neuen Anforderungen und Umbauten (altersgerechte Wohnungen). Die Anforderungen an Wohnfläche und -qualität steigen. Bedrohungen: Mittelfristig sinkende öffentliche Investitionen für den Baubereich. Steigende Energiepriese führen zu steigenden Kosten für Baumaterialien. Bevölkerungsrückgang führt mittelfristig zu sinkendem Neubauvolumen. Tab. 2: Beispiel Ergebnis SWOT-Analyse für ein Bauunternehmen
Bewertungen als Stärke oder Schwäche sollten sich möglichst auf harte Fakten und messbare Kennzahlen stützen. Die Sichtweise von externen Unternehmens- und Branchenkennern kann hilfreich sein. Eine kritiklose Übernahme der unternehmensinternen Einschätzung oder von PR-Aussagen (Internet!) ist zwar bequem, verhilft aber kaum zu neuen Einsichten. Die Relevanz von Stärken und Schwächen wird durch einen Vergleich mit den Schlüsselerfolgsfaktoren der Branche beurteilt. Veränderungen in der Vergangenheit, geplante oder erwartete Entwicklungen, gemeinsame Ursachen von Trends und die gegenseitige Abhängigkeit interner Faktoren sind zu berücksichtigen.
2.4 Zusammenfassung der Ergebnisse Ergebnis der ersten Phase ist eine zugespitzte Darstellung (in Form einer Liste mit je maximal zehn internen und externen Faktoren) der gegenwärtigen Gesamtsituation und deren zukünftiger Veränderung und eine verbale Einschätzung der Situation, aber noch ohne Handlungsempfehlungen! Der dualistische Ansatz mit einer sofortigen Bewertung der Faktoren ist in der Realität nicht immer eindeutig – weshalb manche Autoren 16
die SWOT-Analyse ganz ablehnen (vgl. Grant 2010). Ein Trend kann zwar gleichzeitig als Chance und als Bedrohung bewertet werden, dies sollte allerdings die Ausnahme bleiben. In der weiteren Auswertung mit der TOWS-Matrix erfolgt ohnehin noch eine kontextabhängige Bewertung.
3. Phase 2: Handlungsoptionen ableiten (TOWS-Matrix) 3.1 Erstellen der TOWS-Matrix Die ermittelten Faktoren werden auf den Achsen einer Matrix analog zu Abbildung 1 aufgetragen. In der Matrix wird systematisch die Bedeutung der internen Faktoren in Bezug auf die einzelnen externen Trends bewertet. Die Bewertung erfolgt qualitativ (0 = keine Wechselwirkung, + bedeutet, der interne Faktor ist wichtig für das Nutzen von Chancen oder die Abwehr von Bedrohungen, - bedeutet, der interne Faktor verhindert das Nutzen von Chancen oder verstärkt Bedrohungen), evtl. quantitativ auf einer Skala von - 5 bis + 5 (Jacobs et al. 1998). Das Beispiel (Tabelle 3) zeigt, wie sich Stärken (starke Marktstellung bei öffentlichen Auftraggebern) durch externe Trends (Rückgang der öffentlichen Aufträge) in Schwächen verwandeln können. Die Zeilen- und Spaltensummen, getrennt nach positiven und negativen Vorzeichen addiert, ergeben die relative Bedeutung der jeweiligen internen und externen Faktoren.
3.2 Ableiten von Handlungsoptionen Für die in Schritt 2 identifizierten relevanten Wechselwirkungen werden Handlungsoptionen entwickelt. Im Quadranten „Stärken und Chancen (SO)“ setzt das Unternehmen offensiv seine Stärken zur Nutzung der externen Chancen ein. Im Quadranten „Stärken und Bedrohungen (ST)“ werden mit Hilfe der Stärken defensiv externe Bedrohungen abgewehrt. Der Quadrant „Schwächen und Chancen (WO)“ steht für den Ausgleich von Schwächen, um die externen Chancen ergreifen zu können und um gegenüber den Konkurrenten aufzuholen. Im Quadranten „Schwächen und Bedrohungen (WT)“ müssen Schwächen ausgeglichen werden, um externen Bedrohungen erfolgreich begegnen zu können. Handlungsoptionen können sich auch auf mehrere interne und externe Faktoren beziehen. Weihrich (1982) folgend wird bei jeder Handlungsoption vermerkt, auf welche Faktoren sie sich bezieht. Durch Kombinationen der Handlungsoptionen können unterschiedliche Strategien formuliert werden – im Beispiel wären verschiedene Nischenstrategien möglich. Als Ergebnis aus Phase zwei ergibt sich ein Überblick über den Zusammenhang zwischen den internen Faktoren und den Trends in der Unternehmensumwelt sowie über die daraus ableitbaren Handlungsoptionen. Neue Einsichten in die Gesamtsituation des Unternehmens und den „Problemdruck“ einer stralehre und studium | update 16 | ss 2013
T2
T3
steigende Materialkosten wg . Energiepreisen
Sinkendes Neubauvolumen wg. Bevölkerungsrückgang
Steigende Ansprüche an Wohnfläche und Qualität
T1
Bedrohungen mittelfristig sinkende öfftl. Investitionen
O3
Stärken
Stärken 15
S1 qualifizierte Mitarbeiter Angebot Qualitätswohnbau
qualifizierte Mitarbeiter
5
5
5
0
0
0
Gute Marktstellung bei öfftl. Aufträgen
2
1
1
-3
0
1 +5/-3
hohe Reputation bei Architekten
1
3
3
1
0
1
9
hohe Flexibilität gegenüber Kundenwünschen
1
4
4
1
0
1
11
gute Liquidität und hohe EK-Quote
0
0
0
1
1
1
3
ungünstige Altersstruktur Mitarbeiter
-1
-1
-1
0
0
0
-3
W1
beschränktes Leistungsspektrum bei Gewerken
-4
-4
-4
-1
0
-1
-14
W2
geringe Flexibiliät in Kapazität
-2
-1
0
-4
0
-3
-10
+9/-7 +13/-6 +13/-5
+3/-8
S2 S3
S4
1 +4/-4
Marktanteil bei öfftl. Aufträgen erhöhen, um Umsatz zu halten S1, S2, S3, S4, S5, T1 Gute Marktstellung Angebot energetische Sanierung PPP-Modelle für öfftl. Sektor bei öfftl. Aufträgen öfftl. Gebäude S1,S2,S3, S4, O1 entwickeln S1, S2, S4, S5, T1 hohe Reputation bei Angebot energetische Sanierung Marktanteil bei priv. Aufträgen Architekten priv. Gebäude S1, S3, S4, O1, O3 erhöhen, um Umsatz zu halten S1, S3, S4, S5, T3 hohe Flexibilität gegen- Angebot altersgerechtes Bauen über Kundenwünschen und Umbauen S1, S2, S3, S4, O2, O3 gute Liquidität und hohe EK-Quote Schwächen ungünstige Alterstruk- jüngere Mitarbeiter mit neuen tur Mitarbeiter Berufsperspektiven und Aufgabenfeldern gewinnen W1, O1, O2 beschränktes Leistungs- Leistungspektrum erweitern Kosten reduzieren durch Genespektrum bei Gewerken durch a) Kooperation b)Aquisition ralangebote bei öfftl. Aufträc) Aufbau W2, O1, O2 gen, Kooperationen W2, W3, T1 geringe Flexibiliät Kapzitätsflexibilisierung durch Kapzitätsflexibilisierung durch in Kapazität Arbeitszeitmodelle oder Koopera- Arbeitszeitmodelle oder Koopetionen W3, O1, O2 rationen W3, T1, T3 S1, S2, S3, O3
S5
Schwächen
Summe
O2
demographische Veränderungen – altersgerechtes Bauen
Chancen steigende Energiepreise und energetische Anforderungen Gebäude
Summe
Sinkendes Neubauvolumen wg. Bevölkerungsrückgang
steigende Materialkosten wg . Energiepreisen
mittelfristig sinkende öfftl. Investitionen
Bedrohungen
Steigende Ansprüche an Wohnfläche und Qualität
demographische Veränderungen – altersgerechtes Bauen
steigende Energiepreise und energetische Anforderungen Gebäude
Chancen
O1
W3
Tab. 3: TOWS-Matrix der Wechselwirkungen am Beispiel eines Bauunternehmens (Quelle: Paul/Wollny 2011)
Tab. 4: TOWS-Matrix mit optionalen Maßnahmen (Quelle Paul/Wollny 2011) (PPP:Public Private Partnership)
tegischen Anpassung werden möglich. Die Handlungsmöglichkeiten können diskutiert, vorausgewählt und zu verschiedenen alternativen Strategien gebündelt werden. Eine fundierte Entscheidung kann erst nach weiteren Analysen und Bewertungen getroffen werden.
Bewertungsmodell von Jacobs et al. (1998) wird die Attraktivität einer Option im Hinblick auf einen internen oder externen Faktor mit + 1 bis + 5 bewertet, eine fehlende Wechselwirkung mit 0 und eine negative Wechselwirkung mit - 1 bis - 5, so dass sich insgesamt eine Skala von - 5 bis + 5 ergibt.
4. Phase 3: Handlungsoptionen bewerten und auswählen – die quantitative strategische PlanungsMatrix (QSPM) 4.1 Strategische Handlungsoptionen auflisten In der Praxis müssen die einzelnen Handlungsoptionen vor einer Bewertung weiter konkretisiert werden (z.B. Investitionen, Kosten, Beschäftige, Umsätze). Im Beispiel wurden die Handlungsoptionen zu vier unterschiedlichen Strategien kombiniert (Tabelle 5 auf der folgenden Seite).
4.2 QSP-Matrix erstellen und Optionen bewerten Die Chancen, Bedrohungen, Stärken und Schwächen werden untereinander aufgelistet und nach ihrer Bedeutung gewichtet, wobei die externen und die internen Faktoren getrennt behandelt werden. Für beide Gruppen beträgt die Summe aller Einzelgewichtungen 1. Ihnen werden die Strategien gegenüber gestellt. Jede von ihnen wird jetzt nacheinander im Verhältnis zu jedem externen und internen Faktor bewertet (David 1986). Im update 16 | ss 2013 | lehre und studium
4.3 Nutzwerte berechnen und vergleichen Der Nutzwert ergibt sich aus dem Nutzen jeder Strategie in Bezug auf einen internen oder externen Faktor multipliziert mit der Gewichtung des jeweiligen Faktors. Negative Nutzwerte weisen auf spezifische Probleme und Risiken hin, positive Nutzwerte auf Chancen und gute interne Grundlagen. Negative Einflüsse können möglicherweise durch eine gezielte Anpassung der Strategie verringert werden. Für jede Strategie wird die Summe der Nutzwerte berechnet. Zusätzliche Informationen werden durch eine getrennte Addition negativer und positiver Nutzwerte erhalten: bei Strategien mit einem gleichen Summennutzwert können dadurch Unterschiede im Risikoprofil oder bei den zu erwartenden Umsetzungsproblemen sichtbar gemacht werden.
4.4 Überprüfen der Ergebnisse Abschließend werden die Unterschiede zwischen den einzelnen Optionen diskutiert: Ergibt sich eine eindeutige Priorität? Welche Faktoren machen den Unterschied aus? Ist dieses Ergebnis plausibel? Bestehen zwischen den Optionen Abhängigkeiten, so 17
Nutzen
Schwerpunkt: altersgerechtes Bauen und Umbauen
Bewertung
Nutzen
Nutzen
Schwerpunkt energetische Sanierung öfftl. Sektor und PPP-Projekte
Bewertung
Schwerpunkt privater Sektor: energetische Sanierung Bestand
Bewertung
Nutzen
Bewertung
Gewichtung
Marktanteile vergrößern, um Umsatz zu halten
Chancen steigende Energiepreise und energetische Anforderungen Gebäude
0,3
0
0
5
1,5
5
1,5
1
0,3
demographische Veränderungen – altersgerechtes Bauen
0,2
0
0
0
0
0
0
5
1
Steigende Ansprüche an Wohnfläche und Qualität
0,1
2
0,2
1
0,1
0
0
3
0,3
0
0
-3
-0,6
0
0
-0,1
-2
-0,2
Bedrohungen
0
mittelfristig sinkende öfftl. Investitionen
0,2
2
0,4
steigende Materialkosten wg. Energiepreisen
0,1
Sinkendes Neubauvolumen wg. Bevölkerungsrückgang
0,1
1
0,1
0
0
0
0
2
0,2
qualifizierte Mitarbeiter
0,2
2
0,4
4
0,8
4
0,8
4
0,8
Gute Marktstellung bei öfftl. Aufträgen
0,15
3
0,45
0
0
4
0,6
0
0
hohe Reputation bei Architekten
0,05
3
0,15
2
0,1
2
0,1
4
0,2
hohe Flexibilität gegen-über Kundenwünschen
0,2
3
0,6
4
0,8
3
0,6
4
0,8
gute Liquidität und hohe EK-Quote
0,1
3
0,3
1
0,1
3
0,3
1
-0,1
-0,1
Stärken
Schwächen
0
0
0
0,1 0
ungünstige Alterstruktur Mitarbeiter
0,05
-1
-0,05
-2
-0,1
-2
-0,1
-2
-0,1
beschränktes Leistungsspektrum bei Gewerken
0,15
-2
-0,3
-3
-0,45
-2
-0,3
-4
-0,6
geringe Flexibiliät in Kapazität
0,1
-1
-0,1
-1
-0,1
-2
-0,2
-1
-0,1
Nutzwert gesamt Nutzen/Risiken
2,05 +2,6/-0,55
2,65 +3,4/-0,75
2,6
2,7
3,9/-1,3
+3,7/-1
Tab. 5: QSP-Matrix (Quelle: Paul/Wollny 2011)
dass eine bestimmte Kombination und Reihenfolge der Umsetzung zwingend ist? Die Robustheit kann durch Veränderung der Gewichtungsfaktoren in der Analyse geprüft werden. Sind die Ergebnisse nicht robust, werden statt SWOT besser genauere und spezifischere Strategiewerkzeuge angewendet. Abschließend werden die Handlungsoptionen mit dem höchsten Nutzwert ausgewählt. Im Beispiel (Tabelle 5) erhält die defensive Strategie „Marktanteile vergrößern“ einen deutlich schlechteren Nutzwert. Die drei anderen Strategieoptionen haben einen höheren, aber untereinander vergleichbaren Nutzwert. Die Schwierigkeiten sind im privaten Sektor am geringsten, allerdings sind dort auch die Chancen beschränkt. 18
5. Empfehlungen für den Einsatz der SWOT-Analyse an der Hochschule Die SWOT-Analyse kann zur Bearbeitung von Fallstudien oder zur Analyse von Unternehmen auf Basis eigener Recherchen der Studierenden eingesetzt werden. Wegen ihrer schwachen methodischen Ausprägung kann SWOT flexibel an das Kursniveau und die Anforderungen der Beteiligten angepasst werden: eher informell und intuitiv oder mehr analytisch und formal. SWOT fordert zur Auseinandersetzung mit Veränderungen der Unternehmensumwelt und deren Bedeutung auf – bieten sich Chancen oder entwickeln sich Bedrohungen (Jacobs et al. 1998)? Gleichzeitig müssen sich die Anwender mit der internen Situation und den Ressourcen des Unternehmens beschäflehre und studium | update 16 | ss 2013
tigen. Damit werden mögliche Strategieoptionen eingeschränkt – denn eventuell müssen interne Ressourcen gestärkt oder neu aufgebaut werden. Mögliche Anwendungsfehler: Interne und externe Faktoren werden planlos analysiert, so dass keine neuen Erkenntnisse gewonnen werden. Deshalb: systematisch anhand der Checklisten vorgehen und alle relevanten Bereiche prüfen. SWOT ermöglicht als Rahmen den Einsatz anderer geeigneter, detaillierterer Methoden zur Analyse interner und externer Faktoren. „Our preference is to use the technique only as a culmination of other more focused methods”(Angwin et al. 2008, S. 10). Immer wieder werden Handlungsoptionen des Unternehmens mit Chancen verwechselt. Beispiel: Ein neues Produkt auf den Markt zu bringen ist eine Handlungsoption. Sinn macht diese Option jedoch nur, wenn die Umwelt dafür eine Chance bietet: Marktwachstum oder neue Märkte, soziokulturelle Trends bedingen neue Nachfragen, neue Technologien eröffnen neue Möglichkeiten. Keine Handlungsoptionen als Chancen aufnehmen! Die interne Analyse bezieht sich auf die Gegenwart, die externe Analyse aber auf die Zukunft. Innerhalb des gewählten Zeitrahmens sind, um eine zu statische Betrachtung des Unternehmens zu vermeiden, auch interne Veränderungen zu berücksichtigen. Im vorgeschlagenen dreistufigen Vorgehen erfolgt die Bewertung von Stärken und Schwächen in Bezug auf die heutige und auf eine zukünftige Strategie (Koch 2000, Müller-Stewens/ Lechner 2005) automatisch. Mit der eindeutigen Einstufung der Faktoren als Stärke oder Schwäche und Chance oder Bedrohung polarisiert die SWOTAnalyse, reduziert Komplexität und lenkt die Aufmerksamkeit „von den Bäumen auf den Wald“. Die Notwendigkeit von Entscheidungen und Maßnahmen wird deutlich und damit der Sinn eines strategischen Managements. In der modularisierten Hochschulwelt ermöglicht SWOT die Erfahrung, das Schubladendenken zu verlassen und sich eine Gesamtschau über ein Unternehmen zu erarbeiten. SWOT kann zur Erarbeitung von endlos langen, wenig aussagefähigen Listen führen (vgl. Hill/Westbrook 1997). Dies wird durch eine Auswahl und Begrenzung auf die jeweils maximal zehn wichtigsten Faktoren vermieden. Mit der TOWS-Matrix werden Zusammenhänge zwischen einzelnen internen und externen Faktoren ermittelt. Dafür werden dann strategische Optionen als unmittelbare Reaktion ermittelt oder es werden neue unternehmerische Ansätze gesucht. Oft wird SWOT über die Multiplikation von internen und externen Gewichtungsfaktoren in jedem der vier Quadranten ausgewertet. Dann wird ein Quadrant als zu bevorzugende Strategie ausgewählt. Die SO-, WO-, ST- oder WT-Quadranten sind aber keine Normstrategien, sondern nur ein Klassifizierungsschema update 16 | ss 2013 | lehre und studium
für einzelne Optionen, die unabhängig vom Quadranten miteinander kombiniert werden können. Mit der QSPM können die erarbeiteten strategischen Handlungsoptionen in Beziehung zu allen internen und externen Faktoren gesetzt werden und es kann bewertet werden, wie eine Option zur konkreten Situation des Unternehmens passt. Gleichzeitig werden die Optionen verglichen und relativ zueinander bewertet. Die in SWOT verwendeten quantitativen Beurteilungen und die Nutzwertanalyse (QSPM-Matrix) sind transparent, aber subjektiv durch die Auswahl und die Gewichtung der Zielkriterien sowie die Skalierung der Bewertung. Es besteht die Gefahr, dass das Ergebnis als „objektiv“ nicht mehr in Frage gestellt wird. Die Robustheit der Bewertung muss daher überprüft werden. (Eine Bewertung von Strategieoptionen durch mehrere Gruppen macht die Subjektivität anschaulich.)
6. Grenzen von SWOT SWOT ist geeignet für eine grundlegende Bestandsaufnahme und eine Neuorientierung eines Unternehmens, z.B. wenn dieses erstmals bewusst strategisch zu planen beginnt, eine vorhandene strategische Planung grundlegend überarbeiten will oder interne und externe Veränderungen unausweichlich sind. Über positive Erfahrungen dabei berichtet Dyson (2007). Für bereits erkannte, konkrete und eingrenzbare Probleme eines Unternehmens gibt es bessere und passendere Analyseinstrumente! Eine SWOT-Analyse ist ungeeignet, wenn sich die Unternehmen einer Branche sehr ähneln oder die externe Umwelt entweder sehr stabil oder aber völlig unübersichtlich ist. Im ersten Fall sind marktorientierte Instrumente geeigneter, im zweiten Konkurrenzanalysen (z.B. Benchmarking) und im dritten Szenariotechniken. Mit SWOT können vom Unternehmen gesetzte Ziele nicht als Kriterium in die Bewertung der Handlungsoptionen einfließen. Die Ausrichtung an ihnen kann nur indirekt oder über einen weiteren Bewertungsschritt erfolgen. Die Auswahl der Faktoren, der Wechselwirkungen und die Bewertungen der Optionen hat keine unmittelbare wirtschaftliche Aussagekraft. Eine Kombination mit „harten Methoden“ ist daher zu empfehlen. SWOT zielt auf Strategien, die auf den Fit zwischen internen und externen Faktoren zugeschnitten sind, lässt aber Möglichkeiten einer grundsätzlichen Veränderung oder revolutionären Strategie (Hamel 1996) mit den größten Erfolgspotenzialen außer Acht.
19
Literatur Angwin, D., Cummings, S., Smith, C. (2008): The Strategy Pathfinder, Malden, MA, USA.
Johnson, G., Whittington, R., Scholes, K. (2011): Exploring Corporate Strategy, 9. 2nd ed., Harlow, Essex, UK.
Ansoff, I. (1965): Corporate Strategy,Harmondsworth, Middlesex, UK et al.
Koch, A. (2000): SWOT Does Not Need To Be Recalled: It Needs to Be Enhanced, Part 1: Description of the problem, Hawthorn, Australia, http:// www.westga.edu/~bquest/2000/ swot1.html, Abruf 10.05.2010.
Brownlie, D. (1989): Scanning the internal environment: impossible precept or neglected art?, in: The Journal of Marketing Management, No 3, p. 300–329. David, F. (1986): The Strategic Planning Matrix – A Quantitative Approach, in: Long Range Planning, No. 5, p. 102–107. Dyson, R. (2007): Methods for Creating Strategic Initiatives, in: O’Brien, F., Dyson, G. (eds.): Supporting Strategy, Framework, Methods and Models, Chichester, West Sussex, UK, p. 137–154.
Learned, E. P., Christensen, C. R., Andrews, K. E., Guth, W. D. (1965): Business Policy: Text and Cases, Irwin, IL, USA. Müller-Stewens, G., Lechner, C. (2005): Strategisches Management, 3. Aufl., Stuttgart. Panagiotou, G. (2003): Bringing SWOT into focus, in: Business Strategy Review, No. 2, p. 8–10.
Grant, R. (2010): Contemporary Strategy Analysis, 7th ed., Malden, MA, USA.
Porter, M. E. (1980): Competitive Strategy Techniques for Analyzing Industries and Competitors, New York/London.
Grünig, R., Kühn, R. (2009): Methodik der strategischen Planung, 5. Aufl, Bern.
Paul, H., Wollny, V. (2011): Instrumente des strategischen Managements. Grundlagen und Anwendung, München.
Hamel, G. (1996): Strategy as Revolution, in: Harvard Business Review, No. 4, p. 69–82.
Stevenson, H. (1976): Defining Corporate Strength and Weaknesses, in: Sloan Management Review, No. 3, p. 51–68.
Hill, T., Westbrook, R. (1997): SWOT Analysis: It’s Time for a Product Recall, in: Long Range Planning, No. 1, p. 46–52.
Weihrich, H. (1982): The TOWS Matrix – A tool for Situational Analysis, in: Long Range Planning, No. 2, p. 54–66.
Hinterhuber, H. (1996): Strategische Unternehmensführung I. Strategisches Denken, 6. Aufl., Berlin.
Welge, M., Al-Laham, A. (2008): Strategisches Management, 5. Aufl., Wiesbaden.
Humphrey, A. S. (2005): SWOT Analysis for Management Consulting, in: SRI Alumni Association Newsletter, December, p. 7–8.
Wheelen, T. L., Hunger, J. D. (2010): Strategic Management and Business Policy. Achieving Sustainability, 12th ed., Boston.
Jacobs, T., Shepherd, J., Johnson, G. (1998): Strengths, Weaknesses, Opportunities and Threats (SWOT) analysis, in: Ambrosini, V. (ed.): Exploring Techniques of Analysis and Evaluation in Strategic Management, Harlow, Essex, UK, p. 122–136.
Wikipedia (2012a): Anonymus: SWOT_Analyse, Version vom 20.07.2012, Wikipedia, Abruf 10.08.2012.
20
Wikipedia (2012b): Anonymus: SWOT-Analysis, Version vom 05.08.2012, Wikipedia, Abruf 10.08.2012, (http://eng.wikipedia.org/wiki/SWOT-analysis)
lehre und studium | update 16 | ss 2013
Unternehmensplanspiele in der Hochschullehre Britta Rathje
1. Einleitung Der Einsatz von Planspielen als Lehr- bzw. Lernmethode erfreut sich einer immer größeren Beliebtheit. In den USA setzen bereits rund 98 % der akkreditierten Universitäten Planspiele ein. Auch in Deutschland kommen Planspiele in den Hochschulen immer häufiger zum Einsatz. Dabei sind die Planspiele meist nicht fest im Curriculum verankert, werden aber häufig den Studierenden als Wahl- bzw. Wahlpflichtfach angeboten. Mit dem Einsatz von Planspielen verspricht man sich insbesondere ein hohes Maß an Lerntransfer durch gelebte Erfahrungen. Dieses Ziel kann jedoch nur erreicht werden, wenn das Planspiel und die Aktivitäten des Dozenten konsequent auf die jeweilige Zielgruppe abgestimmt sind.
Prof. Dr. Britta Rathje lehrt Rechnungswesen und Controlling an der Fachhochschule Mainz. E-Mail: britta.rathje@wiwi.fh-mainz.de
2. Was ist ein Unternehmensplanspiel?
genutzt werden, z.B. Planspiele zur Ausbildung von Feuerwehrleuten. Auch der Flugsimulator, der in der Pilotenausbildung eingesetzt wird, kann dazu gezählt werden.
Grundsätzlich können Planspiele als eine Methode zur Simulation eines Ausschnittes der Realität bezeichnet werden. Sie werden häufig zu Trainings-, Lehr- bzw. Lernzwecken eingesetzt, damit die Spieler bestimmte Handlungs- bzw. Ereignissituationen erleben und darin Erfahrungen sammeln können. In einem Planspiel sollen die Teilnehmer Fähigkeiten und Kenntnisse möglichst realitätsnah erwerben können. Gemäß Geuting zeichnet sich ein Planspiel im Wesentlichen durch drei Komponenten aus:
Die am weitesten verbreitete Planspielform ist das Unternehmensplanspiel. Unternehmensplanspiele sind eine mehr oder weniger komplexe Abbildung von unternehmerischen Prozessen. Die Teilnehmer müssen in der Regel die Rolle eines Managers übernehmen und bestimmte unternehmerische Entscheidungen treffen. Daher eignen sie sich insbesondere für das Training von Management- und Führungskompetenzen.
§§ Simulationsmodell: Die Simulation als modellhafte Abbildung der Realität ist der Kern der Methode. Anhand der Simulation können reale Begebenheiten gegebenenfalls vereinfacht wiedergegeben werden, sollen aber gleichzeitig möglichst realitätsnah sein. §§ Rollenspiel: Die Teilnehmer eines Planspieles müssen bestimmte Rollen übernehmen. Dadurch wird die Simulation zu einer erfahrbaren Begebenheit und verbleibt nicht mehr bloß als ein distanziertes Objekt der Betrachtung. §§ Regelspielkomponente: Erst durch das Spiel kommt es zu einer Dynamisierung des Modells. Dabei unterliegen die Teilnehmer bestimmten Bedingungen, den Spielregeln. Planspiele werden in den verschiedensten Bereichen eingesetzt. Beispielsweise gibt es zahlreiche Planspiele zur politischen Bildung oder auch spezielle Planspiele, die in der Berufsausbildung update 16 | ss 2013 | lehre und studium
Ihren Ursprung haben alle Planspiele im militärischen Bereich. Klassische Brettspiele, wie z.B. Schach, werden als die Vorläufer der heutigen Planspiele angesehen. Im 18. Jahrhundert wurden diese Brettspiele in der preußischen Offiziersausbildung zur Schulung des strategischen Denkens eingesetzt. Diese abstrakten Spiele wurden bald weiterentwickelt und realitätsnäher gestaltet, so dass beispielsweise das Spielbrett durch Landkarten und die Spielfiguren durch militärische Mittel ersetzt wurden. Diese Weiterentwicklung der Planspiele beinhaltete später auch eine Ausweitung auf andere Ausbildungsbereiche und hält bis heute an. Ab den 1950er Jahren konnten erstmals durch den Einsatz von Computern größere Datenmengen verarbeitet werden. 1956 entwickelte die American Management Association das erste computergestützte Unternehmensplanspiel. Heute existiert eine fast unüberschaubare Anzahl verschiedener Unternehmensplanspiele in unterschiedlicher Ausgestaltung und mit verschiedenen Schwerpunktsetzungen. 21
Wie Abbildung 1 zeigt, können die verschiedenen Unternehmensplanspiele zumindest grob in die dort dargestellten, typischen Planspielformen, untergliedert werden.
kurrenzplanspielen ist die Analyse der Ergebnisse komplexer, da die Unternehmensentwicklung nicht nur von den eigenen Entscheidungen abhängt, sondern auch von den Konkurrenzunternehmen beeinflusst wird. Die Möglichkeiten der Ausgestaltung von Planspielveranstaltungen sind äußerst vielfältig. Dennoch gilt für nahezu alle Planspiele ein idealtypischer Verlauf, der im Planspielschrifttum „Aktionssequenz“ genannt wird:
Abb. 1: Planspielformen
Zunächst kann zwischen haptischen und computergestützten Planspielen unterschieden werden. In haptischen Planspielen wird als Spielmedium ein Spielbrett benutzt (wie beispielsweise in „Monopoly“). Die Unternehmensrealität wird in haptischen Planspielen meist sehr vereinfacht dargestellt, wodurch die Teilnehmer die Resultate ihrer Entscheidungen und Aktivitäten sehr gut nachvollziehen können. Bei computergestützten Planspielen wird das Spielbrett durch eine Software ersetzt. Diese ermöglicht es, sehr viel komplexere Unternehmensstrukturen darzustellen, weswegen die Spiele auch häufig einen höheren Schwierigkeitsgrad haben. Computergestützte Planspiele, die offline gespielt werden, beinhalten zwar oft eine digitale Datenübermittlung, d.h. die Spieler übergeben ihre Entscheidungen an den Spielleiter auf einem Stick, einer CD oder per E-Mail. Der Spielleiter simuliert dann anhand einer Software den Markt und transferiert die Daten wieder digital an die Teams zurück. Oftmals beinhaltet diese Spielform eine gemeinsame Analysephase, in der sich die Teams mit dem Spielleiter treffen, um die Ergebnisse der Spielperiode zu analysieren und zu diskutieren. Hier hat der Spielleiter die Möglichkeit, den Teilnehmern direkte Hilfestellung für die weiteren Perioden zu geben. Dagegen sehen Online-Planspiele keine Anwesenheitsphasen vor. Die Datenübertragung und -auswertung erfolgt ausschließlich internetbasiert. Dies ermöglicht eine größere Flexibilität bzgl. der regionalen Verteilung der Teilnehmer, deren Spielorte sehr weit voneinander entfernt liegen können und die nur virtuell aufeinandertreffen. Der Spielleiter kann dann beispielsweise durch Blended-Learning-Instrumente oder Online-Konferenzen Hilfestellung bieten. Planspiele können auch hinsichtlich der Interaktion zwischen den Teilnehmern unterschieden werden. In Solospielen beeinflussen sich die mitspielenden Teams nicht gegenseitig. Jedes Team hat unabhängig von den anderen Teams eine bestimmte Aufgabe zu erfüllen. Dadurch können die Ergebnisse der Entscheidungen sehr gut nachvollzogen werden, da keine Einflussparameter von außen zu berücksichtigen sind. In Kon22
Zu Beginn müssen die Teilnehmer in das Planspiel eingeführt werden. Alle wichtigen Informationen über beispielsweise die Größe und Art des Unternehmens sowie dessen Produkte, die Marktsituation und über die zu treffenden Entscheidungen, sind oft in einem Handbuch enthalten, das von den Teilnehmern zunächst durchgearbeitet werden muss. Zusätzlich kann der Spielleiter mündlich auf besonders relevante Aspekte hinweisen. Danach finden sich die Teilnehmer in Teams von idealerweise drei bis fünf Mitgliedern zusammen, wobei grundsätzlich ein Team ein Unternehmen verkörpert. Im Regelfall ist die Ausgangssituation identisch für alle Teams, sie kann sich aber auch unterscheiden. In den Teams ist daraufhin die Entscheidungsplanung durchzuführen. Dies bedeutet konkret, dass die Ausgangslage des Unternehmens kritisch analysiert werden muss, auf Basis dessen verschiedene Handlungsalternativen aufgestellt werden und schließlich eine Alternative ausgewählt wird. Diese Entschlussfassung wird an den Spielleiter weitergegeben, d.h. eine simulierte, hypothetisch angenommene Aktion wird durchgeführt. Die Übermittlung der Entscheidungen an den Spielleiter kann durch Eingabe der Entscheidungen in ein Software-Modul oder durch das schriftliche Ausfüllen und Weitergeben von Entscheidungsformularen geschehen. Nach Auswertung der Entscheidungen durch den Spielleiter erhalten die Teilnehmer eine Rückmeldung über die Auswirkung ihrer Aktionen und den derzeitigen Stand ihres Unternehmens. Die Rückmeldung kann anhand von schriftlichen Unterlagen (z.B. Geschäftsberichte) und/oder in einer Diskussion im Plenum erfolgen. Aufbauend auf diesen Ergebnissen kann die nächste Spielperiode beginnen, wobei sich die zuvor beschriebene Abfolge wiederholt. Dieser Zyklus (Analyse der Ausgangslage, Entscheidungsfindung, Entscheidungsübermittlung, Rückmeldung) wiederholt sich in jeder Spielperiode.
3. Lehren mit Unternehmensplanspielen Unternehmensplanspiele werden immer häufiger in der Berufsausbildung eingesetzt und erfreuen sich auch in der Hochschullandschaft immer größerer Beliebtheit. Sie sind jedoch selten verpflichtender Bestandteil eines Curriculums, sondern werden oft als Wahl(pflicht-)fach angeboten.
3.1 Lernziele Die mit dem Einsatz von Unternehmensplanspielen verbundenen Lernziele können vielfältig sein. Zum einen kann erworbelehre und studium | update 16 | ss 2013
nes Faktenwissen wiederholt und verfestigt werden. Beispielsweise können Aspekte des Marketings wiederholt werden, indem der Marketing-Mix eines Spielunternehmens von den Studierenden anhand bestimmter Fragestellungen analysiert wird. Noch wichtiger erscheint die Schulung von vernetztem Denken. Während des Studiums lernen die Studierenden die verschiedenen Funktionsbereiche eines Unternehmens kennen, wie z.B. Personalwirtschaft, Rechnungswesen, Marketing usw. Durch das modulhafte Lernen kann der Eindruck entstehen, dass kaum Interdependenzen zwischen diesen Funktionen bestehen. In einem Planspiel kann aber das Wissen verschiedener Fächer vernetzt werden. Da die Studierenden oftmals die Rolle eines Managers übernehmen, ist eine entsprechende ganzheitliche Denk- und Handlungsweise unabdingbar. Darüber hinaus können Planspiele zielorientiertes bzw. problembasiertes Handeln fördern. So müssen die Gruppenmitglieder in der Regel eine Strategie für ihr Unternehmen erarbeiten und Ziele festlegen. Die Erreichung der Ziele muss laufend kritisch überprüft werden. Das Nichterreichen der Ziele macht das Reflektieren der bisherigen Aktionen und gegebenenfalls eine Abänderung zukünftiger Planungen oder eine Zielrevision erforderlich. Auf diese Weise lernen die Studierenden einerseits die Wichtigkeit klarer Zielformulierungen und andererseits die kritische Analyse eigenen Handelns kennen. Weiterhin können mit Planspielen bestimmte soziale Kompetenzen gefördert werden. Da in Unternehmensplanspielen in der Regel ein virtuelles Unternehmen von mehreren Teammitgliedern gemanagt wird, sind bestimmte gruppendynamische Prozesse zentraler Bestandteil eines Planspiels. Die Teammitglieder müssen ihre Entscheidungen gemeinschaftlich und oft unter einem gewissen zeitlichen Druck fällen. Dabei müssen nicht selten Kompromisse geschlossen werden. Die Studierenden können auf diese Weise ihre Teamfähigkeit trainieren. Insbesondere sind kooperatives Verhalten und kommunikative Fähigkeiten gefragt. Es können aber auch weitere Fertigkeiten, wie beispielsweise Präsentationstechniken, trainiert werden. Die Spannweite reicht hier von der Vorstellung ausgewählter Zwischenergebnisse durch einzelne Teammitglieder bis hin zur Organisation einer Jahreshauptversammlung mit entsprechenden Vorträgen. Insgesamt ist die Tendenz, möglichst viele Lernziele mit der Durchführung eines einzigen Planspieles zu verfolgen aus der Perspektive kommerzieller Planspielanbieter zwar nachvollziehbar, muss jedoch aus pädagogisch-didaktischer Perspektive kritisch hinterfragt werden. Die Verfolgung nur eines bzw. die Hervorhebung weniger Ziele scheint geeigneter, um eine Überforderung der Studierenden zu vermeiden. Darüber hinaus kann ein Planspiel nicht das Erreichen bestimmter Lernziele garantieren. Es wird daher in der Literatur vorgeschlagen, dass man nicht von Lernzielen, sondern von Lernpotenzialen spricht. update 16 | ss 2013 | lehre und studium
3.2 Praktische Durchführung Die Freiheitsgrade und die Flexibilität bezüglich des Einsatzes und der inhaltlichen Ausgestaltung von Unternehmensplanspielen sind sehr hoch. Dies bedeutet jedoch, dass sich die Lehrenden selbst zunächst ein genaues Konzept zur Durchführung des Planspiels erarbeiten müssen. Nur so kann gewährleistet werden, dass die gesteckten Lernziele auch erreicht werden. Abbildung 2 zeigt die wichtigsten Bausteine, die bei der Seminarkonzeption zu beachten sind.
Abb. 2: Bausteine der Seminardurchführung
Zunächst sind einige Vorüberlegungen zum Seminar zu treffen. In diesem Zusammenhang ist es wichtig, die Zielgruppe genau zu kennen, denn in Abhängigkeit von der Zielgruppe ist die Art des einzusetzenden Planspiels zu wählen. Die Zielgruppen können sehr unterschiedlich sein und reichen von Studierenden mit wenig oder keiner Praxiserfahrung über Studierende in MasterKursen, die bereits einiges Wissen mitbringen bis hin zur berufspraktischen Ausbildung von Führungspersönlichkeiten. Bei Studierenden in den ersten Semestern eines Bachelor-Studiums bieten sich einfach strukturierte Planspiele an, bei denen wenig Vorwissen benötigt wird. Im Master-Studium können dagegen wesentlich komplexere Unternehmensplanspiele zum Einsatz kommen. Planspiele eignen sich auch insbesondere dafür, Studierende bzw. Auszubildende verschiedener Fachrichtungen in einem Kurs zu unterrichten. Durch diese interdisziplinäre Arbeit können die Zusammenhänge im Unternehmen noch stärker vergegenwärtigt werden. Die Wahl der Planspielform hängt darüber hinaus von den gesteckten Lernzielen ab. Sollen beispielsweise eher generelle Managementfähigkeiten eingeübt werden, ist die Auswahl eines eher generalistischen bzw. strategisch ausgerichteten Planspiels empfehlenswert. Für das Erlernen und Vertiefen spezieller Funktionen im Unternehmen, wie z.B. Marketing, Rechnungswesen oder Logistik, sind auch Planspiele erhältlich, die nahezu ausschließlich diese Bereiche abdecken. Auch branchenspezifische Planspiele, z.B. für die Bereiche Bank- und Finanzwesen, Immobilienwirtschaft, Gesundheitswesen oder Handel, können zum Einsatz kommen. Darüber hinaus ist die Zahl der Teilnehmer zu bedenken. Planspiele können mit wenigen oder auch mit hunderten von Teilnehmern durchgeführt werden. Hier ist jedoch auch die zur 23
Verfügung stehende Infrastruktur zu beachten. Beispielsweise sind bei Präsenzseminaren mit großen Teilnehmergruppen entsprechend große Räumlichkeiten zu reservieren. Außerdem müssen hier gegebenenfalls weitere Trainer eingesetzt werden. Bei Online-Seminaren ist sicherzustellen, dass alle Teilnehmer über einen PC bzw. Laptop mit Internetzugang verfügen. Ist die Art des Planspiels in Abhängigkeit von der Zielgruppe und den Lernzielen ausgewählt, müssen die Konzeption und die Inhalte des Seminars festgelegt werden. Auch diesbezüglich stehen den Dozenten nahezu unbegrenzte Möglichkeiten zur Verfügung. Oftmals werden die praktischen Spielperioden mit Theorieeinheiten verknüpft. Im Rahmen eines betriebswirtschaftlichen Planspiels können z.B. die Themen Marketing, Personalwesen, Produktion, Logistik, Jahresabschluss, Kostenrechnung etc. theoretisch erarbeitet und anhand des Planspiels nochmals eingehender analysiert werden. Planspiele können auch durch Expertenvorträge zu bestimmten Themen oder Fallstudien aus real existierenden Unternehmen ergänzt werden. Darüber hinaus sind viele weitere Arbeitsaufträge denkbar, welche wiederum in Abhängigkeit der gesteckten Lernziele eingesetzt werden können. Beispielsweise können Strategiepapiere erarbeitet, Verhandlungen mit Kunden oder Lieferanten, Lohnverhandlungen oder Gespräche mit dem Betriebsrat nachgestellt oder spezielle Marketingkonzepte konzipiert werden. Aus eigener Erfahrung ist es wichtig, nach jeder gespielten Periode zumindest eine kurze Auswertungs- bzw. Feedback-Phase einzuplanen. Im Rahmen von Präsenz-Seminaren kann dann der Dozent im Plenum oder in den einzelnen Teams die Ergebnisse der jeweiligen Spielperiode besprechen. Dabei kann der Trainer auf Fehlentwicklungen hinweisen, Tipps für die Folgeperiode geben oder auch „Best Practices“ herausstellen. Insbesondere das Lernen aus gemachten Fehlern führt in der Regel zu besonders nachhaltigem Wissenserwerb. Auch die Konzeption des Seminars kann unterschiedlich ausfallen. Es ist möglich, das Planspiel in Blockseminaren innerhalb weniger Tage durchzuführen. Einfach strukturierte Planspiele können sogar nur wenige Stunden in Anspruch nehmen. Überlegenswert ist auch die Möglichkeit, das Planspiel als eine Art Event zu veranstalten. Das Planspiel wird dann außerhalb der Hochschule innerhalb von etwa zwei bis drei Tagen durchgeführt, wobei die Teilnehmer in der Regel am Veranstaltungsort übernachten. Tagungshotels bieten beispielsweise die nötige Infrastruktur zur Durchführung eines Planspiels. Dieses Seminarkonzept bietet eine besonders intensive Lernatmosphäre und wird oftmals von den Teilnehmern als besonderes Erlebnis empfunden. Andererseits sind die durch den Wechsel der Örtlichkeit anfallenden höheren Kosten zu beachten. Planspiele können auch über einen längeren Zeitraum bzw. über ein ganzes Semester gespielt werden. Die regelmäßig stattfindenden Veranstaltungen können dann z.B. für Theorieeinheiten, das gemeinsame Besprechen der Periodenergebnisse und 24
andere Arbeitsaufträge genutzt werden. Die Teilnehmer haben auf diese Weise genügend Zeit, ihre jeweiligen Entscheidungen vorzubereiten; der Zeitdruck für die Teilnehmer ist in der Regel nicht so hoch wie bei Blockseminaren. Es ist jedoch zu bedenken, dass sich die Studierenden, im Gegensatz zu Blockseminaren, gegebenenfalls nicht so intensiv mit dem Planspiel beschäftigen. Die Gefahr, dass das Planspiel im Studierendenalltag hinter anderen Fächern oder sonstigen Pflichten der Studierenden zurücktritt, ist immanent. In der Regel muss der Dozent nach Abschluss des Seminars Noten vergeben. Auch bezüglich der Notengebung stehen verschiedene Möglichkeiten offen. Zum einen kann eine Klausur, d.h. eine schriftliche Prüfung im klassischen Sinne, konzipiert werden. Dies bietet sich vor allem dann an, wenn die Theorieeinheiten Hauptbestandteil des Unterrichts sind, und das Planspiel zur Veranschaulichung oder Vertiefung des behandelten Stoffes genutzt wird. Zum anderen kann auch auf alternative Prüfungsformen, wie das Verfassen von Hausarbeiten und/oder das Halten einer Präsentation, zurückgegriffen werden. Beispielsweise kann von den Studierenden die Organisation einer Jahreshauptversammlung verlangt werden. In dieser Jahreshauptversammlung müssen die Teams darlegen, wie ihre Strategie konzipiert ist, ob die selbst gesteckten Ziele erreicht wurden, wie sich das Unternehmen in der Vergangenheit entwickelt hat und wie die Perspektiven für die Zukunft aussehen. Darüber hinaus ist die Benotung der eigentlichen Spielleistung selbst zumindest überlegenswert. Dazu müssen allerdings vor Beginn des Planspiels klare Regeln und Benotungskriterien geschaffen und an die Studierenden kommuniziert werden. Die Benotung der Spielleistung kann zu einer noch höheren Motivation der Studierenden führen. Vor allem für weniger erfolgreiche Teams kann dies jedoch auch in einer eher demotivierenden Wirkung enden. Die Autorin selbst hat gute Erfahrung mit der Vergabe von Bonuspunkten gemacht (z.B. die Studierenden des Gewinner-Teams verbessern ihre Note um 0,3, also beispielsweise von 2,0 auf 1,7). Damit wird die Motivation aller Studierenden sichergestellt, ohne dass es zu verkrampften Aktivitäten aufgrund zu hohen Notendrucks kommt.
3.3 Kritische Analyse Mit dem Einsatz von Planspielen wird eine Reihe von Vorteilen verbunden: Die Teilnehmer können praktische Erfahrungen als Manager anhand des virtuellen Unternehmens sammeln. Es besteht dabei die Möglichkeit, Extrementscheidungen auszuprobieren oder kreative Strategien umzusetzen, ohne dass ein real existierendes Unternehmen unter solchen risikobehafteten Entscheidungen leiden müsste. Grundsätzlich führen diese praktischen Erfahrungen zu einer motivierenden Wirkung und zu einem nachhaltigen Lernerfolg. Die Auseinandersetzung mit realitätsnahen Problemstellungen erfordert eine aktive Mitarbeit der Studierenden. Nach Erkenntnissen der Lernpsychologie können durch einen solchen, auf Aktivität ausgerichteten lehre und studium | update 16 | ss 2013
Lernprozess bessere Lernerfolge erzielt werden, als durch die passive Aufnahme von Informationen im Rahmen einer klassischen Vorlesung im Vortragsstil. Insbesondere die Vermittlung von Transferwissen und die Schulung von vernetztem Denken werden durch dieses problembasierte Lernen gefördert. Auch die Arbeit im Team kann durchaus motivierend wirken, da das Lernen nicht mehr nur als rein individueller Entwicklungsschritt aufgefasst wird, sondern durch die Interaktion im Team in einem bestimmten sozialen Umfeld stattfindet. Interdisziplinär zusammengesetzte Teams schulen zudem die Kommunikationsfähigkeiten und erlauben den Teilnehmern über den „Tellerrand“ der eigenen Fachrichtung zu schauen. Andererseits darf nicht davon ausgegangen werden, dass der Einsatz eines Planspieles für die Umsetzung der genannten Chancen und Lernziele garantiert. Gerade problemorientierte Lernumgebungen können bei den Teilnehmern zu einer Überforderung führen, die eine entsprechende demotivierende Wirkung nach sich ziehen kann. In dieser Hinsicht befinden sich die Lehrenden in einem Spannungsverhältnis: Einerseits sollen Planspiele möglichst realitätsnah ausgestaltet werden. Ein solches, nahe an der Realität ausgelegtes Planspiel beinhaltet aber gleichzeitig eine hohe Komplexität und eine hohe Entscheidungsvielfalt, die von den Teilnehmern zu bewältigen ist. Diese Komplexität kann schnell zur Überforderung führen, u.a. weil Ursache- und Wirkungsbeziehungen kaum noch klar aufgedeckt werden können. Die Rolle des Seminarleiters besteht in dieser Situation darin, die Komplexität durch entsprechende Instruktionen und unterstützende Maßnahmen zu minimieren. Dagegen führt das Zurückgreifen auf einfachere Planspiele nicht immer zum gewünschten Motivationserfolg, denn bei einfach strukturierten Simulationen geht die Realitätsnähe verloren und die unternehmerischen Herausforderungen sinken, was sich wiederum negativ auf den Kompetenzerwerb auswirken kann. Der Seminarleiter muss daher in Abhängigkeit von der Zielgruppe sowohl die Art des Planspiels als auch seine unterstützenden Maßnahmen so auswählen, dass sich die Teilnehmer weder unter- noch überfordert fühlen. Auch die Zusammensetzung der einzelnen Gruppen hat erheblichen Einfluss auf die Motivation und somit auf den Lernerfolg. Zwar kann eine gewisse Interdisziplinarität stimulierend wirken, eine große Heterogenität bezüglich der fachlichen Herkunft und des Qualifikationsniveaus der Teilnehmer kann jedoch schnell zu einem Ungleichgewicht innerhalb eines Teams führen und somit den Lernprozess behindern. Die plakative Aussage, dass Planspiele die Sozialkompetenz durch das Arbeiten im Team fördere, gilt per se nicht für alle Teilnehmer, da dies bei den Studierenden einen sozialen Entwicklungsprozess voraussetzt. Jedoch sind nicht alle Teilnehmer fähig oder willens, sich auf diesen Entwicklungsprozess einzulassen. Nicht unterbewerten darf man außerdem den recht hohen Zeitund Kostenaufwand, welcher mit dem Einsatz eines Unternehmensplanspieles verbunden ist. update 16 | ss 2013 | lehre und studium
4. Fazit Der vermehrte Einsatz von Unternehmensplanspielen hat durchaus seine Berechtigung. Dabei sind die Rollen sowohl der Studierenden, als auch der Dozenten gegenüber einer klassischen Vorlesung vollkommen verändert. Den aktiven Part nehmen die Studierenden ein, der Dozent wandelt sich zu einem Coach. Dies verlangt von beiden Seiten einen entsprechenden Wandlungswillen. Erfolgreich durchgeführte Planspiele verkörpern den Slogan „Learning business by doing business“. Gerade durch diese aktive Teilnahme der Studierenden werden Motivationspotenziale freigelegt, die zu einem besonders nachhaltigen Lernen führen können.
Literatur Blötz, U. (2003): Planspiele in der beruflichen Bildung, Bielefeld. Braukmann, J., Hübsch, J. (2010): Sind Planspiele als Trainingsmethode wirksam? Ein qualitativer Ansatz zur Evaluierung planspielbasierter Trainingskonzepte, in: Trautwein, F., Hitzler, S., Zürn, B. (Hrsg.): Planspiele – Entwicklungen und Perspektiven: Rückblick auf den Deutschen Planspielpreis 2010, Norderstedt, S. 103–128. Geier, B. (2006): Evaluation eines netzbasierten Unternehmensplanspiels: Eine problemorientierte Lernumgebung für die kaufmännische Aus- und Weiterbildung, InauguralDissertation, Ludwig-Maximilians-Universität München. Geuting, M. (2000): Soziale Simulation und Planspiel in pädagogischer Perspektive, in: Herz, D., Blätte, A. (Hrsg.): Simulation und Planspiel in den Sozialwissenschaften – eine Bestandsaufnahme der internationalen Diskussion, Münster, S. 15–62. Hitzler, S., Zürn, B., Trautwein, F. (2010): Status Quo der europäischen Planspielszene, in: Trautwein, F., Hitzler, S., Zürn, B. (Hrsg.): Planspiele – Entwicklungen und Perspektiven: Rückblick auf den Deutschen Planspielpreis 2010, Norderstedt, S. 217–230. Thomas, J. (2010): Leitfaden zur Erstellung eines Seminarkonzepts mit Planspielen, in: Trautwein, F., Hitzler, S., Zürn, B. (Hrsg.): Planspiele – Entwicklungen und Perspektiven: Rückblick auf den Deutschen Planspielpreis 2010, Norderstedt, S. 71–86. Trautwein, C. (2011): Unternehmensplanspiele im industriebetrieblichen Hochschulstudium: Analyse von Kompetenzerwerb, Motivation und Zufriedenheit am Beispiel des Unternehmensplanspieles TOPSIM-General Management II, Wiesbaden. 25
Destinationsmanagement als komplexe Aufgabe in der Touristik Knut Scherhag
Prof. Dr. Knut Scherhag Studium der BWL an der Universität Trier, danach wissenschaftlicher Mitarbeiter an der TU Dresden, Lehrstuhl für Tourismus wirtschaft. Es folgte eine Anstellung als Senior Consultant am Europäischen Tourismus Institut GmbH in Trier. Promotion 2003 zum Thema Destinationsmarken. Von 2004 bis 2008 Professor für Destinationsmanagement an der Fachhochschule Oldenburg/Ostfriesland/Wilhelmshaven (jetzt Jade Hochschule). Seit 2008 Professor für Destinationsmanagement im Fachbereich Touristik/Verkehrswesen der Fachhochschule Worms, Auslandsbeauftragter des Fachbereichs. Forschungsschwerpunkt: Strategische Implikationen im Destinationsmanagement. E-Mail: scherhag@fh-worms.de
1. Einleitung Die Bruttowertschöpfung der von Touristen in Deutschland nachgefragten Güter und Dienstleistungen betrug im Jahr 2012 rund 97 Milliarden Euro, was einem Anteil an der gesamten Wertschöpfung der deutschen Volkswirtschaft von 4,4 % entspricht (direkter Effekt). Dieser Wert ist vergleichbar mit dem Baugewerbe (4,3 %) oder dem Erziehungs- und Unterrichtswesens (4,6 %) und deutlich höher als die Anteile von Automobilindustrie (2,3 %) oder Finanzwirtschaft (2,5 %). Rechnet man die induzierte Wertschöpfung – Effekte durch die Verausgabung der 97 Milliarden Euro in Deutschland – hinzu, ergibt sich eine Summe von ca. 214 Milliarden Euro, die der Bruttowertschöpfung in Deutschland durch den Tourismus zugerechnet werden kann, was wiederum einem Anteil von 9,7 % an der Bruttowertschöpfung entspricht (vgl. BMWi 2012, S. 4). Diese Leistungen werden von rund 2,9 Millionen Erwerbstätigen erbracht, was einem Anteil von 7 % entspricht. Rechnet man die Beschäftigten bei den inländischen Anbietern tou26
ristischer Vorleistungen hinzu, wird ein Anteil von 12 % (ca. 4,9 Millionen Erwerbstätige) an der Gesamtbeschäftigung in Deutschland erreicht (vgl. BMWi 2012, S. 4). Die Wertschöpfung in den touristischen Zielgebieten Deutschlands hat hierbei einen bemerkenswerten Anteil. Daher wird in diesem Beitrag die Komplexität des Destinationsmanagements als ein wesentlicher Baustein der Tourismuswirtschaft näher betrachtet.
2. Begriffliches 2.1 Tourismus Tourismus (oder Fremdenverkehr) beschäftigt sich mit dem Verkehr von Reisenden zwischen ihrem Heimatort und einem Reiseziel, dem vorübergehenden Aufenthalt und der Aktivitäten dieser Reisenden (= Ortsfremde) an diesem Reiseziel sowie der Organisation der Reisevor- und -nachbereitung am Heimatort (vgl. Freyer 2011, S. 1). In Abgrenzung zum Begriff Tourismus werden unter Touristik alle die Unternehmen subsumiert, die mit Dienstleistungen und Produkten in dieser Branche wirtschaftlich tätig sind (bspw. Reiseveranstalter, Reisemittler, Hotels, Gaststätten, Verkehrsunternehmen, Betreiber von Buchungsportalen im Internet… – vgl. Frietzsche 2012, S. 3016). Betrachtet man die Wertschöpfungskette im Tourismus (siehe Abbildung 1), können in Bezug auf die direkte Wertschöpfung vier Branchensegmente unterschieden werden, die jeweils eigenen Regeln und Gesetzen unterliegen. Aus Sicht des Reisenden bestehen ebenfalls unterschiedliche Anforderungen an diese Segmente der Wertschöpfungskette. Während Reisemittler ihre Kernkompetenz in der Vermittlung von durch Reiseveranstaltern erstellte Pauschalreisen und Einzelleistungen von Leistungsträgern – hier vor allem Tickets der Beförderungsunternehmen, Hotelleistungen, zunehmend auch Versicherungsleistungen rund um das Reisen – an den Touristen sehen, ist die Kernkompetenz des Reiseveranstalters, die reiserelevanten Einzelleistungen zu einem Gesamtpaket zu bündeln und dieses dem Endverbraucher anzubieten. Die gesetzlichen Rahmenbedingungen dazu sind in § 651 BGB geregelt. Die Verkehrsträger verkaufen ihre Platzkontingente an Reiseveranstalter oder an den Individualreisenden und führen die Beförderung durch. lehre und studium | update 16 | ss 2013
Abb. 1: Wertschöpfungskette im Tourismus
Das Zielgebiet setzt sich wiederum aus einem ursprünglichen und einem abgeleiteten Angebot zusammen (vgl. Gabler Verlag 2012a, S. 684 sowie Freyer 2011, S. 123). Während das ursprüngliche Angebot all diejenigen Faktoren umfasst, die zur Ausstattung der jeweiligen Region – und somit des Zielgebietes – gehören, um dort leben zu können, umfasst das abgeleitete Angebote vor allem Infrastruktur- und Angebotselemente die erstellt und entwickelt wurden, um Touristen vor Ort bedürfnisorientierte Beschäftigung während ihres vorübergehenden Aufenthaltes zu ermöglichen. Die Motivation zu reisen kann alle erdenkbaren Gründe annehmen – vom Verwandtenbesuch, über berufliche Gründe, dem Besuch einer Veranstaltung bis hin zur Erholungsreise. Hinsichtlich der Reiseart überwiegt in Deutschland mit rund 79 % die privat motivierte Reise gegenüber der beruflich induzierten Reise (vgl. BMWi 2012, S. 4). Beruflich motivierte Reisen sind sowohl für Reiseveranstalter und -mittler als auch für Beherbergungs- und Verkehrsunternehmen wirtschaftlich von Bedeutung, da diese Unternehmen mit gezielten Angeboten und Geschäftsmodellen auf die Bedürfnisse von Geschäftsreisenden eingehen können. Zielgebiete können das beruflich bedingte Reiseverhalten nicht in wirtschaftlich relevanter Form beeinflussen, da die Ausstattung des Reiseziels hier keine reiseentscheidungsrelevante Rolle spielt.
2.2 Destination Das Wort Destination stammt aus dem Lateinischen und kann mit „Bestimmung“ übersetzt werden. Im Zusammenhang mit der Reise wird sie als ‚Bestimmungsziel der Reise’ interpretiert (vgl. Scherhag 2003, S. 11). In diesem Kontext wird der Begriff auch von Verkehrsunternehmen verwendet (vgl. Gabler Verlag 2012a, S. 684). In der deutschsprachigen tourismuswissenschaftlichen Literatur wird die Destination – das Reiseziel – als die zentrale Einheit im Incoming-Tourismus (Reiseverkehr in eine Destination) angesehen (vgl. Bieger/Beritelli 2013, S. 54), die Destination als selbständige Wettbewerbseinheit wird ebenfalls zunehmend in der Literatur thematisiert. Allerdings wird der Begriff nicht einheitlich verwendet. Aufgrund der Vielzahl von Unternehmen, die in einer Destination an der Erstellung der touristischen Leistungen beteiligt sind, ist deren Kooperation notwendig, um update 16 | ss 2013 | lehre und studium
das Destinationsprodukt1 zu erstellen; der Reisende konsumiert in der Destination ein Leistungsbündel. Die für ihn jeweils relevante Kombination an Einzelleistungen (u.a. Beherbergung, Gastronomie, Aktivitäten vor Ort etc.) hängt von seinen individuellen Bedürfnissen und Ansprüchen an die Reise ab. Er vergleicht die für ihn relevanten Kriterien und wählt das aus seiner Sicht beste Angebot aus. Dieser Argumentation folgend kann eine Destination definiert werden als ein Raum, den der Gast auswählt, da er dort aus seiner Sicht die Bedürfnisse an eine Reise am besten erfüllen sieht (vgl. Müller 1995, zitiert in Bieger/Beritelli 2013, S. 53). Diese sehr individuelle Perspektive stimmt allerdings sehr häufig nicht mit der Anbietersicht (= relevanter Wirkungsbereich) überein, da jeder Gast für sich ein eigenständiges Anspruchs- und Bewegungsmuster für seine Reise definiert. Eine weitere Abgrenzungsoption basiert auf administrativen Grenzen, also Verwaltungseinheiten, was aus Sicht der politischen Verwaltungsorganisation sinnvoll ist, da ihr Wirken auf die eigene administrative Einheit (z.B. Orts-, Gemeindegrenze, Bundeslandgrenze) beschränkt ist. Die Kundenansprache ist allerdings komplex, da nur in wenigen Fällen eine administrative Einheit mit dem Zielgebiet des Gastes identisch ist. Eine effektive Kundenansprache ist erschwert, da dann nur ein Teil des reiserelevanten Angebotes kommuniziert werden kann. So liegt beispielsweise der Harz in drei Bundesländern; zur Vermarktung ist dann eine eigenständige Organisation notwendig, die landesgrenzenübergreifend agieren kann – oder der potenzielle Gast erhält nur einen Teil der vorhandenen Informationen über sein Zielgebiet. Die Abgrenzung auf Basis eines zusammengehörenden geografischen Raumes erscheint daher als vom Grundsatz her die zutreffendste Variante für das Destinationsmanagement zu sein, da hier vor allem die Gemeinsamkeit einer räumlichen Einheit, basierend auf dem ursprünglichen Angebot, hervorgehoben wird. Vor dem Hintergrund der Systemtheorie ist die Destination als
1 Das Destinationsprodukt ist das gesamte Angebot an ursprünglichen und abgeleiteten Angebotsfaktoren, die in einem kooperativen Prozess gebündelt werden, um eine touristische Destination im Wettbewerb zu positionieren (vgl. Gabler 2012b, S. 685).
27
ein offenes System anzusehen (vgl. Bieger/Beritelli 2013, S. 63), da eine große Zahl von Einzelunternehmen für die Leistungserstellung verantwortlich ist. Während das ursprüngliche Angebot in der Regel einen starken Einfluss auf die Wahrnehmung einer Destination (als Basis für das Image der Destination) hat, können mit Hilfe spezifischer abgeleiteter Angebotsfaktoren unterschiedliche Zielgruppen angesprochen und buchbare Produkte/Pakete erstellt werden (vgl. Gabler 2012b, S. 685).
2.3 Destinationsmanagement Unter dem Begriff Destinationsmanagement wird die strategische Führung und Vermarktung touristischer Destinationen verstanden, als Träger des Destinationsmanagements sollten eigenständige Destinationsmanagementorganisationen (DMO) eingesetzt werden, an denen die Tourismuswirtschaft der Destination beteiligt ist; faktisch ist der Einfluss der kommunalen Politik zur Zeit noch überdurchschnittlich hoch, da die kommunale Ebene in Deutschland die Tourismuspolitik maßgeblich beeinflusst. Ein wesentliches Merkmal der DMO ist – auch durch den vergleichsweise großen Einfluss der Politik bedingt, dass sie keine Weisungsbefugnisse gegenüber den Leistungsträgern hat und somit auf deren freiwillige Zusammen- und Mitarbeit angewiesen ist, was ein effizientes Destinationsmanagement deutlich erschwert. Ähnlichkeiten zu einer virtuellen Organisation sind hier erkennbar (vgl. Bieger/Beritelli 2013, S. 81). Eine zentrale Aufgabe des Destinationsmanagement ist es, die Zusammenarbeit der Leistungsträger zu unterstützen und zu fördern, damit durch deren Kooperation durchgehende Dienstleistungsketten in der Destination sichergestellt und übergreifend vermarktet werden können. Weiterhin ist die Erstellung bzw. Entwicklung eines Tourismuskonzeptes unter Einbeziehung der touristischen Vorteilsnehmenden der Destination eine wichtige Aufgabe, da daraus erst eine Wettbewerbsstrategie für die gesamte Destination abgeleitet werden kann und Wettbewerbsvorteile erzielt werden können. Eine weitere Aufgabe im Destinationsmanagement ist das Beseitigen von Interessenkonflikten zwischen Leistungsträgern/Produzenten des Destinationsproduktes, da diese sich häufig als Konkurrenten betrachten. Darüber hinaus gibt es auch immer Aufgaben mit einem öffentlichen Charakter (vgl. Bieger/Beritelli 2013, S. 66), z.B. Verwaltung von Freizeit- und Kultureinrichtungen. In der Praxis wird Destinationsmanagement allerdings oft auf Destinationsmarketing reduziert.
3. Die Destination als Wettbewerbseinheit Die Destination als Wettbewerbseinheit wird durch unterschiedliche Elemente geprägt: Die ursprünglichen Angebotsfaktoren prägen die Wahrnehmung der Destination als geographischen sowie kulturell geprägten Raum, da diese im Laufe einer kulturhistorischen Entwicklung entstanden und daher relativ stabil 28
sind. Somit bilden sie die so genannte Grundausstattung einer Destination, die für alle Gästegruppen Bestandteil des Aufenthalts bzw. in allen Angeboten direkt oder implizit enthalten ist. Aus diesen Faktoren lassen sich in der Regel Themen ableiten, die mit dem Gesamtangebot der Destination korrespondieren und so einen wesentlichen Beitrag zur Profilierung der Destination leisten (z.B. größtes Weinanbaugebiet Deutschlands). Ergänzend dazu sind die abgeleiteten Angebotsfaktoren zu sehen, die aus der Leistungsfähigkeit der Leistungsträger resultieren. Sie können auf die Bedürfnisse von Nachfragergruppen eingehen, da sie durch die tourismusspezifische Ausstattung auf die unterschiedlichsten Reisebedürfnisse reagieren können (z.B. Angebote für Fahrradtouristen, Angebote für Familien). Mit Hilfe dieser Komponenten ist es möglich, verschiedene Zielgruppen anzusprechen. Die Einheit der Leistungsträger in einer Destination kann als Gradmesser der Wettbewerbsfähigkeit einer Destination angesehen werden. Je besser diese zusammenarbeiten, desto besser wird die Destination als Wettbewerbseinheit wahrgenommen. Die Wettbewerbsfähigkeit der Destination wird durch die Produktivität im Handeln der Leistungsträger zum Ausdruck gebracht. Es ist notwendig, dass die Leistungsträger miteinander reden und sich Wert schätzen, dadurch wird es möglich, deren unterschiedliche Fähigkeiten und Zielvorstellungen abzugleichen und zu kombinieren, denn letztendlich ist das Destinationsprodukt ein Kooperationsprodukt (vgl. Scherhag 2011, S. 188). Neben diesen destinationsinternen Faktoren wird die Wettbewerbsfähigkeit der Destination durch eine Reihe externer Faktoren beeinflusst (vgl. Abbildung 2), die wirtschaftliches Handeln und die Logik von Märkten grundsätzlich beeinflussen (z.B. allgemeine Trends, gesellschaftliches Gewissen/Bewusstsein; politische Rahmenbedingungen etc).
Abb. 2: Die Destination als Wettbewerbseinheit
3.1 Komponenten des Wettbewerbsvorteils Ein Wettbewerbsvorteil von Destinationen basiert im Wesentlichen auf einem klaren Profil sowie einer klaren Abgrenzung gegenüber der Konkurrenz (vgl. Abbildung 3), wodurch den lehre und studium | update 16 | ss 2013
Abb. 3: Wettbewerbsvorteil für eine Destination, Quelle: Scherhag 2011, S. 189
potenziellen Konsumenten die Stärken (= Kompetenzen) der Destination im Vergleich zu möglichen Reisealternativen verdeutlicht wird. Aufgrund der Vielzahl unterschiedlicher Reisemotive und -anlässe ist es aus Sicht der DMO allerdings schwer, die stärksten/wichtigsten Konkurrenten zu erkennen, da für unterschiedliche Wettbewerbssegmente verschiedene Zielgebiete/ Destinationen als stärkste Konkurrenten auftreten können. Wie vorstehend bereits angesprochen, kommt dem Image der Destination eine große Bedeutung zu. Im Idealfall finden sich die Kernkompetenzen der Destination in ihrem Image wieder, so dass das Vorstellungsbild/die Erwartungshaltung mit der tatsächlichen Leistungsfähigkeit der Destination korrespondiert. Zur Unterstützung der kooperativen Zusammenarbeit der Leistungsträger und Akteure in der Destination muss die DMO verstärkt auf Maßnahmen des Binnenmarketings2 zurückgreifen. Einerseits müssen die Akteure die Kompetenzen der Mitglieder der Destination kennen, andererseits muss eine gemeinsame Strategie erarbeitet werden, die von den Leistungsträgern bei der Umsetzung ihrer individuellen Unternehmensstrategie berücksichtigt wird. Auch ist es für den Gast wichtig, einen ‚einheitlichen Geist’ innerhalb der Destination (bei der Inanspruchnahme verschiedener Leistungsträger) zu finden. Als Basis für die Integration der Leistungsträger in eine Destinationsstrategie ist deren Beteiligung bei der Entwicklung eines Destinationsleitbildes notwendig, denn nur so kann erreicht werden, dass die unterschiedlichen unternehmerischen Zielvorstellungen und Strategien der Leistungsträger so abgestimmt werden, dass sie mit der Ausrichtung der Destination (weitgehend) harmonieren. Das Image als wichtiges Element für den Wettbewerbsvorteil wird im folgenden Kapitel näher betrachtet.
2 Unter Binnenmarketing werden alle nach innen gerichteten Aktivitäten einer DMO verstanden, um eine planvolle Nutzung der vorhandenen Potenziale im Sinne des Leitbildes der Destination zu erreichen (vgl. Freericks/Hartmann/Stecker 2010, S. 177 f.). update 16 | ss 2013 | lehre und studium
3.2 Das Destinationsimage als Basis des Wettbewerbsvorteils Das Image kann als die Summe der Einstellungen vieler Individuen verstanden werden, die diese einem Meinungsgegenstand (z.B. Produkt, Dienstleistung oder Idee) entgegenbringen, wobei diese Einstellungen die Erwartungshaltungen der jeweiligen Konsumenten widerspiegeln (vgl. Raab/Unger/Unger 2010, S. 20). Demzufolge kann das Image auch als Fremdbild bezeichnet, das – im Falle der Destination – die Vorstellung und Erwartung von Gästen/potenziellen Gästen von einer Destination und einem möglichen Urlaubsaufenthalt zum Ausdruck bringt. Sofern zu einem Meinungsgegenstand ein gefestigtes Image besteht, erleichtert es den Konsumenten eine Kaufentscheidung zu treffen – sowohl im positiven als auch im negativen Sinne. In Abbildung 4 auf der folgenden Seite wird ein vereinfachtes Imagemodell für touristische Destinationen vorgestellt (vgl. Scherhag 2011, S. 192 f.). Auf der linken Seite des Modells sind die wesentlichen kognitiven Komponenten der Reiseentscheidung dargestellt (Emotionen, Reisemotive, Bekanntheit der Destination) – also die Elemente, mit denen der Gast mehr oder weniger bewusst im Kontext der Reiseentscheidung umgeht. Bei der Auswahl eines Zielgebietes für die Reise3 spielen die bereits angesprochenen ursprünglichen Angebotsbestandteile eine wichtige Rolle, da sie in der Regel für die gesamte Destination stehen. Demzufolge haben sie einen wesentlichen Einfluss auf das Destinationsimage. Die Präferenzbildung für die Reiseentscheidung erfolgt auf der Basis des jeweiligen Wissensstandes des Reisenden, der wiederum auf den erhaltenen Informationen und persönlichen Erfahrungen basiert. Unterstützt wird die Präferenzbildung vor allem durch Themen, die mit der Destination eng verbunden sind. Diese lassen sich aus dem Zusammenspiel der ursprünglichen
3 Dieses Modell „funktioniert“ vor allem für neue, d.h., bisher noch nicht bereiste Zielgebiete. Durch eigene Erfahrungen mit einem Reiseziel rücken gegebenenfalls andere Faktoren in den Fokus der Reiseentscheidung.
29
Abb. 4: Vereinfachtes Imagemodell für touristische Destinationen, Quelle: Scherhag 2011, S. 192, in Anlehnung an: Wiedmann et al. 1997, S. 4
Angebotsfaktoren in der Regel für die gesamte Destination ableiten. Weitere, die Präferenzbildung beeinflussende Faktoren – aus Sicht der DMO auch als Störgeräusche interpretierbar – sind Maßnahmen der Wettbewerber, die ihrerseits ein eigenes Image und auch Themen kommunizieren und so in den Wettbewerb um den Gast treten. Eine Reise-/Kaufabsicht wird erst entwickelt, wenn es buchbare Produkte gibt (z.B. Unterkünfte, Pauschalen, Dienstleistungen zur Beschäftigung während des Aufenthaltes). Mithilfe der Produkte können Zielgruppen direkt angesprochen werden, da es sich um konkrete Angebote handelt, die auf die Ansprüche von einzelnen Nachfragergruppen zugeschnitten sind. Die faktische Kauf-/Reiseentscheidung hängt dann aber in der Regel noch von weiteren, situativen Einflussfaktoren ab. Diese können durchaus limitierend wirken und den Kauf letztendlich noch verhindern. Zu diesen Faktoren zählen z.B. die Verfügbarkeit der gewünschten Unterkunft in einem bestimmten Zeitraum oder deren Preis, aber auch die Zusammensetzung der Reisegruppe kann einen entscheidenden Einfluss auf die Reiseentscheidung ausüben (Familie vs. „Kumpels“)
3.3 Beispielhafte Betrachtung der Region Rheinhessen Die vorstehenden Ausführungen werden nachfolgend auf die Region Rheinhessen übertragen. Bereits die Abgrenzung der Region als Destination ist nicht einfach. Zunächst muss festgestellt werden, dass Rheinhessen vom Grundsatz her ein politisches Konstrukt war, das 1816 nach dem Wiener Kongress als linksrheinische Provinz des Großherzogtums Hessen am grünen Tisch geschaffen wurde. Nach dem zweiten Weltkrieg wurde Rheinhessen eine der fünf Regierungsbezirke des 1946 neu gegründeten Landes Rheinland-Pfalz. Mit der Auflösung der Regierungsbezirke im Jahre 2000 endete die Geschichte Rheinhessens als politische Einheit. Der Regionalbegriff blieb aber in den
30
ökonomisch orientierten Organisationen wie Rheinhessenwein e.V., Rheinhessen-Touristik GmbH oder Rheinhessen-Marketing GmbH sowie bei IHK und Handwerkskammer erhalten. Die Gestaltung einer rheinhessischen Identität, basierend auf der kulturhistorischen Geschichte, soll den Zusammenhalt in der Region stärken (vgl. Rheinhessen-Touristik GmbH/Rheinhessen Marketing e.V./Rheinhessenwein e.V.). Demnach hat sich die Region von einer ursprünglich politischen Einheit hin zu einer Region mit einer regionalen Identität entwickelt. Letztere ist bisher allerdings eher eine Wunschvorstellung denn Realität, gleichzeitig aber erklärtes Ziel der Befürworter. Vor diesem Hintergrund ist auch der Prozess zur Entwicklung einer Marke Rheinhessen zu verstehen, dessen Ziel es ist, die vielfältigen Aktivitäten in der Region zu bündeln und dadurch Synergien zu schaffen. Es soll ein Netzwerk etabliert werden, das auf den folgenden vier Säulen basiert: Urlaub und Freizeit, Wein und Genuss, Kultur und Geschichte, Region und Wirtschaft (vgl. Rheinhessenwein e.V. 2007). Betrachtet man aktuell das ursprüngliche Angebot Rheinhessens fällt der Wein bzw. die Weinkulturlandschaft ins Auge. In verschiedenen Marktforschungsstudien wurde Wein und Weinanbau als identitätsstiftendes Merkmal für Rheinhessen herausgestellt (z.B. Projekt M 2005). Eine Befragung von rheinhessischen Gästen aus dem Jahr 2005 zeigte, dass mehr als die Hälfte der Befragten Rheinhessen mit Wein und Weinbergen in Verbindung bringen (mit Abstand das wichtigste Merkmal), wenn sie die Region beschreiben sollten (vgl. http://www.weinmarketing.rlp.de). Somit besitzt das Thema Wein aktuell für Rheinhessen als imagebildende Komponente eine große Bedeutung, was nicht verwunderlich für die größte Weinanbauregion in Deutschland ist. Entsprechende Themen rund um die Weinkulturlandschaft tragen dazu bei, dieses Bild zu festigen.
lehre und studium | update 16 | ss 2013
Um als touristische Destination im Wettbewerb wahrgenommen zu werden fehlt es derzeit allerdings noch an buchbaren Angeboten für einen längeren Aufenthalt. Der Reisende ist bei der Planung seiner Aktivitäten sehr oft noch auf sich selbst gestellt oder aber es handelt sich um Angebote für den Ausflugsgast aus dem Nahbereich. Diese werden zwar auch vom Übernachtungsgast genutzt, wenn er vor Ort ist, diese unterstützen ihn aber in der Regel nicht bei der Reisezielauswahl. Weiterhin werden die touristischen Strukturen weitgehend auf Ebene der Verbandsgemeinden und Städte koordiniert, die überregionale Rheinhessen Touristik GmbH hat noch deutliches Potenzial auf dem Weg zu einer wettbewerbsfähigen touristischen Destination. Dazu ist es notwendig, die Einzelakteure – touristische Leistungsträger, Winzer, Gebietskörperschaften – von einem gemeinsamen Handeln zu überzeugen, welches den Namen Rheinhessen schärft und zu einem stabilen Image verhilft, ohne das ein effizientes Destinationsmanagement nicht möglich ist.
4. Schlussbemerkung Destinationsmanagement ist eine komplexe Aufgabe, die von einer Destinationsmanagementorganisation wahrgenommen wird bzw. wahrgenommen werden sollte. Allerdings ist sie auf die Unterstützung durch die Leistungsträger in der Destination angewiesen, da diese weitgehend für die Produktgestaltung verantwortlich sind und auch im direkten Kontakt zum Gast stehen. Für einen Erfolg im Wettbewerb der Destinationen ist ein stabiles Image der Destination von großer Bedeutung, da dieses für den potenziellen Gast eine wichtige Rolle bei der Reisezielwahl übernimmt. Je stabiler das Image ist, desto größer ist in der Regel der Beitrag zur Reduktion des Informationsbedarfs für den Reisenden. Das Destinationsimage steht in einem engen Kontext zum ursprünglichen Angebot der Destination, vor allen zur natürlichen Ausstattung und zum kulturhistorischen Kontext. Weiterhin sind buchbare Angebote und Pakete notwendig, damit nicht nur eine positive Bewertung der Destination durch den Reisenden möglich ist, sondern auch der Abschluss des Reiseentscheidungsprozesses durch die Buchung erfolgen kann.
Literatur Bieger, T., Beritelli, P. (2013): Management von Destinationen, 8. Aufl., München. BMWi (Hrsg.) (2012): Wirtschaftsfaktor Tourismus in Deutschland – Kennzahlen einer umsatzstarken Querschnittsbranche, Berlin. Freericks, R., Hartmann, R., Stecker, B. (2010): Freizeitwissenschaft, München. Freyer, W. (2011): Tourismus – Einführung in die Fremdenverkehrsökonomie, 10. Aufl., München. Frietzsche, U. (2012): Tourismus, in: Gabler Verlag (Hrsg.): Gabler Wirtschaftslexikon, Wiesbaden, S. 3016–3019. Gabler Verlag (Hrsg.) (2012a): Gabler Wirtschaftslexikon – Stichwort: Destination, Wiesbaden, S. 684 f. Gabler Verlag (Hrsg.) (2012b): Gabler Wirtschaftslexikon – Stichwort: Destinationsprodukt, Wiesbaden, S. 685. Müller, H.-R. (1995): Grundlagen für den Tourismusbericht an die eidgenössischen Räte, Bern. Raab, G., Unger, A., Unger, F. (2010): Marktpsychologie, 3. Aufl., Wiesbaden. Rheinhessen-Touristik GmbH/Rheinhessen Marketing e.V./Rheinhessenwein e.V. (Hrsg.) (o.J.): Geschichte Rheinhessens, http://www.rheinhessen.de/geschichte.html, Abruf 22.11.2012. Rheinhessenwein e.V. (Hrsg.) (2007): Was zeichnet die Dachmarke »Rheinhessen« aus?, http://www.rheinhessenzeichen.de/, Abruf 22.11.2012. Scherhag, K. (2011): Das Destinationsimage als Basis eines Wettbewerbsvorteils im Destinationsmanagement, in: Gronau, Werner (Hrsg.): Zukunftsfähiger Tourismus – Innovation und Kooperation, Mannheim, S. 187–194. Scherhag, K. (2003): Destinationsmarken und ihre Bedeutung im touristischen Wettbewerb Lohmar/Köln. Weinmarketing (o.J.): www.weinmarketing.rlp.de/internet/ global/themen.nsf/2eca2af4a2290c7fc 1256e8b005161c9/ f627762790fc15b8c125710f0052f40f?OpenDocument, Abruf 22.11.2012. Wiedmann, K.-P. et al. (1997): Multivariate Methoden der Imageanalyse, Hannover.
update 16 | ss 2013 | lehre und studium
31
Wo bleibt die Zeit unserer Studierenden? Methodische Aspekte und Ergebnisse einer Zeitbudgeterhebung an der Fachhochschule Mainz Hans-Dieter Hippmann
2. Rahmenbedingungen und Projektablauf Prof. Dr. Hans-Dieter Hippmann lehrt die Fächer Wirtschaftsmathematik und Statistik an der Fachhochschule Mainz. E-Mail: hans-dieter.hippmann@fh-mainz.de
1. Projektidee und Forschungsfragen Die Pausengespräche im Sommersemester 2010 über das Thema „Bologna-Prozess“ waren der kuriose Auslöser für die im Folgenden beschriebene empirische Untersuchung. Die Menge der Getränkeflaschen und Snacks auf den Hörsaaltischen der Studentinnen und Studenten führten zu der Vermutung, dass die Studierenden tagsüber nicht genügend Zeit haben, in Ruhe zu essen, und dies deshalb während der Veranstaltung nachholen. Wie sich später herausstellte, war damit die erste Hypothese zu dem Projekt „Wo bleibt die Zeit?“ formuliert. Im Rahmen eines Pflichtmoduls in Betriebswirtschaft, dem so genannten statistischen Anwendungsprojekt, befragten Studierende im darauf folgenden Semester ihre Kommilitonen, wie sie ihre tägliche Zeit verwenden. Im Mittelpunkt dieser Untersuchung stand die Frage, ob das Bachelorstudium die Studierenden übermäßig belastet. Gesucht wurden auch diejenigen Faktoren, die Noten und Studienerfolg maßgeblich beeinflussen. Eine Besonderheit des Projektes ist die Verwendung eines speziell für diesen Fall entwickelten „schlanken“ Fragebogens, der nicht nur optisch auffällt und zum Ausfüllen motiviert, sondern die Befragten zeitlich mit nur etwa zwanzig Minuten in Anspruch nimmt. „Schlank“ sind bei diesem Verfahren vor allem auch die Kosten. Der Umstand, dass die Arbeiten von Studierenden im Rahmen des Moduls „Statistisches Anwendungsprojekt“ durchgeführt wurden, führte dazu, dass die ganze Erhebung nahezu (wie der Mainzer sagt) für „umme“ durchgeführt werden konnte. 32
Das Projekt „Wo bleibt die Zeit?“ wurde ohne externe Unterstützung realisiert. Interviews, Dateneingabe und Analysen wurden von Studierenden der FH Mainz durchgeführt, so dass keine zusätzlichen Personalkosten anfielen. Die benötigten übrigen Mittel wurden vom Fachbereich Wirtschaft bereitgestellt. Noch im Sommersemester 2010 wurde das Projekt definiert und mit der Entwicklung eines geeigneten Fragebogens begonnen. Im Kern handelte es sich um eine Zeitbudgeterhebung, die nicht studienbegleitend sondern retrospektiv, das bedeutet nachdem die Aktivitäten stattgefunden hatten, durchgeführt wurde. Erste Testbefragungen erfolgten auf dem Mainzer Wissenschaftsmarkt 2010 und führten zu einer Optimierung des Fragebogens. Die endgültige Umfrage wurde im Wintersemester 2010/2011 unter den Studierenden der FH Mainz mit dem „schlanken“ Fragebogen in den Hörsälen durchgeführt. In Absprache mit dem jeweiligen Dozenten fanden die Befragungen jeweils zu Beginn einer Vorlesung statt. Mit Hilfe des eigens für diese Untersuchung entwickelten Verfahrens dauerte die Befragung durchschnittlich nur zwanzig Minuten. In dieser Zeit konnten zeitgleich 40 Fragebögen ausgefüllt werden, wenn die Gruppe vollständig anwesend war. Somit ist es leicht zu erklären, dass innerhalb einer Woche rund 2.000 Fragebögen alleine in den großen Studiengängen ausgefüllt wurden. Die Eingabe der Daten auf Datenträger erfolgte im Sommersemester 2011 konventionell durch die Interviewer am PC über die Eingabemaske einer Excel-Tabelle. Das Excel-Programm erledigte zeitgleich Plausibilitätskontrollen, beispielsweise die Berechnung von Kontrollsummen. Im Verlauf des Jahres 2011 wurden die Daten analysiert. Eine über 1.000 Datensätze umfassende Datei mit den Angaben der befragten Studierenden aus den „eingefahrenen“ Bachelor-Studiengängen der Fachbereiche Technik, Gestaltung und Wirtschaft ermöglichte vielfältige Anschlussuntersuchungen. Die Ergebnisse wurden zunächst hochschulintern kommuniziert und im Sommer 2012 auf dem Mainzer Wissenschaftsmarkt einem breiten Publikum vorgestellt. Mit dieser Veröffentlichung erfolgt der vorläufige Abschluss der Projektarbeiten. lehre und studium | update 16 | ss 2013
3. Theoretische Überlegungen zur Darstellung der knappen Zeit Die Projektteilnehmer beschäftigten sich mit der Frage, wie sich Zeitknappheit darstellen und messen lässt. Zu diesem Zweck wurden verschiedene Zeitverwendungssituationen stark vereinfacht durch Pfeile und Rechtecke dargestellt. Die Pfeile stellen die Aktivtäten dar und die Rechtecke den zur Verfügung stehenden Zeitrahmen. Das erste Schema (Abbildung 1) zeigt eine Situation mit zwei Aktivitäten und gegebenem ausreichend großem Zeitrahmen. Die Länge des Rechtecks symbolisiert hierbei die zur Verfügung stehende Zeit. Die Länge der Pfeile bringt die Dauer der Aktivitäten zum Ausdruck.
Abb. 4: Activity-Scratch
Die Aktivität kann in diesem Fall jedoch nur auf Kosten der Qualität in der vorhandenen Zeit durchgeführt werden. Die Aktivität ist „dünner“ oder schlechter ausgeführt. Als Beispiele lassen sich anführen: Arbeiter, die Reparaturen schlecht ausführen, oder Studierende, die sich nicht genügend auf eine Klausur vorbereiten können. Eine andere Lösung entsteht durch Multi-Tasking (Abbildung 5). Es entsteht „zusätzliche Zeit“ durch Parallelaktivitäten.
Abb. 1: Situation mit ausreichend Zeit für zwei Aktivitäten
Bei der Planung und Ausführung der Aktivitäten eines Tages kann es zu unterschiedlichen Konstellationen kommen. Problemlos ist es, wenn die geplante Gesamtaktivität genau so viel Zeit benötigt, wie zur Verfügung steht. Dann kann die Aktivität im geplanten Ausmaß stattfinden. Gleiches gilt, wenn die Aktivität weniger Zeit benötigt als vorhanden ist (siehe Abbildung 1). Die übrige Zeit fällt in diesem Fall als noch nicht verplante Zeit oder Freizeit an. Kritisch ist es, wenn die geplante Aktivität mehr Zeit benötigt, als zur Verfügung steht (siehe Abbildung 2).
Abb. 2: Situation mit zu wenig Zeit für die Aktivität
Für die Lösung der Situation einer absoluten Zeitknappheit sind der Verzicht auf die Aktivität oder die zeitliche Verschiebung in einen noch nicht verplanten Zeitraum denkbar (Abbildung 3), sofern die Aktivität aufteilbar ist. Ein typisches Verschieben von Aktivitäten hat man im Fall des Mittagsschlafs bei zu wenig Nachtschlaf oder beim Verlegen des mittäglichen Essens in die Abendstunden.
Abb. 3: Verteilen einer nicht passenden Aktivität auf zwei Zeiträume
Eine weitere Form der Reaktion auf zu knappe Zeit kann darin bestehen, die Aktivität in das Zeitbudget „hinein zu quetschen“ (Abbildung 4), im Verlauf des Projektes als „Activity-Scratch“ bezeichnet. update 16 | ss 2013 | lehre und studium
Abb. 5: Multi-Task mit einer Parallelaktivität
Verschiedene zeitlich eingeschränkte, aber notwendige Aktivitäten können tatsächlich simultan ablaufen. So kann beispielsweise in Bus und Bahn gelernt oder während der Vorlesung gegessen werden. Die Anhäufung von Parallelaktivitäten kann als Indikator für Zeitknappheit oder Zeitdruck dienen. Die praktische Umsetzung dieser theoretischen Überlegung erfolgte derart, dass die für Hauptaktivitäten verwendete Zeit im Fragebogen mittels einer geraden Linie einzutragen war, die für Parallelaktivitäten dagegen in Form einer Schlangenlinie. Die anschließende Untersuchung ergab, dass der Tag für Studierende durch die Parallelaktivitäten theoretisch eine Stunde mehr hat. (Vgl. Hippmann 2010)
4. Methodische Aspekte der verwendeten Zeitbudgeterhebung In der Bundesrepublik Deutschland wurden in den Jahren 1991/1992 und 2001/2002 die letzten Zeitbudgeterhebungen durchgeführt. (Vgl. Ehling/Holz/Kahle 2001) Sie bildeten unter anderem die Grundlage für die Frauen- und Familienpolitik sowie die Darstellung der Haushaltsproduktion. Die Zeitbudgeterhebung 2012/2013 findet zur Zeit statt. Die Methoden und Verfahren der amtlichen Statistik zur Zeitbefragung sind auf hohem Niveau angesiedelt. (Vgl. Statistisches Bundesamt 2005 sowie Ehling/Merz 2002) Leider lassen sie sich aber ebenso wenig wie die amtlichen Daten für die Zwecke des FH-Projektes nutzen. Die Probleme, die im Rahmen der Erhebungen der amtlichen Statistik diskutiert wurden, sind die gleichen. Nur wurden sie im Rahmen der FH-Erhebung völlig anders gelöst. (Vgl. Ehling et al. 2001) 33
Prinzipiell lassen sich Inhalt und Charakter einer Zeitbudgeterhebung mit folgender Kettenfrage beschreiben: „Wer macht was, wie, gegebenenfalls während welcher parallel stattfindenden Aktivität, zusammen mit wem, wann, wie oft, wie lange, wo und in wessen Auftrag?“. Im Gegensatz zur der zeitgleichen Befragung in der amtlichen Statistik mit Tagebüchern nach dem Motto: „Wer was macht, der trägt es auch sofort in sein Tagebuch ein, damit er die Zeiten nicht vergisst.“, erfolgte die Befragung der Studenten retrospektiv, das heißt im Nachhinein. In der Literatur gilt diese Verfahrensweise als fehleranfällig. Die Befragten können sich nicht mehr an alles erinnern oder sie geben Antworten, die sozial erwünscht sind. Bei weiter zurückliegenden Aktivitäten weiß man nicht, ob ihre Angaben verlässlich oder geschätzt sind. Die direkte Abfrage von Durchschnittswerten gilt auch als problematisch, da manche Befragte gar nicht in der Lage sind, solche Informationen zu formulieren. (zum Thema kognitive Interviews zur Identifikation potenzieller Probleme bei Survey-Fragen vgl. Prüfer/Rexroth 2005) Die Komplexität des Themas lässt sich ahnen. Eine Reihe methodischer Fragen war zu klären. Die wichtigsten Probleme und deren Lösung werden in den nächsten Abschnitten beschrieben. Im Mittelpunkt der Erklärungen, warum die gewählte, als nicht optimal geltende Vorgehensweise dennoch zu sehr guten Ergebnissen führte, steht der „schlanke“ Fragebogen, der nur einen Bruchteil der Informationen anderer Zeitbudgeterhebungen abfragt. Das Ergebnis ist ein äußerst effizientes Verfahren, das zudem vom Befragten selbst auf Plausibilität seiner zeitlichen Angaben durchdacht werden muss.
4.1 Referenzzeitraum und Zeitpunkt der Befragung
Tab. 1: Gegenüberstellung der Aktivitätsdefinitionen von EUROSTAT und dem FH-Mainz Projekt, Quelle: linke Spalte der Tabelle: United Nations, Department of Economic and Social Affairs 2012, rechte Spalte der Tabelle: eigene Aggregation der EUROSTAT Positionen. In Klammer wird die Rangfolge der Positionen im Fragebogen angegeben.
34
Welches ist der beste Referenzzeitraum für eine Befragung und welchem Verfahren oder Verfahrensmix sollte man Priorität geben? Zielsetzung des Projektes war die Untersuchung einer angenommenen übermäßigen Belastung der Studierenden durch das Studium. Der Kern des Studiums sind weder die Semesterferien noch die Prüfungen. Es erscheint aus diesem Grunde wenig sinnvoll, die vorlesungsfreie Zeit mit in die Untersuchung einzubeziehen, obwohl auch in dieser Zeit Arbeiten für das Studium anfallen und teilweise sogar Veranstaltungen stattfinden. Auch die Prüfungswochen sollten in der Untersuchung nicht mit abgefragt werden. Zwar stellen sie für einzelne Studierende eine hohe nervliche Belastung dar, doch es sind keine typischen Studienwochen, in denen man in Bücher schaut, sondern das Gelernte vorwiegend wiedergibt. Verglichen mit der Vorlesungszeit haben sie eine völlig andere Zeitverwendungsstruktur. Übrig bleibt der längste und wichtigste Abschnitt des Studiums: Die Vorlesungszeit mit rund vierzehn echten Vorlesungswochen. Neben den Vorlesungen laufen Seminare, Übungen, Tutorien, Repetitorien und private Arbeitsgruppen. Es sind die Wochen, in denen extrem viel gelernt und intensiv studiert wird. Es ist die Phase des Studiums, die für manchen Studierenden der Engpass werden könnte. Nicht die Prüfung ist der Punkt, an dem lehre und studium | update 16 | ss 2013
die Entscheidung fällt, sondern die Vorlesungswochen vorher, in denen der Lehrstoff gehört, verstanden und abgespeichert werden muss. Hier geht es nicht um Workload, ECTS-Punkte oder hochschulpolitische Rangeleien, sondern darum, wie die mit einer Fülle von Pflichten und Terminen vollgestopften Wochen von den Studierenden bewältigt werden. Die Befragung erfolgte daher in der letzten Novemberwoche des Wintersemesters 2011/2012, also mitten in der Vorlesungszeit. Es ist eine Woche, in der die Studierenden konzentriert lernen und das Semester schon fünf bis sechs Wochen „auf Volldampf“ läuft. Dieser Zeitpunkt erlaubt es, eine relativ stabile Situation abzufragen. Den Befragten ist der Wochenplan mittlerweile bekannt und die täglichen Verhaltensweisen sind eingefahren. Das bedeutet de facto, dass eine retrospektive Befragung in der Jetztzeit ohne große Verluste Informationen über die vergangenen Semesterwochen liefert. Im Prinzip wurde, wie die spätere Analyse zeigte, die Stundenanzahl gemessen, die der Studierende nach der Stundenplanung haben sollte. Dieses Verfahren erscheint im Nachhinein wesentlich effizienter als die Untersuchungen der großen Organisationen oder Hochschulen.
4.2 Wahl des Zeitrasters Wie fein ist das zeitliche Raster zu wählen, damit es die Aktivitäten gut erfasst, aber auch bei den Befragten auf Akzeptanz stößt? Die Abfragen durften nicht zu detailliert und zu kompliziert werden. Ziel war es, mit möglichst wenigen Informationen zu guten Ergebnissen zu kommen. Die Darstellung der Zeitverwendung im Fragebogen sollte übersichtlich und handhabbar gestaltet werden. Voruntersuchungen zeigten, dass eine Zeiteinteilung von einer halben Stunde zu grob ist. Deshalb wurden die Stunden in Viertelstunden aufgeteilt. Auf diese Weise konnte man Aktivitäten ab etwa sieben bis acht Minuten Dauer als „aufgerundete“ 15-Minuten-Einheit erfassen. Auch bei der Abfrage betrat man erneut alte Wege: Der Befragte gibt nicht die Dauer einer Aktivität an, sondern Beginn (B) und Ende (E). Die Angabe erfolgt nicht am Computer, sondern auf einem schmalen halben und längsgefalteten DIN-A4-Blatt. Die Darstellung erfolgt nicht als Text, sondern grafisch als Linie von Punkt B nach Punkt E in einem sogenannten GANTT-Diagramm. Diese Formalisierung des Antwortprozesses führt zu besseren Ergebnissen als eine intuitive Beantwortung mittels Text- oder Zahlenangaben. (Vgl. Wöhe/Döring 2008, S. 358 und 378)
schungsergebnisse mit anderen Forschungen vergleichen, so ist es wichtig, für den Verlauf der Untersuchungen eine vergleichbare Nomenklatur, das heißt die gleichen Ordnungskriterien, zu haben. (Vgl. Hippmann 2007, S. 22 f.) Internationale Vorgaben über Nomenklaturen und statistische Verfahren kommen von den Statistikern der Vereinten Nationen. (Vgl. United Nations, Statistic Division o.J.) Über das Europäische Statistische Amt in Luxembourg werden sie als Empfehlungen über die Durchführung von Zeitbudgeterhebungen bis in die nationalen statistischen Ämter weitergegeben. Dort können dann landestypische Aktivitäten der entsprechenden systematischen Position der Nomenklatur ergänzt werden. So wird zum Beispiel „Hiking“ – wir würden es als Wandern mit Rucksack und Ausrüstung bezeichnen – im nordamerikanischen Bereich nicht der Freizeitbeschäftigung, sondern dem Sport zugeordnet. Der erste Block besteht aus den „natürlichen Aktivitäten“ oder „personal care“, wie es in der UN-Tabelle lautet. Das sind Schlafen, Körperpflege sowie Essen und Trinken. Sie gehören zum täglichen Zeitbedarf und fallen kurzfristig an. Der zweite Block beinhaltet das Studium („Study“). Im Unterschied zu den internationalen Gepflogenheiten, die An- und Abfahrtswege mit der Aktivität zusammen zu erfassen und nicht einzeln auszuweisen, werden in der vorliegenden Untersuchung die An- und Abfahrtswege zur Hochschule und zurück getrennt nachgewiesen, denn die Entfernung zwischen Wohnort und Studienplatz spiegelt einen potenziellen Zeitverlust wider. Die Erwerbstätigkeit gehört nicht mehr zum Studium, lässt sich aber zusammen mit den Studienaktivitäten als eine „auf derzeitigen und zukünftigen Gelderwerb“ ausgerichtete Aktivität zusammenlegen. Alle anderen Aktivitäten sind nicht auf den Gelderwerb ausgerichtet. Zu ihnen gehören Aktivitäten im häuslichen Bereich (Hausarbeit, Kindererziehung), ehrenamtliche Arbeiten und Freizeitaktivitäten. Diese Aktivitäten können auch langfristiger Natur sein. Man denke zum Beispiel an den Jahresurlaub oder Frühjahrsputz.
SCHLAFEN (1) KÖRPERPFLEGE (2) ESSEN UND TRINKEN (3) AN- UND ABREISE HOCHSCHULE (4) VORLESUNG BESUCHEN ETC. (5)
4.3 Nomenklatur und Auswahl geeigneter Aktivitätsklassen
VOR- UND NACHBEREITUNG (6)
Die verschiedenen Aktivitäten treten zunächst ungeordnet auf und bedürfen einer systematischen Gliederung. Diese Systematiken, Klassifikationen oder als Nomenklatur bezeichneten Einteilungen ordnen und fassen mehrere Ausprägungen in einer Klasse oder Gruppe zusammen. Möchte man empirische For-
UNBEZAHLTE ARBEIT, EHRENAMT (8)
update 16 | ss 2013 | lehre und studium
NATÜRLICHE AKTIVITÄTEN
AKTIVITÄTEN IM ZUSAMMENHANG MIT DEM STUDIUM
BEZAHLTE ARBEIT, JOBBEN (7)
SPORT (9)
ÜBRIGE AKTIVITÄTEN
FREIZEIT (10) Tab. 2: Für das Projekt verwendete Aktivitätseinteilung
35
Schlafen Körperpflege ESSEN UND TRINKEN AN- UND ABREISE HOCHSCHULE VORLESUNG BESUCHEN ETC. VOR- UND NACHBEREITUNG BEZAHLTE ARBEIT, JOBBEN UNBEZAHLTE ARBEIT, EHRENAMT SPORT FREIZEIT
Abb. 6: Schema zur Zeit- und Aktivitätsabfrage mit Zeitachse (oberer Rand) und Aktivitätsgliederung (Vorspalte). Dunkle Felder kennzeichnen die Aktivität.
4.4 Tagebuch- versus Aktivitätsabfrage
4.5 Der „schlanke“ Fragebogen
Ein Tagebuch wird üblicherweise gegen Abend, wenn alle wichtigen Dinge des Tages passiert sind, aufgeschlagen. Jetzt trägt man ein, was im Verlauf des Tages alles passiert ist. Man budgetiert die Zeit gewissermaßen. Am Ende muss alles aufgehen: Die Zeit des Tages muss für irgendeine Aktivität verwendet worden sein. Auf diese Weise erfolgt indirekt eine Plausibilitätskontrolle. Sieht man einmal von den Parallelaktivitäten ab, so muss die Zeit irgendwo geblieben sein.
Der verwendete Fragebogen erhielt seinen Zusatz „schlank“ durch die eigenwillige Tabelle zur Zeit- und Aktivitätsabfrage. Diese ist nämlich exakt so lang, dass der Fragebogen aus einer DIN-A4-Seite besteht, die der Länge nach gefaltet wird. Auf diese Weise entstehen vier schmale Seiten, auf denen drei Schemata zur Zeiterfassung genutzt werden und eine Seite zur Erfassung der sozio-ökonomischen Merkmale der befragten Person.
Im Rahmen der hier beschriebenen und an der Hochschule durchgeführten Umfrage, sollten typische, für das Studium repräsentative Tage der Studienwoche herausgefiltert werden. Aber nicht jeder Befragte ist ausgerechnet an einem seiner typischen Studientage anzutreffen. Wenn zum Beispiel für den Tag, über den berichtet werden soll, ein Zahnarztbesuch geplant ist, also eher eine untypische Aktivität, so wird der gesamte Tag in seiner Zeitverwendungsstruktur untypisch ausfallen. Erst durch eine hohe Anzahl von Datensätzen wird dieser „unnormale“ Tag im Gesamtmittelwert untergehen. Warum aber nicht von vorn herein direkt nach dem „typischen“ Tagesverlauf fragen? Das bedeutet, dass der Zahnarztbesuch, der stattgefunden hat, nicht anzugeben ist, da er nicht in einen typischen Studientag gehört. Schließlich soll ja die Belastung durch das Studium und nicht durch einen eher unbequemen Zahnarzttermin gemessen werden. Ein auf 24 Stunden abgestimmtes Zeitbudget wird eher durch eine Tagebuchabfrage gewährleistet. Eingebettet in den gesamten Tagesablauf, sind die Angaben „gedeckelt“. Die Tagebuchabfrage führt dadurch zu plausibleren Ergebnissen. Das Verfahren scheint aber nur mit einer sehr aufwändigen Befragung im Zeitablauf möglich zu sein. Die weniger aufwändige Abfrage von nur einzelnen Aktivitäten zum Studium unteroder überschätzen die Zeit und bergen die Gefahr von systematischen Fehlern. 36
In der Kombination von Aktivitäts- und Zeitraster entstand ein Tableau, das ähnlich wie ein Lottoschein auszufüllen ist. „Ankreuzen, Auszählen und Gewinnen“ heißt es in beiden Fällen. In der Tat ist der Vergleich Fragebogen/Lottoschein nicht so abwegig, wie es auf den ersten Blick aussieht. So wie der Lottospieler erhofft sich auch der Statistiker einen satten Gewinn, und zwar in der Form von Informationen. Um diese Informationen ohne großen Aufwand für den Befragten möglichst genau verbuchen zu können, wurde der Fragebogen ähnlich wie ein Lottoschein aufgebaut: Anstelle der 7x7 Kästchen großen Spielfelder für ein Lottospiel „6 aus 49“ besteht das Spielfeld des „Wo-bleibt-die Zeit-Fragebogens“ aus 10x96 Kästchen. Genau genommen handelt es sich bei den zehn Zeilen um die zuvor zehn festgelegten Aktivitäten. Die 96 Spalten repräsentieren die 96 Viertelstunden eines vollen Tages. Anders als beim Lottoschein muss sich nach dem Ausfüllen in jeder Spalte genau ein Kreuz befinden. Logischerweise wird damit garantiert: Je Zeiteinheit kann nur eine Aktivität stattfinden. Die Vorstellung vom Lottoschein erleichtert die Beschreibung des Ausfüllens des Fragebogens. Diese Technik des Ankreuzens wurde bei der späteren Dateneingabe übernommen. Für das Ausfüllen war es jedoch ausreichend, eine Linie in den Zeitbereich einzutragen. Bei mehreren verwendeten Zeiteinheiten einer Aktivität, ist die Linie vom Beginn der Aktivität bis zum Zeitpunkt des Wechsels zur nächsten Aktivität durchzuziehen.
lehre und studium | update 16 | ss 2013
Fand parallel zur „Hauptaktivität“ eine weitere Aktivität statt, war sie mit einer Schlangenlinie zusätzlich einzutragen.1
4.6 Berechnung zu einer typischen Vorlesungswoche Die Befragten sollten „ihren Lottoschein“ nacheinander für drei unterschiedliche typische Wochentage des laufenden Semesters ausfüllen, und zwar für einen typischen Studientag (S), der überwiegend mit Vorlesungen vollgepackt ist und weniger mit Jobs und anderen Aktivitäten, gefolgt von einem einen typischen Joboder Arbeitstag (A), auf den wenige oder keine Vorlesungszeiten entfallen. An dritter Stelle soll die Zeitverwendung für einen typischen freien Tag (F T) beschrieben werden. Zusammen mit der Angabe, wie viele Tage des jeweiligen Typs die Woche des Befragten hat, lässt sich eine gewogene durchschnittliche Wochenstruktur der Zeitverwendung bestimmen. Die Berechnung der Wochenstrukturen der Zeitverwendung, das ist eine Aggregation der drei Tabellen mit den Zeitverwendungsstrukturen der einzelnen Tagestypen, erfolgt ebenfalls als gewogenes arithmetisches Mittel. Als Gewicht dienen wiederum die vom Befragten anzugebenden Häufigkeiten der einzelnen Tagestypen. In der Grafik (siehe unten) sind es wiederum die drei zunächst angenommenen vier Studientage, ein Jobtag und zwei freie Tage.
4.7 Einbeziehung sozio-ökonomischer Variablen zur Analyse der Studiensituation Mit dem schlanken Fragebogen wurden Merkmale aus den unterschiedlichsten Bereichen abgefragt. Neben den sehr detaillierten aber eher schematisch abgerufenen Informationen zur Zeitverwendung wurden im vierten Abschnitt konkrete Fragen zur Person und rund um das Studium gestellt. Tabelle 3 zeigt
1
siehe Abschnitt „Modell zur Darstellung der knappen Zeit“
Berechnung eines gewogenen Wochendurchschnitts am Beispiel der Aktivität SCHLAFEN Angenommen die typische Vorlesungswoche eines Studenten weise folgende S-A-F-T-Verteilung auf: 4 Studientage + 1 Jobtag + 2 freie Tage = 1 Woche Dann ist die wöchentliche Zeitverwendung für eine Aktivität, beispielsweise Schlafen als gewogene Summe aus den Zeiten der Tagestypen zu bestimmen: 7 Stunden Schlaf
an einem Studientag x 4 Studientage pro Woche = 28 Stunden Schlaf an den Studientagen der Woche + 8 Stunden Schlaf = 8 Stunden Schlaf
an einem Jobtag x 1 Jobtag pro Woche an den Jobtagen der Woche
+ 10 Stunden Schlaf an einem freien Tag x 2 freie Tage pro Woche = 20 Stunden Schlaf an den freien Tagen = 56 Stunden Schlaf an den 7 Tagen der Woche insgesamt = 8 Stunden Schlaf durchschnittlich am Tag
zeilenweise die Fragen und die auf der Basis von Pre-Tests vorgegebenen Antwortmöglichkeiten. Bei der anschließenden Auswertung wurde versucht, mit Hilfe der Informationen über die Person und der materiellen und immateriellen Gegebenheiten, das sind die sogenannten „erklärenden Größen“, die Angaben über den Studienerfolg, die Noten und das Lernverhalten zu abzuleiten. Indirekt ließen sich durch diese Informationen in einem zweiten Schritt auch Phänomene wie Zeitdruck, Schlaflosigkeit und Stressempfinden einordnen.
4x
1x
2x Abb. 7: Berechnung einer typischen Woche in der Vorlesungszeit aus den drei typischen Tagestypen
update 16 | ss 2013 | lehre und studium
37
Indirekt zu erklärende Variable: Zeitdruck. Schlafstörung
Direkt zu erklärende Variable: aktuelle und erwartete erklärende Persönliche Noten materielle Angaben: Alter, Variable: TransportGeschlecht, Partner, mittel, Finanzierung des Kinder, Defizite Studiums, Wohnung etc. Sprachen und Mathe
Das Projekt lieferte eine ganze Reihe von weiteren Ergebnissen, die durch andere Studien bestätigt werden. In einigen Punkten fallen die Ergebnisse aber auch konträr aus. Der Zeitaufwand der Studierenden lag wesentlich höher als bei anderen Zeitbudgeterhebungen. Dies ist nach unserer Einschätzung auf die Befragung in der „heißen Phase“ – das ist die Mitte des Semesters – zurückzuführen. Das ist die Zeit, in der das Studium auf Hochtouren läuft. Bewusst wurde nicht das durchschnittliche Semester abgefragt, sondern typische Studientage in einer typischen konzentrierten Semesterphase.
Abb. 8: Hierarchie der erklärenden und zu erklärenden Variablen
5. Ausgewählte Ergebnisse Wichtigstes Ergebnis des FH-Projektes: Mit der 46-Stundenwoche zum Bachelor-Abschluss. Und: Unsere Studenten sind fleißig. – Tatsächlich wurden die Ergebnisse unter Anspielung auf den „faulen Studenten“ präsentiert. Diese in der Presse geführte Diskussion über die geringe Stundenbelastung der Studierenden passte so ganz und gar nicht zu den eigenen Ergebnissen. Auslöser war eine Hamburger Studie, die zeitgleich mit einer geringen Stundenbelastung der Studierenden aufwartete und die Negativschlagzeilen zur Folge hatte. Die vorliegende Studie kam zum gegenteiligen Ergebnis und bestätigte damit eher den Fleiß der Studierenden.2
2 Siehe DIE ZEIT, Ausgabe 52/2012, Lübke, Friederike, „Viel zu tun, was? Angeblich sind die Bachelorstudenten enorm gestresst. Die Professoren Hans-Dieter Hippmann und Rolf Schulmeister haben untersucht, wie viel Zeit tatsächlich am Schreibtisch verbraucht wird – mit überraschendem Ergebnis. Ein Streitgespräch.“
Zeitverwendung Studierender in einer Typischen Vorlesungswoche Aktivität
Stunden pro Woche
SCHLAFEN
56
KÖRPERPFLEGE
6
ESSEN UND TRINKEN
7
AN- UND ABREISE Hochschule
6
VORLESUNGEN
26
VOR- UND NACHBEREITUNG
14
ARBEITEN/JOBBEN
10
Hausarbeit/Ehrenamt
5
SPORT
5
FREIZEIT
34
ZUSAMMEN *)
168
*) Abweichungen in den Summen durch Rundung Quelle: Befragung der Studierenden der FH-Mainz im November 2010. Die Daten beziehen sich auf alle Bachelor-Vollzeitstudiengänge
Tab. 4: Durchschnittliche wöchentliche Zeitverwendung in der Gliederung nach zehn Aktivitäten
Tab. 3: Der „schlanke“ Fragebogen: Die vierte Seite
38
lehre und studium | update 16 | ss 2013
5.1 Wöchentliche Zeitverwendung nach Aktivitäten
5.3 Zeitverwendung Aktivitäten und Tagestypen
Eine an der Fachhochschule Mainz im Wintersemester 2010/2011 durchgeführte Zeitbudgeterhebung ermittelte für die Studierenden der Bachelorstudiengänge einen durchschnittlichen wöchentlichen Zeitaufwand von 46 Stunden. Diese verteilten sich auf 26 Stunden für Vorlesungen und andere Aktivitäten an der Hochschule, 14 Stunden für die Vor- und Nachbereitung sowie 6 Stunden für Fahrzeiten zur Hochschule hin und zurück.
Von den sieben Wochentagen werden schwerpunktmäßig rund vier Tage studiert, ein Tag gejobbt und dann gibt es noch zwei „freie Tage“. „Schwerpunktmäßig“ bedeutet Zuordnung zu demjenigen Tages-Typ, von dem der einzuordnende Tag die meisten Stunden aufweist. So ist ein Tag mit mehr Vorlesungsstunden als Jobstunden ein Studientag. Ein Montag, an dem kein Job und keine Vorlesungen laufen, ein freier Tag. Der Sonntag ist ein Jobtag wenn an diesem Tage zum Beispiel „gekellnert“ wird.
5.2 Zeitverwendung nach Owen Der Achtstundentag von Owen (1771–1858) propagierte eine tägliche Zeitverwendung zu drei gleichen Teilen, das sind jeweils acht Stunden für Schlafen, Arbeiten und Erholung. Die Ergebnisse für „unsere Arbeiter“, die befragten Studierenden der FH-Mainz, passen genau in dieses Schema. „Arbeiten“ umfasst sowohl die derzeitigen (Job), als auch die auf den späteren Erwerb ausgerichteten Aktivitäten (Studieren). In die Freizeit gehört nach dieser Nomenklatur auch die häusliche unbezahlte Arbeit. Mit dem Achtstundentag wurde eigentlich ein Werktag bezeichnet, an dem die reine Arbeitszeit acht Stunden betrug. Der auf das Projekt übertragene Ansatz bezieht sich hingegen auf alle Wochentage – und da ist der Sonntag mit drin! Also: Keine Rede mehr vom faulen Studenten. Und zur eingangs gestellten Frage: Wo bleibt die Zeit unserer Studierenden? Hier das Ergebnis in der Gliederung nach Owen: Berechnung eines durchschnittlichen Wochentages in der Gliederung nach Owen 6,5 Stunden für Aus- und Weiterbildung (einschließlich Wegezeiten) + 1,5 Stunden Erwerbstätigkeit (zusammen 8 Stunden auf derzeitigen oder späteren Erwerb ausgerichtete Aktivitäten) = 8 Stunden für derzeitige oder zukünftige Erwerbstätigkeit + 8 Stunden Nichterwerbs-Aktivitäten (Sport, Freizeit, Essen, Haushalt) + 8 Stunden Schlafen = 24 Stunden
Abb. 9: Transparent mit der Forderung der Industriearbeiter, Quelle: Internet – frei verwendbares Bild update 16 | ss 2013 | lehre und studium
Abb. 10: Durchschnittliche wöchentliche Verteilung der Aktivitäten auf die Tagestypen
5.4 Erwerbstätigkeit und Studieren Durchschnittlich 50 Stunden wöchentlicher Zeitaufwand für Studium und Erwerbstätigkeit! Das Ergebnis wurde für Vollzeitstudenten berechnet und schließt die Wegezeiten zwischen zu Hause und Hochschule nicht mit ein. In den Vollzeitstudiengängen hat rund die Hälfte der Studierenden einen Job. In der Vorlesungszeit sind das durchschnittlich zehn Stunden mehr, die in jeder Woche zu den Zeiten für das Studieren hinzukommen.
Tab. 5: Durchschnittliche wöchentliche Zeitverwendung für Studium und Erwerbstätigkeit in der Gliederung nach den Fachbereichen der FH Mainz
39
5.5 Faktoren eines erfolgreichen Studiums3 Der erfolgreiche Student besucht morgens und nachmittags regelmäßig die Vorlesung und kann sich ohne Job voll auf das Studium konzentrieren. Sein Studium wird häufig von der Familie finanziert. Ein Partner sorgt wohl ebenfalls für Stabilität und konstante Leistung. Ergebnis sind sehr gute Noten. Auffallend ist, dass die persönlichen Merkmale wie Alter, Geschlecht, wie und mit wem man lernt, keine große Rolle spielen, wenn nur die ausreichend hohe Stundenzahl eine völlige Konzentration auf das Studium erlaubt.
6. Qualitätskontrollen Der russische Mathematiker Ljapunoff fand heraus, dass eine Verteilung aus Stichprobenmittelwerten annähernd normalverteilt verläuft. Die Abbildung zeigt die Verteilung der durchschnittlichen Wochenstudienzeiten, das sind die in einer typischen Vorlesungswoche verwendeten Stunden für Vorlesungen, Übungen, Arbeitsgemeinschaften sowie für das Selbststudium angefallene Stunden. Grundlage sind die An-
3
Quelle: Eigene Berechnungen, Faktorenanalyse
gaben von 800 Studierenden der Vollzeitstudiengänge. Es ist unschwer zu erkennen, dass die Verteilung tendenziell einer Normalverteilung mit Mittelwert 40 Stunden und einer Streuung von rund plus/minus 20 Stunden folgt. Bei dieser Parameterkonstellation gilt für eine Normalverteilung, dass etwa zwei Drittel der Befragten im einfachen Streuungsbereich liegen, das sind in diesem Fall 20 bis 60 Stunden für das „Studieren“ in der Woche. Die eigentliche Bedeutung hat aber diese Betrachtung, weil Ljapunoff auch nachwies, dass der Mittelwert der betrachteten Verteilung, in unserem Fall die 40 Stunden, dem Mittelwert der gesamten Population entspricht. Über Kontrollrechnungen mit Hilfe von Materialien aus der Kapazitäts- und Stundenplanung, sowie eigenen Schätzungen lässt sich der Wert bestätigen und schafft somit auch Vertrauen in die berechneten Zeitverwendungsstrukturen. Ein Vergleich der Ergebnisse aus dem Projekt „Wo bleibt die Zeit?“und den Zahlen der Hochschul Informations System GMBH (HIS) zeigt vergleichbare Größenordnungen auf beiden Seiten. Natürlich können die Zahlen nicht identisch sein, denn die HIS-Statistik stammt aus dem Sommersemester 2009 und die FH-Mainz-Angaben sind vom November 2010. Doch liegen die Ergebnisse verblüffend dicht nebeneinander.
EINFLUSSFAKTOR (BEZEICHNUNG AUS DER FAKTORTAUFE)
DEN FAKTOR DEFINIERENDE VARIABLE (KURZBEZEICHNUNG AUS DER SPSS-ANALYSE)
KONZENTRATION auf das Studium = dem Studium Prorität einräumen ist der wichtigste Erfolgsfaktor! Optimale Lernbedingungen und Unterstützung, z.B. durch die Familie, liegen vor. Keine Ablenkung durch einen Job. Der Studierende kann sich voll auf sein Studium konzentrieren.
KEIN JOB – VOR ALLEM NICHT AM STUDIENTAG – VOLLZEIT-STUDIUM – VIELE VORLESUNGSTAGE – VORLESUNG BESUCHEN ZWISCHEN 5.00 UND 11.00 UHR – STUDIUM-FINANZIERUNG DURCH FAMILIE – WENIG FREIE TAGE
STUDIENINTENSITÄT durch Selbststudium ist der zweite Faktor. Unter der Prämisse, dass die Bedingungen von Faktor 1 erfüllt sind, bringen längere Lernzeiten einen höheren Erfolg = bessere Noten.
VIELE ZEITEN FÜR VOR-UND NACHBEREITUNG ZWISCHEN 17.00 UND 23.00 UHR AM STUDIENTAG, WENIG SCHLAF AB 23.00 UHR AM STUDIENTAG PRO WOCHE
Der SCHULWEGFAKTOR A.M. (FRÜHAUFSTEHER) erklärt durch höhere Schulwegzeiten am Morgen, jedoch nicht ursächlich sondern weil es sich hier um Studierende vom Typ „Hotel Mama“ handelt. Höhere Fahrzeiten werden zugunsten des entfernteren Wohnorts in Kauf genommen.
PRO WOCHE HOHE STUNDENZAHL FÜR DEN SCHULWEG ZWISCHEN 5.00 UND 11.00 UHR STUDIENTAG – DAFÜR WENIG SCHLAFEN ZWISCHEN 5.00 UND 11.00 UHR = FRÜHAUFSTEHEN
Der PARTNERFAKTOR, getrost dem Motto „Mit dem Zweiten lernt man besser.“
PARTNER-ZEIT PRO WOCHE FÜR FREIZEIT AM STUDIENTAG GERING – EHER KEIN SINGLE
VORLESUNGSPRÄSENZ und regelmäßiger Hochschulaufenthalt.
VORLESUNGSBESUCH ZWISCHEN 11.00 UND 17.00 UHR AM STUDIENTAG – VOR- UND NACHBEREITUNG ZWISCHEN 11.00 UND 17.00 UHR STUDIENTAG HAUPTAKTIVITÄT – SCHULWEG ZWISCHEN 17.00 UND 23.00 UHR STUDIENTAG
Tab. 6: Ergebnisse einer Faktorenanalyse derjenigen Studierenden, die angaben, ihr Studium nicht selbst zu finanzieren. Die Analyse bezieht sich nur auf Studierende der Vollzeitstudiengänge mit besonders guten Noten.
40
lehre und studium | update 16 | ss 2013
sondern die Kombination aus Studium und Job. Im Einzelfall hängt dies aber von den persönlichen und materiellen Voraussetzungen ab. Die hohe Zahl der Absolventinnen und Absolventen zeigt jedoch, dass die Belastungen die Jungakademiker offenbar nicht vom erfolgreichen Studienabschluss abhalten können.
Literatur Abb. 11: Verteilung der wöchentlichen Studienzeiten von Vollzeitstudenten (Histogramm) und normalverteilte Vergleichslinie
Dies spricht für die Qualität der Untersuchungsergebnisse und zeigt, dass auch retrospektiv durchgeführte Befragungen nicht notgedrungen schlechte Ergebnisse liefern müssen. Im Gegenteil: Die innerhalb kurzer Befragungszeit ermittelten Zeitbudgets sind in Aufkommen und Verwendung leicht auf Plausibilität zu prüfen und sind wenn notwendig noch während der Befragung vom Befragten selber zu korrigieren.
7. Fazit Bei der an der Fachhochschule Mainz durchgeführten Zeitbudgeterhebung kam heraus, dass die Studenten durch das Studium belastet sind, und zwar überdurchschnittlich hoch. Im Durchschnitt entfallen täglich rund sechs Stunden auf das Studium und jeweils eine Stunde auf Schulweg und Job. Das sind acht Stunden – und zwar nicht nur von Montag bis Freitag, wie bei einem normalen Arbeitnehmer, sondern an jedem Tag der Woche. Im Prinzip haben die Studentinnen und Studenten eine 40-Stunden-Woche allein für das Studieren, mit Job gar eine 50-Stunden-Woche. Die Untersuchung ergab auch, dass diejenigen besonders gestresst waren, die zugleich angaben, dass sie ihr Studium selbst finanzieren müssen. Es ist also nicht unbedingt das Studium das stresst, sondern der Job oder die Kombination aus Job und Studium. Die Hochschule legt die Stundenpläne für jede Semestergruppe individuell fest. Da die meisten Veranstaltungen mit einem Leistungsnachweis abgeschlossen werden, ist der Druck hoch, auch wirklich jede Veranstaltung zu besuchen. Wer jobben muss und von einer Überschneidung zwischen Job und Stundenplan betroffen ist, der hat ein Problem. Der entstehende Zeitdruck lässt sich durch vermehrtes Auftreten von Parallelaktivitäten nachweisen.
Ehling, M. et al. (2001): Zeitbudget in Deutschland. Erfahrungsberichte der Wissenschaft, Spektrum der Bundesstatistik, Band 17, Stuttgart. Ehling, M., Holz, E., Kahle, I. (2001): Erhebungsdesign der Zeitbudgeterhebung 2001/2002, in: Wirtschaft und Statistik, Nr. 6, S. 427–436. Ehling, M., Merz, J. (Hrsg.) (2002): Neue Technologien in der Umfrageforschung. Anwendungen bei der Erhebung von Zeitverwendungen, FFB- Schriften des Forschungsinstituts Freie Berufe, Bd. 14, Baden-Baden. Hippmann, H.-D. (2010): Wenn der Tag mehr als 24 Stunden hat, in: Jahrbuch 2010/11 des Fachbereichs Wirtschaft der Fachhochschule Mainz, S. 72–73. Hippmann, H.-D. (2007): Statistik – Praxisbezogenes Lehrbuch mit Beispielen, Stuttgart. Lübke, F. (2012): Viel zu tun, was?, in: DIE ZEIT, Ausgabe 52/2012 vom 19.12.2012, S. 71. Prüfer, P., Rexroth, M. (2005): Kognitive Interviews, Zentrum für Umfragen, Methoden und Analysen, ZUMA How-to-Reihe, Nr. 15, Mannheim. Statistisches Bundesamt (Hrsg.) (2005): Qualitätsbericht Zeitbudgeterhebung 2001/02, Wiesbaden. United Nations, Department of Economic and Social Affairs, (2012): Time-use Statistics, Activity Classifications National, EUROSTAT Activity Classification 2012 http:// unstats.un.org/unsd/methods/timeuse/tusclassifications/ eurostat_classif_1.htm, Abruf 01.12.2012. United Nations, Statistics Division (o.J.): Allocation of time use, http://unstats.un.org/unsd/demographic/sconcerns/tuse/, Abruf 01.12.2012. Wöhe, G., Döring, U. (2008): Einführung in die Allgemeine Betriebswirtschaftslehre, 23. Aufl., München.
Diejenigen, die optimale Studienbedingungen vorfinden und auch sonst keine nennenswerten Defizite aufweisen, stehen nicht unter dem hohen Druck und können sich deshalb bessere Noten erarbeiten. Fazit: Nicht das Bachelorstudium belastet, update 16 | ss 2013 | lehre und studium
41
Kommunikation richtig steuern Erfolge und Erfahrungen mit einem wissenschaftsbasierten Controlling-System für Unternehmenskommunikation Lothar Rolke, Alexander Zell
Prof. Dr. Lothar Rolke lehrt BWL und Unternehmenskommunikation an der Fachhochschule Mainz.
Alexander Zell ist Leiter Konzernkommunikation der Mainova AG in Frankfurt am Main.
E-Mail: lothar.rolke@wiwi.fh-mainz.de
E-Mail: a.zell@mainova.de
Der Wert von Kommunikation bemisst sich nach ihrer Wirkung. Und zwar ausschließlich – unabhängig davon, wie sie zustande gekommen ist. Denn nur wer die Wirkung von Kommunikation kennt, weiß was er ausgelöst hat und ob ihm das nutzt. Um eben dieser Wirkungen willen kommunizieren Unternehmen. Doch bei vielen ist eine Schieflage zu erkennen: Während sie kräftig in die Kommunikationsaktivitäten selbst investieren, bleibt die Wirkungsseite unterbelichtet. Allenfalls wird die Medienresonanz beobachtet, nicht selten sogar quantitativ und qualitativ analysiert. Dabei entsteht die angestrebte Wirkung doch erst dann, wenn die veröffentlichten Fakten und Meinungen von den Zielgruppen auch wahrgenommen, verarbeitet und dadurch verhaltensrelevant werden. Dabei bieten die Methoden der empirischen Sozialforschung, die Tools der Medienresonanzanalysen wie die Techniken der Befragung und statistischen Berechnungen von Datenmengen heute ein zielführendes Set, um die selbst- und fremdinitiierten Kommunikationswirkungen zu erfassen und auf Chancen und Risiken, auf Einflussstärke und Nachhaltigkeit, Zielerreichung und Wertbeitrag hin zu untersuchen. Weil sich nur so die Presse- und Medienarbeit optimieren lässt, ist für eine professionelle Unternehmenskommunikation Erfolgsmessung heute unverzichtbar geworden. Die Mainova AG in Frankfurt folgt einem am Ergebnis orientierten Verständnis von Kommunikation und will regelmäßig wissen, was sie wie wann wodurch und mit welchem Effekt 42
kommuniziert. Deswegen wird ihre Kommunikation nicht nur strategisch entwickelt und geplant, sondern auch in ihrer Wirkung gemessen. Seit nunmehr zwei Jahren arbeitet sie mit einem anspruchsvollen und belastbaren Controlling-System für Unternehmenskommunikation, das sie sich auf der Basis professioneller Standards hat entwickeln lassen.1
1. Das Modell: Kommunikation als Wirkungsprozess sichtbar machen Die Unternehmenskommunikation folgt Zielen und Plänen. Aber sichtbar wird sie bekanntlich für Außenstehende erst durch die Aktivitäten in der alltäglichen Presse- und Medienarbeit, die sich für die Mainova AG wie folgt aufsummieren lassen: Sie spricht mit Journalisten, versendet Pressemitteilungen, lädt zu Pressekonferenzen ein, stellt pressetaugliche Informationen und Schaubilder bereit und inszeniert Medienevents wie z.B. die Inbetriebnahme eines Windparks (all das wird übrigens als interner Output bezeichnet). Entscheidend ist nun zunächst einmal, dass Journalisten und Blogger überwiegend aufgrund dieser Aktivitäten über die Mainova berichten (= externer Output), Vorgänge und Ereignisse kommentieren, sodass Informati-
1 Partner für die regelmäßige Medienresonanzanalyse ist pressrelations (Düsseldorf); Partner für die Zielgruppenbefragung smartcon (Mainz).
lehre und studium | update 16 | ss 2013
onen eine Wertung erfahren. Das lässt sich dokumentieren und auswerten. Und führt zur nächsten Frage: Was bewirkt diese reine nachrichtliche oder auch kommentierende Berichterstattung bei den Lesern und Hörern, Usern und Fernsehzuschauern? Sie, die tatsächlichen oder potenziellen Kunden, machen sich ein Bild von der Mainova, bilden sich eine Meinung über die Wichtigkeit des Unternehmens, über die Angemessenheit einer Preiserhöhung beispielsweise, die erfahrungsgemäß auf Skepsis stößt, und über das soziale Engagement des Energieversorgers (alles zusammen bildet den so genannten Outcome). Aufgrund dieses Bildes – das wird erfahrungswissenschaftlich immer wieder überprüft – entstehen Verhaltensdispositionen bei der Zielgruppe, die zu mehr oder weniger Kundenbindung, Wechselbereitschaft und Weiterempfehlung führen. Werden sie also Realität, entstehen geldwerte Effekte, die sich monetär abschätzen lassen (= Outflow). Das Kommunikations-Controlling-System (KCS) der Mainova folgt der Zielvorgabe, den oben beschriebenen Wirkungsprozess von Kommunikation durch ein methodenübergreifendes Messverfahren transparent zu machen, um Erfolge und Themenrisiken zu erkennen, aber auch Optimierungsansätze zu identifizieren. Das so justierte Steuerungssystem soll auf den realen und nachweisbaren Wirkungszusammenhängen basieren, d.h. die Kommunikationseffekte werden nicht isoliert gemessen, sondern immer in einem Ursache-Wirkungs-Zusammenhang erfasst und bewertet. Insbesondere der eigene Einfluss auf die veröffentlichte Meinung und die Wirkung der veröffentlichten Meinung auf verschiedene Verhaltens- und Einstellungsindika-
toren soll über Kennzahlen abgebildet und messbar gemacht werden. Denn nur so kann die Effizienz und Effektivität der Kommunikation systematisch erhöht werden. Dieser Wirkungsprozess von Kommunikation, der nicht mechanistisch missverstanden werden darf (im Sinne von 20 % mehr an positiver Berichterstattung führt zu 20 % mehr Zustimmung zum Unternehmen), sondern nur von einer Richtungskausalität bestimmt wird (im Sinne von mehr positive Berichterstattung führt in der Regel zu mehr Zustimmung und Verständnis, aber nicht immer in gleichem Maße), muss in seiner jeweiligen Ausprägung also immer wieder empirisch-methodisch erfasst werden. Abstrakt ist dieser Wirkungsprozess nach dem ICV/ DPRG-Bezugsrahmen für Kommunikations-Controlling modelliert (vgl. Rolke/Zerfaß 2010). Konkret wird der Output in seiner Vielschichtigkeit mittels einer quantitativ-qualitativen Medienresonanzanalyse untersucht, wohingegen der dadurch beeinflusste Outcome und Hinweise zum Outflow (hier: geldwerte Verhaltensdispositionen) mit Hilfe einer repräsentativen Meinungsbefragung ermittelt werden. Die Basis also bildet die regelmäßige Erfassung des medialen Outputs (Zeitungsartikel, Onlineberichte, Hörfunk- und Fernsehbeiträge), die einerseits quantitativ in Menge, Umfang und Zeitpunkt und andererseits qualitativ über Inhalt/Thema, Tonalität und Exklusivität analysiert werden, die dann in Kenngrößen (z.B. den Akzeptanzquotienten, der die Tonalität angibt) verdichtet werden, um Vergleichbarkeit zu gewährleisten und dadurch die Entwicklung besser beobachten zu können. Zweimal im Jahr
Abb. 1: Das einfache Basismodell und die Methoden der Erfassung
update 16 | ss 2013 | lehre und studium
43
werden bei den Zielgruppen der Kunden und Nicht-Kunden, der Frankfurter und der Bewohner des Umlandes das Mediennutzungsverhalten, die Wahrnehmung, das Meinungsbild und die Verhaltensdispositionen repräsentativ ermittelt. Da die Mediennutzer und die Befragten das gleiche Profil aufweisen, können die Einzelergebnisse seriös aufeinander bezogen werden. Viele Daten sind für sich interessant, doch die Erkenntnis-Kicks ergeben sich erst aus dem Vergleich: von beispielsweise internem und externem Output, von Output und Outcome, von Themenwahrnehmung und Themenbewertung. Dazu einige Beispiele: §§ D ie Mainova hat für sich vier strategische Themen (Partnerschaft, Zukunftsverantwortung, wirtschaftliche Relevanz und gesellschaftliche Verantwortung) definiert, mit denen sie ihr Image profilieren will. Um damit zu arbeiten, werden sie in einzelne Themenfelder aufgelöst, die wiederum aus kommunizierbaren Pressethemen bestehen. So gehören zum strategischen Thema „Partnerschaft“ etwa die Themenfelder „Preis“ und „Kunden/Service“, die mit den Pressethemen „Preiserhöhung/-senkung“ bzw. „Wachsende Kundenzahlen“ bedient werden. Wichtig für die Unternehmenskommunikation ist nun nicht nur, welche Pressemitteilungen in welchem Umfang übernommen werden, sondern auch wie die Tonalität der Berichterstattung ist und wie stark sie auf die strategischen Themen einzahlt: Nicht jede Nachricht verbreitet sich in gleichem Umfang und gleicher Tonalität. §§ S teuerungsrelevant ist auch das Verhältnis von Themenpräsenz (= externer Output) und Themenwahrnehmung (= Outcome), weil nicht alle Themen die gleiche Beachtung finden. So zeigt sich regelmäßig, dass Presseberichte, die auf die Themenfelder „Gesellschaftliche Verantwortung“ und „Partnerschaft“ einzahlen überproportional stark wahrgenommen werden. Hier lohnt sich unter Umständen nicht nur, den Aufwand zu erhöhen, sondern auch ganz gezielt solche Themen zu initiieren. §§ D ass es sich lohnt, Themen öffentlichkeitswirksam zu platzieren zeigt sich übrigens auch daran, dass diejenigen Mediennutzer, die die Themen der Mainova wahrnehmen, bei allen Imagekomponenten ein positiveres Bild vom Unternehmen haben, als diejenigen, die die entsprechende Berichterstattung nicht wahrgenommen haben. Insofern ist es wichtig immer wieder zu prüfen, wo und in welchem Umfang die Zielgruppen die Möglichkeit haben, Neuigkeiten vom Unternehmen zu erfahren. und die Medien entsprechend gezielt zu kontaktieren. Doch so wichtig die Zusammenhänge über Medienpräsenz und Meinungsbildung auch sind, mitunter ist es ein einzelner Aspekt, der wichtige Impulse für die eigene Medienarbeit gibt. So zeigt sich beispielsweise, dass die Rezeption der Zeitung zwar kontinuierlich sinkt, aber doch so langsam, dass die Tageszeitungen für 44
die Mainova der wichtigste Medienpartner bleiben werden, zumal von dort die größten imagebildenden Wirkungen ausgehen. Wirkungsprozesse sichtbar zu machen, dient dann auch dazu, deutlich zu machen, was die Unternehmenskommunikation für die Imagebildung und den Reputationsschutz – und damit für die Wertschöpfung des Unternehmens – leistet. Aber im Grunde genommen genauso wichtig ist es, dass – durch die Transparenz der Kommunikationseffekte – nach innen die Beratungsund nach außen die Steuerungskompetenz zunimmt.
2. Die Reports: Trends erkennen und Ziel erreichung überprüfen Die Kontrolle von Quantität und Qualität der Medienberichterstattung über die Mainova erfolgt tagesaktuell über ein Online-Portal. Dort werden sämtliche Berichte mit einer Unternehmensnennung erfasst und ihre Tonalität bewertet. Dieses Akzeptanzniveau wird auf einer Skala von –2 („sehr negativ“) über 0 („neutral“) bis +2 („sehr positiv“) abgestuft. Der Durchschnitt dieser Werte bildet den Akzeptanzquotienten. Er ist für die Kommunikationsverantwortlichen bei der Mainova eine strategische Kennzahl. Trends der Medienberichterstattung werden auf diese Weise schnell erkannt. Anhand von zuvor festgelegten Zielvorgaben können Maßnahmen ergriffen und die Kommunikationsaktivitäten gesteuert werden. So kann beispielsweise die Kommunikation von positiv dargestellten Themen intensiviert werden, etwa durch das Platzieren von Interviews oder Gastbeiträgen mit einem Vorstandsmitglied. Werden negative Entwicklungen wahrgenommen, können kurzfristig Gegenmaßnahmen ergriffen werden. Hierzu zählt zum Beispiel das Platzieren von Positivmeldungen wie Spendenübergaben oder Servicethemen für die Verbraucher. Die Bewertung der Tonalität geschieht ohne Einflussnahme des Unternehmens auf Grundlage eines Codebuches, in dem die Standards der Bewertung festgeschrieben sind. Die Entwicklung dieses Codebuchs ist entscheidend für das Gelingen des Projekts, da nur so individuelle Einordnungsfehler unterschiedlicher Codierer verhindert werden. Die Standardisierung gewährleistet, dass die Bewertung der Tonalität stets auf der identischen Grundlage durchgeführt wird – unabhängig von der Person des Codierers. Dies ist Voraussetzung für die Objektivität und Vergleichbarkeit der Ergebnisse. Einmal pro Quartal erhält die Mainova eine detaillierte Medienresonanzanalyse. An erster Stelle wird dort die Anzahl der Nennungen des Unternehmens in Medienberichten dargestellt – aufgeschlüsselt nach Print, Online sowie Hörfunk/TV. Im Zeitverlauf wird so klar ersichtlich, inwieweit die eigenen Kommunikationsaktivitäten Niederschlag in den Medien gefunden haben. Neben der Quantität der Berichterstattung ist vor allem die Qualität der Medienresonanz von entscheidender Bedeutung. lehre und studium | update 16 | ss 2013
Abb. 2: Kennzahlen im Überblick und im Vergleich
Sie lässt aufgrund der oben dargestellten Wirkungszusammenhänge Rückschlüsse darauf zu, inwieweit die eigene Pressearbeit die Bewertung des Unternehmens beeinflusst. Zu diesen Faktoren gehört neben dem Akzeptanzniveau die Darstellungsform, in der über die Mainova berichtet wird. Hier wird überprüft, in welchem Exklusivitätsgrad über das Unternehmen berichtet wird (Exklusivbericht, Schwerpunktbericht, Randbericht oder reine Unternehmensnennung) sowie die Artikelaufmachung (Nachricht, Bericht, Kommentar, Interview etc.). Bei jedem Pressebericht wird zudem überprüft, ob die Veröffentlichung eigeninitiiert war (z.B. durch eine Pressemitteilung). Grundsätzlich lässt sich sagen, dass ein hoher Anteil eigeninitiierter Berichterstattung zu einer höheren Medienakzeptanz führt, da in diesen Fällen die eigenen Bewertungen des Unternehmens in den Berichten starken Niederschlag finden. Ähnliches gilt für den Anteil der internen oder externen Meinungsträger in der Berichterstattung. Je höher der Anteil der internen Meinungsträger (Vorstand, Pressesprecher) ist, desto größer ist die Chance, mit den eigenen Positionen durchzudringen. Aber auch durch externe Meinungsträger (z.B. Politiker, Experten), die sich positiv über das Unternehmen äußern, lassen sich positive Einflüsse erkennen. Die quartalsweise Analyse der Medienresonanz wird halbjährlich ergänzt durch eine repräsentative Meinungsbefragung, deren Ergebnisse systematisch mit denen der Medienresonanzanalyse in Beziehung gesetzt werden. Erst dadurch lässt sich erkennen, welchen tatsächlichen Einfluss die Medienberichte über die Mainova auf die Leser haben. Hierbei stehen insbesondere die Einflüsse der Medienarbeit auf die (potenziellen) update 16 | ss 2013 | lehre und studium
Kunden der Mainova im Vertriebsgebiet des Unternehmens im Vordergrund. Wichtige Erkenntnisse liefert zudem die Auswertung der Frage, welche Auswirkungen die mediale Präsenz eines Themas auf die Wahrnehmung dieses Themas bei den Mediennutzern hat. Insgesamt lässt sich feststellen, dass die Themenpräsenz in den Medien einen deutlich positiven Effekt auf die Themenwahrnehmung hat. Diese Erkenntnis ist noch nicht überraschend. Ein detaillierter Blick auf die Ergebnisse zeigt aber erstaunliche Wirkungszusammenhänge: So hat etwa das Thema Sport- und Kultur-Sponsoring nur eine relativ geringe Präsenz im Vergleich zu anderen Themen – dies beeinträchtigt die Wahrnehmung aber in keiner Weise: Dieses Thema wird in gleicher Stärke von den Mediennutzern wahrgenommen wie das viel häufiger präsente Thema Innovationen. Dies liegt in erster Linie daran, dass die Rezipienten die Förderung von Sport und Kultur emotionaler betrachten als technische Neuerungen und sich daher an diese Berichte eher erinnern. Eine Antwort auf die Frage nach den zu nutzenden Kanälen für die Unternehmenskommunikation gibt die Analyse des Zusammenhangs von Mediennutzung und Themenwahrnehmung. Zwischen den einzelnen Themenbereichen lassen sich dabei nur geringe Differenzen erkennen. Ein deutlich vielschichtigeres Bild zeigt sich beim Blick auf die unterschiedlichen Medien. Der Mainova zeigte die Analyse der unterschiedlichen Medienkanäle, dass die klassischen Printmedien nach wie vor den wichtigsten Kanal zum Verbraucher bilden. Die Lokalzeitungen im Netzgebiet der Mai45
Abb. 3: Themenpräsenz und -wahrnehmung im Vergleich
nova haben dabei den höchsten Stellenwert. Themen, die dort präsent sind, werden von den Nutzern deutlich stärker wahrgenommen als Beiträge in Hörfunk oder Fernsehen. Entgegen dem allgemeinen Trend hin zu einer immer stärkeren OnlineKommunikation zeigt die mehrjährige Beobachtung, dass das Internet für die Kommunikation der Mainova-Themen – trotz einer hohen Präsenz in diesem Medium – noch keine große Rolle spielt. Die Mediennutzer nutzen das Word Wide Web derzeit (noch) nicht so stark für die Information und Meinungsbildung über das Unternehmen. Durch die Ergebnisse des PR-Controllings konnte die Mainova nun erstmals anhand von belastbaren Zahlen erkennen, welche Auswirkungen die Kommunikationsarbeit auf das Image des Unternehmens hat. Über einen langen Zeitraum lässt sich kontinuierlich feststellen, dass das Image der Mainova bei den Befragten umso besser ist, je mehr Themen sie medial wahrgenommen haben. Kurz gesagt: Je stärker die Mainova mit ihrer eigenen Pressearbeit durchdringt, desto besser bewerten die Menschen den Energieversorger. Diese positive Beeinflussung des Images hat wiederum bei Mainova-Kunden signifikante Auswirkungen auf die Weiterempfehlungsbereitschaft beziehungsweise die Loyalität zum Unternehmen. Bei Nicht-Kunden lässt sich entsprechend umgekehrt eine viel stärkere Wechselbereitschaft erkennen.
3. Die Praxis: Earnings by Learnings Welche Konsequenzen lassen sich nun aus den Ergebnissen des PR-Controllings für die tägliche Medienarbeit ziehen. Wie können die Ergebnisse in die strategische Kommunikationsplanung einbezogen werden? 46
Bislang konnte Pressestelle der Mainova lediglich quantitativ ermitteln, welche Anzahl von Berichten es zu einer bestimmten Kommunikationsmaßnahme gab. Nun lässt sich neben dieser quantitativen Analyse auch qualitativ feststellen §§ w ie Themen in der veröffentlichten Meinung aufgenommen werden Tonalität), §§ w ie stark sie mit der Mainova in Verbindung gebracht werden (Grad der Exklusivität) und §§ welche Rolle Dritte in der Medienberichterstattung spielen. Entscheidend für die Unternehmenskommunikation ist aber nun, in welchem Zusammenhang diese Merkmale der veröffentlichten Meinung mit der konkreten Ausprägung der öffentlichen Meinung stehen: Konkret geht es um die Fragen, §§ i nwieweit eine bestimmte Themenpräsenz auch zu einer entsprechenden Themenwahrnehmung führt und §§ i nwieweit das wahrgenommene Thema das Meinungsbild beeinflusst. Aus diesen Erkenntnissen lassen sich klare Konsequenzen und eindeutige Handlungsempfehlungen für die strategische Themenplanung ableiten. Darüber hinaus kann man die zur Verfügung stehenden begrenzten Ressourcen (Personal und Geld) effizienter einsetzen. Ein Beispiel dafür ist das Thema Preisgestaltung. Das PR-Controlling hat gezeigt, dass dieses Thema von den Medien in starkem Maße aufgegriffen wird. Gleichzeitig zeigt sich bei den Mediennutzern eine hohe Sensibilität: Wenn preisrelevante Themen in den Medien präsent sind, werden sie deutlich stärker wahrgenommen als andere Themen. Und dies zumeist mit stark negativen Tendenzen. lehre und studium | update 16 | ss 2013
Als beispielsweise die Mainova im Januar 2012 eine Preiserhöhung bekannt gab, war die mediale Wahrnehmung immens. Da das Unternehmen einer der ersten Energieversorger war, der diesen Schritt veröffentlichte, nahmen dies viele Medien zum Anlass für eine Berichterstattung. Als die Wettbewerber in den nächsten Tagen nachzogen, wurde die Mainova in den Beiträgen häufig mit erwähnt. Die Tendenz dieser starken medialen Resonanz war in den allermeisten Fällen eindeutig negativ. Der Eingriff in den Geldbeutel der Kunden wurde von den Medien kritisiert. Das Akzeptanzniveau der Berichterstattung sank in diesem Quartal auf der fünfstufigen Skala um fast einen ganzen Punkt von 1,07 auf 0,17. Auch die negativen Einflüsse auf die Bewertung des Unternehmens durch die Mediennutzer zeigten sich in der halbjährlichen Meinungsumfrage. Es waren starke Kommunikationsanstrengungen erforderlich, um diesen Trend wieder umzukehren. In der heißen Phase der Preisdebatte, die etwa zwei Wochen andauerte, waren die Medien nicht dazu bereit, über andere Mainova-Themen zu berichten. Obwohl andere wichtige Themen platziert wurden, konnten sie das Interesse an der Preiserhöhung nicht verdrängen. Die Analyse der Resonanz auf die eigenen PR-Aktivitäten zeigte, dass die durchschnittliche Abdruckquote in diesem Zeitraum nur etwa 30 % des üblichen Umfangs betrug. Auch bei einem weiteren Kommunikationsanlass im Jahr 2012 ergab das PR-Controlling wichtige Erkenntnisse. Die Mainova befand sich seit zehn Jahren in einer intensiven juristischen und medialen Auseinandersetzung mit der hessischen Landeskar-
tellbehörde über die Höhe der Frankfurter Wasserpreise. Bereits in den ersten Wochen des Jahres gab es einige teilweise negative Medienberichte zu diesem Thema. Beide Seiten einigten sich dann im Mai auf einen Vergleich, der eine 25%ige Absenkung der Preise beinhaltete. Dieser Vergleich wurde auf einer gemeinsamen Pressekonferenz in Frankfurt vorgestellt. Diese Pressekonferenz führte zu einer breiten medialen Berichterstattung und Kommentierung des Themas mit rund 120 Beiträgen. Trotz der erzwungenen Preissenkung waren diese Berichte in ihrem Tenor aber überwiegend neutral. Teilweise wurde die Mainova sogar positiv herausgehoben, da die Preissenkung als positiv für die Kunden bewertet wurde („Mainova gibt Geld zurück“). Gleichzeitig wurde die Landeskartellbehörde wegen ihres Vorgehens deutlich kritisiert, da der Vergleich für viele Jahre zu einem defizitären Ergebnis im Wassergeschäft des Unternehmens führt. Eigentlich war das Thema damit abgeschlossen. In den folgenden Tagen gab es nur noch eine vereinzelte Berichterstattung Die Landeskartellbehörde war aber mit dem medialen Echo unzufrieden, weswegen sie kurz darauf den Kompromiss wieder aufkündigte. Anlass hierfür war eine unterschiedliche Interpretation des Vergleichstextes in der Frage, welche Kundengruppen in den Genuss der Preissenkung kommen sollten. Durch diesen offensichtlichen Konflikt erhielt das Thema zwei Wochen nach der Verkündung der Einigung erneut eine hohe mediale Relevanz. Um das Thema nun endgültig zu beenden und negative Auswirkungen auf das Unternehmensimage zu reduzieren,
Abb. 4: Verlauf der Berichterstattung zur Wasserpreis-Diskussion
update 16 | ss 2013 | lehre und studium
47
entschied sich die Mainova dafür, nachzugeben und die Preissenkung auf alle privaten Wasserkunden auszuweiten, was zu einem Anstieg des wirtschaftlichen Schadens führte. Diese erneute Einigung wurde nun durch eine gemeinsame Pressemitteilung beider Seiten verkündet.
ankommt. All das kann helfen, die öffentliche Akzeptanz des Unternehmens zu stärken und in der Medien konsumierenden Zielgruppe ein Befürworterpotenzial aufzubauen, das sich nachweisbar positiv auf die Loyalität und die Weiterempfehlungsbereitschaft auswirkt.
Das Medienecho auf diese Pressemitteilung war noch einmal deutlich stärker als nach der Pressekonferenz drei Wochen zuvor. Fast 160 Artikel und Beiträge befassten sich mit dem Thema. Die Berichterstattung wurde für die Mainova nun deutlich negativer. Die Medien thematisierten die „erzwungene Nachbesserung“ und insbesondere die negativen finanziellen Auswirkungen. Die Medienakzeptanz sank in dieser Zeit im Printbereich von 0,74 im April auf 0,44 im Juni. Online waren die Auswirkungen sogar noch stärker zu spüren: Hier sank das Akzeptanzniveau von 0,84 auf 0,26. Es dauerte noch weitere zwei Wochen, bis die Medien sich nicht mehr für das Thema „Wasserkartellverfahren“ interessierten.
Allerdings gibt es Risikothemen – allen voran das Preisthema, das im negativen Fall das Befürworterpotenzial sinken lässt und damit die Reputation verschlechtert. Deswegen besteht eine der Basisaufgaben der Unternehmenskommunikation darin, über die initiierte und von der Zielgruppe positiv wahrgenommene Berichterstattung einen Reputationsschutz aufzubauen, der als Puffer gegen die Risikothemen wie Preiserhöhung, Serviceprobleme und Ausfälle aller Art wirkt. Doch wie lässt sich ein solcher Reputationsschutz messen? Was macht ihn stark? Was schwächt ihn? Um ein solches Maß zu erhalten, wird derzeit mit einem Konstrukt experimentiert, das über das eigene Themenmanagement von der Mainova beeinflussbar ist. Wie nun ist die Messzahl zum Reputationspuffer aufgebaut?
Das PR-Controlling ermöglicht nun, die Entwicklung solcher Risikothemen erstmalig eindeutig festzustellen und ihre Auswirkungen zu messen. Nur so lassen sich fundierte Entscheidungen darüber treffen, welche tatsächlichen Konsequenzen die Berichterstattung über eine Preiserhöhung oder eine Auseinandersetzung mit der Politik tatsächlich hat. Hier können nun die Kommunikationsverantwortlichen eingreifen und gezielte Lösungsvorschläge für das Gesamtunternehmen unterbreiten. Hierzu zählt etwa die Frage der Terminierung der Bekanntgabe einer Preiserhöhung. Haben die Vertriebsverantwortlichen ein Interesse daran, die Kunden frühzeitig zu informieren, um gesetzliche Fristen einzuhalten, so haben die Mainova-Kommunikatoren nun belastbare Erkenntnisse darüber, welche negativen Auswirkungen eine zu frühe Bekanntgabe des Themas hat. Ebenso wichtig ist es, frühzeitig festzulegen, welche anderen Themen im Umfeld der Preiserhöhung kommuniziert werden, um ein mediales Gegengewicht zu setzen. So kann einem drastischen Absinken des Akzeptanzniveaus entgegengewirkt und Beeinträchtigungen des Unternehmensimages verringert werden.
4. Perspektiven: Das Konstrukt des „Reputations-Puffers“ Energieversorger wie die Mainova verfügen nun mal über keine Produkte, die durch ihre Beschaffenheit, ihr Design und ihren Lifestyle-Charakter zur Markenbildung taugen. Die Attraktivität der Mainova liegt im Unternehmen selbst. Also davon, was der Energieversorger öffentlichkeitswirksam tut. Und wie das, was er tut, wahrgenommen wird – wie die Mainova also als §§ §§ §§ §§ §§ 48
regionaler Wirtschaftsfaktor, Arbeitgeber, Serviceanbieter, Sponsor in Sport und Kultur, Auftraggeber etc.
Der beste Schutz gegen den Verlust an Reputation ist nachweislich – das wurde hier getestet – eine nachhaltige positive Berichterstattung, die auf einer Skala von –2 bis +2 (als von sehr negativ bis sehr positiv) bewertet werden kann. Eine solche Skala nun lässt sich umrechnen in eine solche, die sich von 0 (= kein positives Potenzial vorhanden) bis 100 % (= vollständig positives Potenzial) erstreckt. Die potenzielle positive Berichterstattung wird erfahrungsgemäß nicht ungefiltert in der medial erreichbaren Zielgruppe wirksam, sondern vermag nur eingeschränkt durchzudringen, weil §§ ü ber die Medien nicht alle Haushalte erreicht werden (Reichweitenbarriere), §§ v on den tatsächlich Erreichten nicht alle die veröffentlichten Themen auch wahrnehmen (Wahrnehmungsbarriere) und schließlich §§ v on den nachweisbaren Rezipienten (Zeitungsleser oder Internet-User) nicht alle darauf positiv reagieren (Zustimmung- oder Befürworterbarriere). All diese Barrieren verringern im Wirkungsprozess die ursprünglichen (meist positiven) Impulse. Dieser Schwund lässt sich berechnen und so die am Ende noch wirksame Kraft ermitteln: Zieht man also von der Stärke der positiven Tonalität der Berichterstattung (berechnet nach einer 100er-Skala) den Anteil ab, der nicht erreicht wurde, sowie davon den Anteil, der die Berichterstattung nicht wahrgenommen hat, und schließlich davon den, der davon nicht überzeugt ist, erhält man den Endwert: eine Messzahl für die Stärke des Reputationspuffers. Denn die Zahl gibt an, wie stark das medial erreichte Befürwortungspotenzial innerhalb einer definierten Zielgruppe (bei der Mainova die Frankfurter Bürger/Haushalte) ist. Interessant am Konstrukt des Reputationspuffers ist nicht nur das Endergebnis, das die Stärke der „Schutzschicht“ quantifilehre und studium | update 16 | ss 2013
Abb. 5: Veränderung des Reputationspuffers bei Frankfurter Bürgern
ziert, sondern auch die einzelnen Filterstufen, die zeigen, wo etwas nicht durchdringt. Beispielweise könnte sich in Zukunft zeigen, dass der Reputationspuffer vielleicht deswegen sinkt, weil über die klassischen Medienkanäle immer weniger Menschen erreichbar sind, was dann zu einer Veränderung der Kommunikationswege führen müsste. Doch so interessant der Reputationspuffer erscheint, sind dennoch spontane Einwände vorstellbar. Der Haupteinwand könnte in der Frage bestehen, warum der so konstruierte Reputationspuffer nur positive Werte zwischen 0 und 100 % zulässt, zumal doch auch eine negative Reputation vorstellbar ist. Das stimmt zweifellos. Aber mit dem hier vorgestellten Konstrukt wird ja nicht die Reputation gemessen, sondern nur der Puffer, also das verbleibende positive Potenzial der Befürwortung. Und das ist immer > 0. Außerdem kann man die Frage stellen, ob die Bedeutung des Umfangs der Berichterstattung (= Quantität und Intensität) hinreichend berücksichtigt wird. Tatsächlich geht beides zum Teil in die Reichweite ein. Sicherheitshalber sollte aber als Nebenbedingung für den Reputationspuffer auf Basis der vorhandenen Erfahrungswerte immer ein bestimmter Umfang der Berichterstattung unterstellt und überprüft werden. Anzahl und Auflage sind bekanntlich leicht zu ermitteln. update 16 | ss 2013 | lehre und studium
Nicht nur das Beispiel Mainova zeigt, dass es hilft, im Kommunikationsmanagement mit einzelnen Steuerungskennzahlen zu arbeiten – wie dem Akzeptanzquotienten zur Bestimmung der Tonalität oder der Relation von Themenpräsenz und ihrer Wahrnehmung, der Imagewirksamkeit von Themen oder eben dem Reputationspuffer. Doch in der Praxis wird es immer auch darum gehen, die konkreten Ereignisse hinter den Zahlen zu verstehen, um Effekte richtig zu bewerten und für die Planung zu nutzen. Denn Controlling-Ergebnisse erschließen sich nun mal nur dem kommunikativ professionellen Beobachter.
Literatur Rolke, L., Zerfaß, A. (2010): Wirkungsdimensionen der Kommunikation: Ressourceneinsatz und Wertschöpfung im DPRG/ICV-Bezugsrahmen, in: Pfannenberg, J. Zerfaß, A. (Hrsg.): Wertschöpfung durch Kommunikation. Kommunikations-Controlling in der Unternehmenspraxis, Frankfurt am Main.
49
Wie dumm dürfen Menschen wirklich sein? Das blaue Trompetentierchen und die Ökonomen: Die Kritik am Menschenbild der Ökonomen beruht auf einem falschen Verständnis von Wissenschaft Hanno Beck
Prof. Dr. Hanno Beck geb. 1966, lehrt die Fächer Volkswirtschaft und Wirtschaftspolitik an der Hochschule Pforzheim. E-Mail: hanno.beck@hs-pforzheim.de
Das blaue Trompetentierchen (Stentor coeroleus), wird von Wissenschaftlern als eher dämlich beschrieben: Es hat beinahe nichts, was man als Gehirn oder Nervensystem identifizieren könnte – was nicht darauf hoffen lässt, dass es zu großen intellektuellen Höhenflügen fähig ist. Dennoch: Macht man mit dem armen Trompetentierchen im Labor Experimente, so verhält es sich, als hätte es ein Lehrbuch VWL, Einführung, erstes Kapitel „Konsumentenverhalten“ gelesen. Unter dieser Rubrik beschreiben Ökonomen mit einer Menge unverständlicher Formeln und Grafiken – Indifferenzkurven, Budgetgeraden, Grenzraten der Substitution – wie sich Menschen in einfachen Entscheidungssituationen verhalten. Viele Studenten haben bereits mit diesem einleitenden Kapiteln Schwierigkeiten – ist das blaue Trompetentierchen etwa schlauer als ein Erstsemester?
Wie rational sind Menschen? Der noch recht junge Forschungszweig der verhaltenswissenschaftlichen Ökonomie (Behavioral Economics) legt diese Idee nahe: Im Rahmen eines umfangreichen Forschungsprogramms finden Wissenschaftler immer mehr so genannte Verhaltensanomalien, die suggerieren, dass Menschen sich nicht rational verhalten. Da lassen sich Menschen von zufällig gewählten Zahlen bei ihren Einschätzungen in die Irre leiten, man kann sie mit Hilfe trickreicher Experimente glauben lassen, dass sie Münzwürfe voraussagen können und sie finden Fleisch appetitlicher, wenn es statt „75 Prozent Fettanteil“ mit „25 Prozent fettfrei“ ausgezeichnet ist. Die Ideen und Experimente der Behavioral 50
Economics scheinen den Menschen zum kognitiven Versager abzustempeln. Zusammen mit den jüngsten Ereignissen auf den Finanzmärkten legen diese Forschungen die Idee nahe, das theoretische Fundament der Ökonomen zu erschüttern: Die Idee des legendären Homo Oeconomicus, des rationalen, egoistischen, nutzenmaximierenden Menschen, die Basis jedes einführenden VWL-Lehrbuchs, scheint um so absurder, je länger man sich mit den menschlichen Schwächen und Eigenheiten beschäftigt. Kein Wunder, dass der Homo Oeconomicus und generell das Menschenbild und der Forschungsansatz der Ökonomen in der Öffentlichkeit unter Beschuss geraten ist: Modellplatonismus, unrealistische Annahmen, irrelevante Modelle – die ganze ökonomische Disziplin sei mehr oder weniger über Bord zu kippen, alles müsse neu geschaffen werden. Müssen die Lehrbücher der Ökonomen neu geschrieben werden, taugt die ökonomische Theorie nichts mehr? In der Tat scheint die Annahme des Homo Oeconomicus realitätsfern. Er ist ein Zeitgenosse, wie man ihm nicht begegnen will: Er ist kühl, emotionslos, rechnet scharf und ist nur darauf aus, sein eigenes Wohlergehen, im Ökonomenjargon „Nutzen“ genannt, zu maximieren. Ist das realistisch? Vermutlich nicht. Wer aber der ökonomischen Theorie das zum Vorwurf macht, hat nicht verstanden, wie Modelle, wie Wissenschaft funktioniert. Der Homo Oeconomicus ist ein wissenschaftlicher Kunstgriff, wie ihn jede Wissenschaft anwendet, die auf der Suche nach Erkenntnis ist: Man vereinfacht die Umwelt, macht sich ein vereinfachendes Abbild von ihr, isoliert einzelne Fakten, vernachlässigt andere Umweltfaktoren, um zu neuen Erkenntlehre und studium | update 16 | ss 2013
nissen zu gelangen. Auch Physiker haben ihren Homo Oeconomicus, wenn sie beispielsweise Experimente im Vakuum oder im Labor machen – ist das realitätsfern? Natürlich, aber das spielt keine Rolle, denn es geht darum, neue Erkenntnisse zu gewinnen, und dazu muss man in einem ersten Schritt die Millionen anderen Umwelteinflüsse ausschalten, um zu einem eindeutigen Ergebnis zu kommen.
Falsches Wissenschaftsverständnis Die Kritik am Homo Oeconomicus beruht auf einem falschen Wissenschaftsverständnis: Der Homo Oeconomicus ist eine vereinfachende Darstellung des Menschen, die es Forschern erst ermöglicht, sich ein Modell, ein vereinfachendes Abbild von der Welt zu machen, auf dessen Basis man dann Vorhersagen machen kann. Man muss sich das wie eine Landkarte vorstellen: Eine Landkarte vereinfacht die Welt, indem sie diese auf eine Fläche von wenigen Quadratzentimetern reduziert – aber genau das macht eine Landkarte ja so nützlich, weil man jetzt alle störenden Details weglässt und sich auf das konzentrieren kann, was man benötigt, um seinen Weg zu finden. Eine Landkarte im Maßstab eins zu eins wäre erstens unmöglich und zweitens nutzlos, genauso, wie ein Modell, das die Realität eins zu eins abbildet, völlig nutzlos wäre – es wäre die Realität selbst. Wer Modelle fordert, welche die Welt so realistisch wie möglich abbildet, fordert Landkarten im Maßstab eins zu eins. Viel Spaß beim Entfalten der Karte. Jede Wissenschaft beruht auf Modellen, auf vereinfachenden Annahmen: Man macht vereinfachende Annahmen über die Welt, eliminiert Umwelteinflüsse, beispielsweise durch die Schaffung von Laborbedingungen, und entwickelt auf der Basis dieser Annahmen ein Modell. Der Homo Oeconomicus ist nicht das Weltbild der Ökonomen, er ist ihr Versuch, gedankliche Laborbedingungen herzustellen, unter denen man neue Erkenntnisse über die Welt gewinnt. Die Kritik am Homo oeconomicus kommt zum großen Teil von Menschen, die nicht verstehen, wie Wissenschaft funktioniert. Nun kann man ja aber auch fordern, ein anderes, realistischeres Modell der Realität zur Grundlage ökonomischer Theorien zu machen – muss man den Homo Oeconomicus durch ein anderes, realistischeres Weltbild ersetzen? Diese Frage lässt sich nicht so einfach beantworten, die Ergebnisse der Behavioral Economics sind nicht so unumstritten, wie ihre Verfechter das glauben machen wollen, es ist längst nicht ausgemacht, dass Menschen dämlicher sind als das Blaue Trompetentierchen. Ein Paradebeispiel dafür sind die Experimente des Ökonomen John List: List fragte sich, ob Menschen wirklich immer so uneigennützig sind, wie es viele Experimente zeigen. Durch einen Kniff beantwortete er diese Frage: In einem kleinen Experiment testete er, wie fair Menschen sind, mit dem in der Literatur üblichen Ergebnis – Menschen verhalten sich oft fair. Dann veränderte List das Experiment: Er wiederholte es, doch diesmal wussten update 16 | ss 2013 | lehre und studium
die Versuchspersonen im Gegensatz zur ersten Version des Experiments nicht, dass sie beobachtet wurden. Es kam, was man intuitiv erwartet: Auf einmal war das Bedürfnis nach Fairness nicht mehr so groß. Abgesehen von der Frage danach, wie belastbar die Ergebnisse der Behavioral Economics sind, stellt sich eine weitere Frage: Welches Modell sollte man denn an die Stelle des Homo Oeconomicus setzen? Verabschiedet man sich von der Idee, dass Menschen rational sind, so verabschiedet man sich auch von der Idee, ein Modell menschlichen Verhaltens zu konstruieren: Wenn Menschen unberechenbar und irrational sind, ist jegliche Voraussage über menschliches Verhalten – und um nichts anderes geht es bei ökonomischen Modellen – nicht möglich. Die Folge wäre eine Wirtschaftspolitik, die sich nicht auf Verhaltensannahmen, sondern auf Bauchgefühle oder eine wie auch immer geartete Moral stützt. Letztere Bemerkung zeigt, worum es bei der Kritik am Homo Oeconomicus wirklich geht: um Moral. So pochen die Kritiker des Homo Oeconomicus darauf, dass Menschen uneigennützig sind, dass die Ökonomie eine ethische Basis benötige und dass das Denken nicht ökonomisiert werden solle – Moral, nicht Erkenntnis steht hier auf dem Spielplan. Diese Forderungen nach ethischem Verhalten und Moral im menschlichen Miteinander sei unbenommen – doch gehört sie in den Prozess der Erkenntnisfindung, also in die Wissenschaft? Wer Moral – und damit Meinung – in die Wissenschaft hineinträgt, macht aus Wissenschaft Religion – die Ergebnisse einer solchen Veranstaltung sind von überschaubarem Nutzen. Die Annahmen einer Wissenschaft – auch wenn diese nie ganz ohne Werturteile auskommen – sollen die Welt erfassen wie sie ist, nicht, wie sie sein soll. Wer aber die Welt so erfassen will, wie sie ist, muss sich vorurteilsfrei daran machen, ein Modell zu bauen, das mit möglichst wenig Annahmen und Aufwand zu möglichst guten Ergebnissen kommt. Was das angeht, muss man den Ökonomen allen Vorwürfen zum Trotz recht gute Erfolge attestieren: In vielen Bereichen haben sie das Verhalten von Menschen und Märkten gut erfasst, und in vielen Bereichen haben sie die Welt verbessert – ein Beispiel dafür sind die Nobelpreisträger des Jahres 2012, die mit ihren Ideen die Funktionsfähigkeit sensibler Märkte verbessert haben. Natürlich können Ökonomen nicht die ganze Welt erklären – das kann nur die Religion. Und natürlich haben die Modelle der Ökonomen noch Lücken, und wo dies der Fall ist, sind Ökonomen längst dabei, diese zu schließen, sie arbeiten mit Biologen, Physikern oder Psychologen zusammen. Wer Ökonomen vorwirft, dass sie sich anderen Disziplinen verweigern, hat Nachholbedarf in Sachen Literaturstudium. Selbiges Literaturstudium belegt auch, dass scheinbar irrationales menschliches Verhalten bei näherem Hinsehen durchaus rational ist – ganz so doof sind wir nicht, immerhin fliegen wir auf den Mond und 51
Literatur Beck, H. (2012): Geld denkt nicht, München. Beck, H. (2009): Wirtschaftspolitik und Psychologie: Zum Forschungsprogramm der Behavioral Economics, in: ORDO, Band 60, S. 119–151. Camerer, C. (1999): Behavioral Economics: Reunifying psychology and Economics, Proceedings of the National Academy of Science, Vol. 96, p. 10575–10577. Gigerenzer, G. (1991): How to make cognitive illusions disappear: Beyond „Heuristics and Biases“, European Review of Social Psychology, (1991), Vol. 2, p. 83–115.
haben alkoholfreies Bier erfunden. Nur weil man bestimmte Verhaltensweisen oder Geschehnisse wie Finanzmarktkrisen nicht ad hoc versteht, bedeutet das nicht, dass sie Ergebnis puren Irrsinns sind. Die Annahme des Homo Oeconomicus ist realitätsfremd und erfolgreich zugleich: Erst diese Idee ermöglicht es uns, eine Vorstellung von der Welt zu erarbeiten, sie besser zu verstehen. Und unsere Erfahrung lehrt uns, dass diese Idee sehr robust ist: Vielleicht sind alle Menschen eine Zeitlang irrational oder manche Menschen immer irrational, aber nicht alle Menschen sind immer unvernünftig. So schlau wie das blaue Trompetentierchen sind wir allemal.
Gigerenzer, G., Todd, P. M., ABC Research Group (eds.) (1999): Simple Heuristics that make us smart, Oxford University Press, Oxford, New York. Gilovich, T., Griffin, D., Kahneman, D. (2002): Heuristics and biases. The psychology of Intuitive Judgement, Cambridge University Press. Glaeser, E. L. (2003): Psychology and the market. NBER Working Paper No. 10203. Kahneman, D., Knetsch, J. L., Thaler, R. H. (1991): Anomalies: The Endowment effect, Loss Aversion and Status Quo Bias, The Journal of Economic Perspectives, Vol. 5, No. 1, p. 193–206. Kahneman, D., Tversky, A. (1984): Choices, Values and frames, American Psychologist, 39, 4, p. 342–350. Kahneman, D., Tversky, A. (1979): Prospect Theory: An Analysis of Decision under Risk, Econometrica, Vol. 47, p. 263–291. Langer, E. J. (1982): The illusion of control, in: Kahneman, D., Slovic, P., Tversky, A. (eds.): Judgment under unceratinty: Heuristics and biases, Cambridge University Press, p. 231–238. Mullainathan, S., Thaler R. H. (2000): Behavioral Economics. NBER Working Paper 7948. Tversky, A., Kahneman, (1974): Judgement under uncertainty: Heuristics and biases, in: Science, Vol. 185 (1974), p. 1124–1131. Whitman, G. (2006): Against the new Paternalism. Internalities and the Economics of Self-Control, in: Cato Institute (eds.): Policy Analysis No. 563.
52
lehre und studium | update 16 | ss 2013
Crowdsourcing-Kampagnen Heinrich Holland, Patrizia Hoffmann
Heinrich Holland lehrt Quantitative Methoden der Betriebswirtschaftslehre und Marketing an der Fachhochschule Mainz. E-Mail: heinrich.holland@wiwi.fh-mainz.de
Patrizia Hoffmann ist Master-Absolventin der Betriebswirtschaftslehre der Fachhochschule Mainz mit dem Schwerpunkt Marketing. Erste Führungsverantwortung erhielt sie während ihrer Tätigkeit als Handelsfachwirtin bei der Peek & Cloppenburg KG. Praktische Erfahrung im Marketing sammelte sie unter anderem bei der Schott AG (Bereich Corporate Marketing), der Weber Stephen GmbH (Bereich Produktmarketing) sowie in einem Marktforschungsprojekt für die Löwen Entertainment GmbH. E-Mail: patriziahoffmann@gmx.de
1. Problemstellung „People don’t want to consume passively, they’d rather participate in the development and creation of products meaningful to them.” (Alvin Toffler, Futurist) Mit der Entwicklung des Web 2.0 wurden aus den passiven Internetanwendern aktive User und aus dem Internet wurde ein Mitmachmedium. Konsumenten möchten nicht einfach nur konsumieren, sondern auch ihre Meinungen und Ideen einbringen, der Dialog mit den Konsumenten hat sich auf viele unterschiedliche Formen der Kommunikation ausgeweitet. Vor diesem Hintergrund gewinnen Aktionen, in denen die Unternehmen Konsumenten in ihre Prozesse einbeziehen, immer mehr an Bedeutung. Crowdsourcing hat in jüngster Zeit gezeigt, wie profitabel es sein kann, Konsumenten in den Problemlösungsprozess einzubinden.
2. Crowdsourcing Der Ursprung des Begriffs Crowdsourcing (ein Neologismus aus den Wörtern „Crowd“ und „Outsourcing“) geht auf Jeff Howe zurück. Der Autor beschreibt in seinem Artikel „The Rise of Crowdsourcing“ das Phänomen des Einbezugs einer großen Menschenmasse in unternehmerische Prozesse, um durch diese Zusammenarbeit Ideen und Projekte zu entwickeln (Howe 2006).
update 16 | ss 2013 | lehre und studium
Beim Crowdsourcing werden Aufgaben ausgelagert, die traditionell von den eigenen Mitarbeitern erledigt wurden. Diese sollen nun von einer großen Masse externer Akteure gelöst werden. Zur Realisation trägt ein öffentlicher Aufruf bei, der über eine Webseite erfolgt. Aus dieser Zusammenarbeit können für beide Seiten, Unternehmen und Teilnehmer, Vorteile entstehen. Die Aufgaben, die an die Crowd weitergegeben werden, sind vielfältig. Sie reichen von der Übersetzung von Schriftstücken bis hin zur Entdeckung neuer Goldminen. Potenzielle Einsatzbereiche können beispielsweise das Produktdesign oder das Marketing sein. Aber auch zur Generierung von Ideen, um konkrete fachspezifische Probleme zu lösen, kann das Crowdsourcing hilfreich sein. Ein weiteres Gebiet ist die Geldbeschaffung und die kollaborative Projektumsetzung (Roskos 2009). Ein Schlagwort, das oft in Verbindung mit Crowdsourcing gebracht wird, ist der „arbeitende Kunde“. Dieser Konsumententypus wirbt in Blogs für seine Lieblingsmarke und entwickelt das Design seiner individuellen Sneakers. Er übernimmt die Arbeit als Berater, Ideenentwickler, Qualitätsprüfer oder Marketingspezialist und nicht immer erfolgt dafür eine Gegenleistung z.B. in Form einer Vergütung. Gleichzeitig reduziert das Unternehmen seine Verantwortung oder Pflichten (Papsdorf 2009, S. 13 f.). Kunden wollen zunehmend an der Entwicklung von Produkten als Akteure beteiligt werden. 53
Der öffentliche Aufruf erfolgt im Allgemeinen über eine Webseite; das Internet ist die Basis von Crowdsourcing-Aktionen. Über Plattformen werden Communities angesprochen, die sich mit dem Problem auseinandersetzen, und die Crowd übernimmt ganz im Sinne des Web 2.0 eine aktive Rolle (Roskos 2009).
3. Bedeutung der Teilnahmemotivation
berg 2008, S. 149). So wird durch die Belohnung der Arbeit an sich ein motivationaler und emotionaler Zustand beeinflusst. Die mit der intrinsischen Motivation zusammenhängenden Bedürfnisse sind Selbstbestimmung, Kompetenzerleben und Zugehörigkeit (vgl. Deci/Ryan 2000, S. 57 sowie Rheinberg 2008, S. 151). Aber auch Spaß ist ein Bedürfnis, das zur intrinsischen Motivation beitragen kann.
Die Motivation ist der Schlüssel zum Erfolg des Crowdsourcing. Hierzu zählt es, Menschen zur Teilnahme zu aktivieren, um damit einen hohen Grad der Verbreitung und Problemlösung zu erreichen.
Die extrinsische Motivation trägt indirekt zur Bedürfnisbefriedigung bei. Das ausgelöste Verhalten dient zur Herbeiführung positiver Folgen bzw. der Vermeidung von negativen Folgen. So baut die extrinsische Motivation auf dem Anreiz von Zielen auf (vgl. Rheinberg 2008, S. 151).
Motive bzw. Bedürfnisse stehen im Zusammenhang mit emotionalen Vorgängen, die für das Verhalten der Konsumenten verantwortlich sind. Sie treiben den Konsumenten an und sorgen für eine zielgerichtete Handlung. Beim Motiv liegt ein überdauernder Aspekt vor; als Motivation wird dagegen die momentane Handlungsausrichtung bezeichnet (vgl. Meffert/Burmann/ Kirchgeorg 2012, S. 121).
Um die Motiviertheit zu beeinflussen, gilt es mit externen Anreizen die individuellen Motive anzusprechen. Hierfür gibt es materielle und immaterielle Anreize. Zu den materiellen Anreizen zählen monetäre Entlohnungen. Immaterielle Anreize dagegen sind unentgeltliche Anreize. Sie werden von Individuen verschieden wahrgenommen, wodurch die Steuerung dieser Anreize diffiziler als diejenige materieller Anreize ist.
Wie die Abbildung 1 zeigt, muss dem Motiv eine situative Anregung gegeben werden, um ein Verhalten beim Menschen auszulösen. „Die situativen Momente, die Motive ansprechen und damit die Ausbildung einer Motivation bewirken, werden als Anreiz bezeichnet.“ (Schmalt/Langens 2009, S. 20). Damit existiert eine enge Verbindung von Motiven und Anreizen. Es sollten zu den jeweiligen Motiven passende Anreize geboten werden, damit der Organismus eine geeignete Voraussetzung für eine zielgerichtete Handlung wahrnimmt. Ähnlich wie die Motive können Anreize biologischer als auch sozialer Natur sein. Durch das Zusammenkommen von Motiv und Anreiz entsteht somit eine Motivanregung, aus der Motiviertsein resultiert (vgl. Schmalt/Langens 2009, S. 20–23).
Wie wichtig Motive und passende Anreize beim Kaufverhalten der Konsumenten sind, soll Abbildung 2 anhand des Kommunikationsmodells nach Meffert/Burmann/Kirchgeorg verdeutlichen. Mit der Wahrnehmung einer Werbebotschaft entstehen aktivierende und kognitive Prozesse. Diese sind Teil des Verarbeitungsprozesses und beeinflussen sich gegenseitig. So ist das Verstehen der Botschaft eine wichtige Größe, um die Informationen aufnehmen, verarbeiten und speichern zu können. Aber auch Emotionen tragen zur Verarbeitung bei, indem sie beispielsweise Lust signalisieren. Damit stehen Emotionen eng in Verbindung mit den Motiven der Konsumenten. Motive richten das Verhalten der Konsumenten auf ein Ziel aus und damit auf den Kauf eines Produkts. Sie werden je nach Situation relevant, weshalb das Wissen über die wichtigsten Motive von enormer Bedeutung ist. Letztendlich führen diese Komponenten zur Bildung eines Images, welches eine wichtige Voraussetzung für die Kaufabsicht ist. Die endgültige Kaufhandlung hängt von situativen Einflüssen ab wie der Preishöhe.
Als grundlegende Motivationstypen werden die extrinsische und intrinsische Motivation unterschieden. Bei der intrinsischen Motivation steht die Aktivität selbst im Vordergrund und trägt direkt zur Bedürfnisbefriedigung bei. Ein Verhalten ist demnach „intrinsisch motiviert“, wenn es aus eigenem Antrieb und damit ohne Einfluss externer Faktoren entsteht (vgl. Rhein-
Diese Betrachtung lässt sich an die Besonderheiten des Crowdsourcings anpassen. Wie die rechte Darstellung in Abbildung 2 zeigt, führt Crowdsourcing nicht vorwiegend zur Kaufabsicht, sondern zur Teilnahmeabsicht. Durch situative Einflüsse wie Teilnahmebedingungen und gewisse Voraussetzungen (beispielsweise die Notwendigkeit einer Community anzugehören) kann eine tatsächliche Teilnahme unterstützt bzw. verhindert werden.
4. Motive und Anreize beim Crowdsourcing
Abb. 1: Grundmodell der klassischen Motivationstheorie Quelle: Rheinberg 2008, S. 70
54
Um das Verhalten von Individuen gezielt zu beeinflussen, ist eine Klassifizierung der verschiedenen Anreiz- und Motivarten notwendig, da diese in enger Beziehung zueinander stehen. Eilehre und studium | update 16 | ss 2013
Abb. 2: Teilprozesse der Kommunikationswirkung, Quelle: Meffert/Burmann/Kirchgeorg 2012, S. 739
nen tieferen Einblick in die Gemeinsamkeiten von Motiven und Anreizen bietet Janzik in seiner Dissertation zur Motivationsanalyse von Online-Communities (Janzik 2011, S. 80). Tabelle 1 bietet einen Überblick über die Motive und passende Anreize, die Janzik im Bereich Anwenderinnovationen in Online-Communities ermittelt hat. Sie zeigt, dass den materiellen Motiven wie Einnahmen oder dem persönlichen Bedarf, die Anreize monetärer Entlohnung sowie Gratisprodukte bzw. die Nutzung des Produkts, Bonuspunkte oder die Teilnahme an Verlosungen gegenüberstehen.
Auch zu den immateriellen Motiven finden sich Beispiele aus der Praxis. Zum Beispiel kann der Aufgabensteller durch die Nennung des Gewinners als Co-Entwickler, Konsumenten ansprechen, deren Motiv für die Teilnahme die Verbesserung der Reputation ist. Konsumenten mit organisatorischen Motiven, wie einem beruflichen Aufstieg oder der Selbstvermarktung, können durch Anreize wie Karrierechancen motiviert werden. Ein weiteres Motiv dieser Gruppe stellt die Verbesserung der Stellung in der Community dar. So können Community-Mitglieder durch zusätzliche Rechte zu einer Teilnahme aktiviert
Tab. 1: Extrinsische und intrinsische Motivatoren und mögliche Anreize, Quelle: Janzik 2011, S. 81 update 16 | ss 2013 | lehre und studium
55
werden. Im Gegensatz zu den extrinsischen Motiven können intrinsische Motive wie Spaß, Identifikation und Altruismus nicht von außen beeinflusst werden. So ist für Konsumenten, die diese Motive haben, die Tätigkeit selbst der Anreiz.
Zur Informationssammlung wurden hauptsächlich Quellen wie Unternehmenswebseiten und Zeitschriftenartikeln genutzt. Die gesammelten Daten und Informationen, die aus den genannten Quellen hervorgingen, wurden in Tabelle 2 zusammengetragen.
5. Untersuchung von Crowdsourcing-Kampagnen
6. Beispiele für Crowdsourcing-Kampagnen
Der Untersuchungsgegenstand sind Kampagnen, die von Unternehmen im Bereich Fast Moving Consumer Goods (FMCG) in Deutschland durchgeführt wurden. Durch eine umfangreiche Onlinerecherche im April und Mai 2012 konnten insgesamt 16 Unternehmensbeispiele für Crowdsourcing-Kampagnen aus den Jahren 2010 bis 2012 gefunden werden. Dabei handelt es sich ausschließlich um bekannte Unternehmen:
Die folgenden vier typischen Crowdsourcing-Kampagnen (CSK) bieten einen guten Überblick über die Gestaltungsmöglichkeiten und Einsatzgebiete.
§§ §§ §§ §§ §§ §§ §§
Alfred Ritter dm MAPA Griesson Intersnack Coca-Cola Unilever
Intersnack führte 2011 seine erste Crowdsourcing-Kampagne mit dem Slogan „funny-frisch Chipswahl 2011“ durch. Das Unternehmen suchte eine neue Geschmacksrichtung für die funny-frisch Chips, die die Crowd auswählen sollte. Es rief über einen TV-Spot, Printanzeigen, Aufsteller am Point of Sale sowie Banner in Social-Media-Kanälen die Konsumenten dazu auf, sich als Tester von Chips zu bewerben. Zusätzlich setzte es Bastian Schweinsteiger als Testimonial ein. Die Aktion fand auf der eigens dafür entwickelten Homepage statt, auf welcher sich die Mitglieder der Community gegenseitig bewerten konnten.
Kraft Foods
Henkel McDonald‘s
Rügenwalder Mühle
L’Oréal
Reckitt Benckiser
Unternehmen Marke
Jahr Produktkategorie Slogan
Reichweite Aufgabe
Aufruf
Akteure
Unilever
AXE
2012 Hygieneartikel
Crowd
Balea
2011 Hygieneartikel
international national
Print, Online
dm
„Axe Anarchy The graphic novel“ „Balea Dusche für die kalte Jahreszeit“
MAPA
Billy Boy
2011 Hygieneartikel
„BILLY BOY Hot Spots“
national
Coca Cola
Coca Cola
2012 Lebensmittel
„Dein Move macht den Beat“
Coca Cola
Coca Cola
2012 Lebensmittel
Reckitt Benckiser
Durex
2012 Hygieneartikel
Intersnack
Autor-Wettbewerb
Aktionsumfeld
YouTube, Twitter, Facebook Community Plattform unserAller, Facebook
Produktentwicklung nicht bekannnt + Namensvorschlag + Verpackungsdesign Videowettbewerb nicht bekannnt
Crowd
international
Videowettbewerb
nicht bekannnt
Crowd
„Coca-Cola Design+ Award“
international
Verpackungsdesign
nicht bekannnt
„Durex Naked Box“
international
Verpackungsdesign
TV Spot, weitere nicht bekannt
Community Plattform jovoto.com, Facebook, Twitter Crowd Eigene Plattform und Facebook
funny-frisch 2011 Lebensmittel
„Funny-Frisch Chipswahl 2011“
national
Produkttester
L’Oréal
L’Oréal
„Werde das Gesicht von Sublime Mousse“
national
McDonald‘s
McDonald‘s 2011 Lebensmittel
„Mein Burger“
national
Kraft Foods
Milka
Henkel
Pril
Griesson
Prinzenrolle 2011- Lebensmittel 2012
„Back dir deinen Traumprinzen“
national
Alfred Ritter
Ritter SPORT 2010- Lebensmittel 2011
„Von euch, mit euch, für euch“
national
Rügenwalder Rügenwalder 2011 Lebensmittel Mühle Mühle
„Genuss des Jahres“
national
Henkel
Schwarzkopf 2011 Kosmetik
„The Look of Music“
international
Henkel
Volvic
„Volvic Design-Wettbewerb“
national
2011 Kosmetik
2011 Lebensmittel
„Damals wie Heute! Die schönsten Pausen sind lila!“ 2011 Reinigungsmittel „Mein Pril – Mein Stil“
2012 Lebensmittel
national
national
TV Spot, Print, Crowd Aufsteller-POS, Banner in Socialmedia Kanälen Modelwettbewerb Facebook, KampagnenCrowd seite, Display-BannerKampagne und FB-Ads. Produktentwicklung TV Spot, Crowd Rundfunk und Online Produkttester Social-Media-Kanäle, Crowd wie eigene Communities und Facebook Verpackungsdesign Online-Banner Crowd sowie Werbeplakate Produktentwicklung Online-Werbekampagne Crowd + Namensvorschlag mit Like-Ads und Bannern + Fotowettbewerb Produktentwicklung Social-Media-Kanäle wie Crowd + Namensvorschlag der eigene Blog, Facebook, + Verpackungsdesign Webseite, Newsletter Produktentwicklung nicht bekannnt Crowd + Produkttester + Darsteller Spot Style-Wettbewerb TV Spot, Crowd Social-Media-Kanäle, Banner Verpackungsdesign
Social-Media-Kanäle sowie Printanzeigen
Crowd
Anreize
Nachhaltigkeit
Com.-Jury
Die Chance eine eigene Rolle zu übernehmen Aktivste Mitentwickler bekommen fertiges Produkt
Zeitlich beschränkt Limitierte Edition
1 Platz: 5.000 Euro 2 Platz: 1.500 Euro 3 Platz: 1.000 Euro Homestorys der Wochengewinner. Gewinner VIP-Tickets für Olympia + Kultrapper DAS BO treffen 3.000 Euro pro Gewinner
Zeitlich beschränkt
Com.
Eigene Plattform, Com.-Jury YouTube, Facebook, Billy-Boy-Newsletter MyVideo + Jury Facebook
Jury+Com.
Com.-Jury
Teilnahme am Workshop und internationaler Final Runde – Zusammenarbeit mit der Durex Designagentur und 2000£ Preisgeld Tester (Test-Paket) dürfen neue Chips-Sorte wählen
Zeitlich beschränkt
Keine Neuauflage Limited Edition
Webseite + Facebook (Twitter)
Com.
Com.-JuryCom.
Webseite + Facebook Webseite + Facebook
Com.-JuryCom. Com.-JuryCom.
Werbekampagne, ModelZeitlich vertrag und ein Fotoshooting beschränkt mit Videodreh Werbespot Limitierte Edition Produkttester Limitierte Edition
Webseite + Facebook Facebook
Com.
Reise
Blog-Ritter SPORT, Facebook, Twitter, Flickr-Kanal Facebook
Jury-Com.
Limited Edition
Limitierte Edition Fanrolle exklusiv nach Hause Limitierte Edition
Jury-Com.
Top 20 erhalten ein Schuber Limitierte mit ihrem Design Edition
Com.-JuryCom.
Wurstexperte, Wursttester Dauerhaft und Darsteller für den Werbespot Werbekampagne, exklusives Zeitlich Fotoshooting mit Starfoto- beschränkt grafen, ESC VIP-Package (Tickets, Flug, Übernachtung) Familien-Reise im Wert von Limitierte 5.000 Euro Edition
Webseite + Facebook
Com.-Jury
Webseite+ Facebook
Jury-Com.
Tab. 2: Merkmale von Crowdsourcing-Kampagnen
56
Voting
Abkürzungen: Facebook (FB); Community (Com.)
lehre und studium | update 16 | ss 2013
marktfähiger Ideen zu minimieren, definierte das Unternehmen im Vorfeld eine Reihe von Regeln. Demnach sollten die Clips keine pornografischen Inhalte enthalten, maximal 60 Sekunden lang sein und ein Speichervolumen von 20 MB nicht überschreiten. Auf der für diese Aktion erstellten Plattform konnten sich Konsumenten registrieren und ihre witzigen „Hot Spots“ einstellen. Die Verbreitung der Spots fand über YouTube, Facebook sowie über den Billy Boy-Newsletter statt, wo die Teilnehmer auch ihre Spots bewerten lassen konnten. Eine Billy BoyJury kürte dann die drei besten Spots. Für den ersten Platz gab es ein Preisgeld von 5.000 Euro, für den Zweitplatzierten 1.500 Euro und für den dritten Platz 1.000 Euro (Billy Boy 2012).
Abb. 3: Beispiele von Crowdsourcing-Kampagnen
Über Facebook und Twitter sollten die Teilnehmer zusätzlich auf sich aufmerksam machen und Stimmen sammeln. Die 1.000 beliebtesten User erhielten ein Testpaket, das fünf verschiedene, launchfähige Produkte beinhaltete. In zwei Durchläufen wurde dann der Sieger gekürt. Im ersten Schritt wählten die Tester ihre zwei Favoriten ins Finale, aus denen sie im zweiten Schritt den Sieger bestimmten. Mit dieser Kampagne hat Intersnack eindrucksvoll bewiesen, dass das Crowdsourcing in der Lage ist, marktfähige Produkte hervorzubringen. So wurde die Siegersorte „Currywurst Style“ aus dem Jahr 2011 die erfolgreichste Produkteinführung im Kartoffelchips-Segment und lag im Verkaufsranking auf Platz 2. An diesen Erfolg will das Unternehmen 2012 anknüpfen. „Back dir deinen Traumprinzen“, so lautete der Aufruf des Unternehmens Griesson. Bei dieser Kampagne wurde dazu aufgerufen, eine neue Geschmacksrichtung der Prinzenrolle zu kreieren. In mehreren Schritten sollte ein Keks kreiert, der Name bestimmt sowie Bilder für die Verpackung gewählt werden. Das Unternehmen gab hierfür Kekssorten in drei Geschmacksrichtungen sowie 140 Zutaten vor, aus denen die Crowd zwei Zutaten für die Cremefüllung wählen konnte. Das Aktionsumfeld dieser Kampagne war die Facebook-Fanpage. Dort konnte sich die Community austauschen und gegenseitig bewerten. Eine Jury, bestehend aus Mitarbeitern und drei Facebook-Fans, bestimmte zunächst die zwanzig besten Rezepturen. Daraus wählte die Facebook-Community die Sieger-Geschmacksrichtung und legte deren Namen fest. Über einen Fotowettbewerb hatten die Konsumenten die Möglichkeit, aktiv an der Gestaltung mitzuarbeiten (Griesson – de Beukelaer 2011). Dies sorgte für zusätzliche Aufmerksamkeit. Als Belohnung erhielten die zwanzig Fans, deren Vorschläge in die engere Wahl kamen, eine Keksrolle noch bevor sie als Sonderedition in den Handel kam. Auch außerhalb der Ernährungsindustrie werden CSK genutzt. So suchte beispielsweise das Unternehmen MAPA für eine Billy Boy-Produktlinie kreative Werbespots. Um das Risiko nicht update 16 | ss 2013 | lehre und studium
Unilever nutzte für seine Marke Axe eine internationale Crowd, um einen Comic zu der neuen Produktlinie „Axe Anarchy“ zu kreieren. Mit dem Slogan „Axe Anarchy – The graphic novel“ rief das Unternehmen weltweit dazu auf, Hauptdarsteller und Szenerie des Comics zu bestimmen. Darüber hinaus konnten die Konsumenten auf dem eigenen YouTube-Kanal von Axe darüber abstimmen, wie die Story weitergeht und damit ihre eigene Rolle im Comic bekommen. Hierfür mussten sie ihre Vorschläge auf YouTube oder über Facebook und Twitter einreichen und die besten Ideen bewerten (Unilever 2012). Die Jury, die aus einem bekannten Comic-Autor sowie Mitarbeitern eines Comic-Verlags bestand, entschied letztendlich über den Verlauf der Geschichte.
7. Aufgaben, Akteure und Aufrufe bei den Crowdsourcing-Kampagnen Crowdsourcing wird durch die Merkmale Aufgaben, Akteure und Aufrufe charakterisiert. Die Untersuchung der Kampagnen zeigt, dass es eine Vielfalt an Aufgabenstellungen gibt. Die häufigsten Aufgaben beziehen sich dabei auf das Produkt. Hierzu gehören die Produktentwicklung, der Namensvorschlag, das Verpackungsdesign und das Testen von Produkten. Von 16 Kampagnen machen 63 % diese Tätigkeiten zur Aufgabe. Bei 31 % der Kampagnen wurden Aufgaben zum Marketing gestellt. Diese beinhalten das Erstellen von Spots oder die Teilnahme an Werbemaßnahmen wie die Möglichkeit, eine Rolle als Model einer Kampagne oder Darsteller in einem Werbespot zu bekommen, einen Song bzw. Comic mitzugestalten oder einen neuen Style zu kreieren. Bei genauerer Betrachtung wird deutlich, dass 25 % der Unternehmen mehrere Aufgaben in ihren Crowdsourcing-Kampagnen stellen. Rügenwalder Mühle beispielsweise kreierte eine Problemstellung aus Produktentwicklung (Entwickeln und Testen einer Wurst) und Marketing (Darsteller für einen Werbespot). Andere Unternehmen erweiterten ihre Aufgabe der Produktentwicklung, indem in weiteren Schritten der Produktname und das Verpackungsdesign bestimmt werden sollten. Mit gut 29 % werden daher die meisten Aufgaben im Bereich Verpackungsdesign gestellt. Am zweithäufigsten mit 21 % lassen Unternehmen aus dem Bereich Fast Moving Consumer Goods neue Produkte ent57
wickeln. Mit jeweils 13 % werden Namen für die Produkte oder Produkttester gesucht. Alle bereits genannten Marketingaufgaben machen jeweils 4 % der Aufgabenstellungen aus. Daraus folgt, dass der Hauptzweck von Crowdsourcing-Kampagnen darin liegt, Produkte zu testen und zu entwickeln. Dagegen werden Aufgabenstellungen zum Bereich Marketing selten eingesetzt. Weiter ist der Trend erkennbar, dass Unternehmen nicht nur einen Teil des Entstehungsprozesses auslagern, sondern sämtliche Produktionsstufen. Da nur sechs Unternehmen Informationen zum Einsatz der Werbeinstrumente zur Verfügung gestellt haben, kann eine repräsentative Aussage zum Aufruf zu Crowdsourcing-Kampagnen nicht getroffen werden. Dennoch wird deutlich, dass zehn von elf Kampagnen ihren Aufruf zur Teilnahme online, auf ihrer eigenen Webseite, auf Facebook oder in anderen Social-MediaKanälen tätigten. So kann davon ausgegangen werden, dass ein Fokus auf Onlinemedien liegt und dies mit dem klassischen Crowdsourcing übereinstimmt. Sieben Kampagnen setzten zusätzlich Offlinemedien wie Printanzeigen, Plakate und TV-Spots ein, um eine breite Masse anzusprechen. Welche Akteure angesprochen werden, lässt sich an den Internet-Plattformen erkennen. Die Betrachtung der Unternehmensbeispiele zeigte, dass nur 12,5 % der ausgewerteten Unternehmen, nämlich dm und Coca-Cola einen Online-Ideenbroker vorgezogen haben. Dabei handelt es sich um intermediäre Plattformen, deren Mitglieder interessiert und eine Affinität zum Crowdsourcing haben oder auch Experten sind. Dagegen sprechen 87,5 % der Unternehmen keine spezifische Zielgruppe an. Auf Grundlage der Aufrufe lässt sich zudem eine Aussage über die Akteure treffen. So kann gesagt werden, dass es sich hauptsächlich um Unternehmensinteressierte handelt, die entweder über die Homepage des Unternehmens darauf gestoßen sind oder bereits Mitglied einer Fan-Community sind. Da es in beiden Fällen keine Ausschlusskriterien gibt, kann festgehalten werden, dass es sich bei den Personen um eine unbestimmte Menschenmasse handelt, die sowohl jung als auch alt sein kann und vom Schüler bis hin zum Unternehmer reicht. Die Nutzung von Massenmedien wie Printanzeigen oder TV-Spots verstärken diesen Effekt.
sich nur auf den deutschen Markt konzentriert haben. Nur 31 % der Unternehmen haben auch international für ihre Kampagnen geworben. Durch soziale Netzwerke wie Facebook können sich Fans einer Marke weltweit zusammentun und Produktideen teilen und gegenseitig bewerten. Ein weiteres Merkmal von CSK ist das Aktionsumfeld. Hierbei handelt es sich um Webseiten, die der Crowd innerhalb der Aktion zur Verfügung stehen, um Ideen einzustellen oder für ihre Idee zu werben. Die Analyse zeigt, dass für alle Kampagnen Facebook genutzt wird. Die Fanseite kann den Mittelpunkt der Aktion bilden, auf der Mitglieder sich gegenseitig bewerten und ihre Ideen kommentieren können. Aber auch zur Verbreitung der Aktion ist Facebook ein wertvolles Instrument. Zusätzlich gehören Twitter, Flickr, MyVideo und YouTube zu weiteren Instrumenten, die solchen Aktionen dienen. Votings sind ein wichtiger Bestandteil einer CSK. Pril zeigte in der Vergangenheit, dass ein Voting nicht ganz den Teilnehmern überlassen werden sollte. Durch Scherz-Kreationen der Etiketten für Spülmittelflaschen, die nicht marktfähig waren, sah sich das Unternehmen gezwungen, die Regeln während der Aktion zu ändern und eine eigene Jury anstatt der Community über den Gewinner entscheiden zu lassen. Dies führte zu Protesten der Teilnehmer und zu einer regelrechten Hetzkampagne auf sozialen Netzwerken gegen das Unternehmen. Grundsätzlich kann festgehalten werden, dass bei allen Kampagnen der Gewinner durch das Urteil einer Jury oder der Community ermittelt wird. Die Unterschiede liegen in der Anzahl der Wahlgänge und darin, wer den Sieger bestimmt. Im Zuge dessen sollte ein Blick auf die Mitglieder der Jury geworfen werden. Grundsätzlich konnten durch die Analyse drei Arten von Jurybesetzungen ermittelt werden. Beispielsweise besteht die Jury bei der Prinzenrolle aus drei Facebook-Fans und Mitarbeitern. Bei McDonald’s entschied eine Jury aus Prominenten und Experten über die besten Burger. Und auch CocaCola machte sich Expertenwissen zunutze und ließ Experten
8. Merkmale von Crowdsourcing-Kampagnen Bei der Untersuchung der Crowdsourcing-Kampagnen wurde deutlich, dass es weitere charakteristische Merkmale der Kampagnen gibt (vgl. Abbildung 4). Die Anreize bedürfen einer intensiveren Diskussion und werden in einem späteren Kapitel beleuchtet. Grundsätzlich können CSK national oder international gestaltet werden, somit kann sich die Reichweite der Kampagnen unterscheiden. Die Analyse hat ergeben, dass 69 % der Unternehmen 58
Abb. 4: Ermittelte Merkmale von Crowdsourcing-Kampagnen
lehre und studium | update 16 | ss 2013
mit den Mitarbeitern gemeinsam die Entscheidung treffen. Am häufigsten besteht die Jury aus eigenen Mitarbeitern. Auch die Regeln spielen bei CSK eine große Rolle. So machte Pril mit seiner Aktion deutlich, dass es für den Erfolg einer Kampagne maßgeblich ist, Regeln vorher festzulegen. Zur Gewährleistung der Einhaltung müssen Interessierte vor der Teilnahme die Teilnahmebedingungen lesen und bestätigen. In einem solchen Regelwerk können z.B. Vorgaben für Zutaten festgelegt werden. Dadurch können unerwünschte Kreationen vermieden werden (vgl. hierzu Junke 2011 sowie Dämon 2011). Es lassen sich innovations- und promotionsorientierte Ideenwettbewerbe unterscheiden. Um einen Trend erkennen zu können, wurde ein Fokus auf die Nachhaltigkeit der entwickelten, designten und getesteten Produkte gelegt. Fast alle Unternehmen verkaufen die Produkte als limitierte Edition. Weiter fällt auf, dass bei diesen Kampagnen keine völlig neuen Produkte kreiert, sondern nur Produktdifferenzierungen vorgenommen wurden. Auch im Bereich Marketing werden die Ergebnisse der weniger innovationsorientierten Aufgaben wie Model einer Kampagne zu sein und einen Spot zu drehen nur kurzzeitig eingesetzt. Hieraus wird deutlich, dass Unternehmenskampagnen aus dem Bereich Fast Moving Consumer Goods einen promotionsorientierten Hintergrund haben. Im Gegensatz zum klassischen Crowdsourcing liegt das Ziel für Crowdsourcing-Kampagnen weniger in der Entwicklung von Produkten oder dem Lösen eines Problems, sondern vielmehr in der Steigerung der Kundenbindung durch Integration.
9. Vorteile und Risiken von Crowdsourcing-Kampagnen Vorteile von Crowdsourcing-Kampagnen sehen die Unternehmen darin, Konsumenten in den Prozess der Produktentwicklung mit einzubeziehen und sie so emotional an die Marke bzw. das Produkt zu binden (vgl. Roskos 2010). Weiter lassen sich durch die Mitgliedschaft in einer eigenen Unternehmens-Community Kundendaten für weitere Aktionen generieren. Auch durch den Stimmenfang über Facebook lassen sich neue Fans gewinnen. Zudem kann durch Social-Media-Kanäle eine starke Mundpropaganda erzeugt werden (vgl. Füller 2012). Dies geschieht, indem zufriedene Teilnehmer zu Markenbotschaftern werden und auf das Produkt aufmerksam machen. So zeigte Ritter SPORT in seiner Kampagne eindrucksvoll, wie die Teilnehmer zur Verbreitung ermuntert werden können. Trotz Scherz-Kreationen, die im Internet kursierten, schaffte es das Unternehmen durch humorvolle Kommunikation mit der Crowd, die Verbreitung der Aktion zu fördern und eine virale Marketing-Kampagne zu schaffen. Anhand dieses Beispiels wird zudem deutlich, wie wichtig die Kommunikation mit den Teilnehmern ist. Sie bietet die Chance, mit den Konsumenten in Kontakt zu treten und damit Kundennähe zu beweisen. So könupdate 16 | ss 2013 | lehre und studium
nen Crowdsourcing-Kampagnen nicht nur zur Verbesserung von Produkten durch eine weltweit angesiedelte Crowd führen, sondern auch die Bekanntheit der Produkte fördern, die von Konsumenten aktiv mitgestaltet wurden. So ist bei Markteinführung der Produkte das Engagement der Verbraucher viel höher. Risiken können dann bestehen, wenn Unternehmen die falschen Zielgruppen ansprechen. So hat Pril mit der Kreativität seiner Konsumenten nicht gerechnet. Um die angesprochenen Spaßdesigns zu vermeiden, hätte es eine Analyse über das Internetverhalten seiner Zielgruppe anfertigen und darauf aufbauend ein Reglement aufstellen sollen. Alternativ sollte sich ein Unternehmen an intermediäre Plattformen wenden, bei denen die nötige Ernsthaftigkeit durch Fachwissen gewährleistet ist. Ein weiteres Risiko besteht darin, durch mangelhafte Teilnahmebedingungen die Crowd von der Teilnahme abzuhalten. Gründe für eine Demotivation könnten sein, dass die Regeln die Kreativität zu sehr einschränken oder die Teilnehmer nicht ausreichend für ihr Engagement bzw. für ein uneingeschränktes Nutzungsrecht des Unternehmens honoriert werden (vgl. Marsden 2009 S. 4 sowie Schaffrinna 2012).
10. Anreize als Erfolgsfaktor bei Crowdsourcing-Kampagnen Aus der Analyse der Anreize, die bei den betrachteten Crowdsourcing-Kampagnen eingesetzt wurden, sollen Erkenntnisse zum Einsatz von Anreizen zur Teilnahmemotivation gewonnen werden (vgl. Tabelle 3). Im Fokus der Betrachtung stehen die Hauptgewinne der Kampagnen. Zusatzgewinne wie die Verlosung von Sachpreisen unter allen Teilnehmern bleiben unbeachtet. Zur Analyse der Kampagnen wurde die Tabelle 1 herangezogen. Dadurch soll eine Strukturierung der Anreize ermöglicht werden. Hierfür wurden die in den Kampagnen verwendeten Anreize in extrinsische und intrinsische aufgeteilt. Ein Problem, das mit der Einordnung der Anreize einhergeht, ist die subjektive Wahrnehmung eines jeden Individuums. Beispielsweise stellt für einen Konsumenten der Gewinn, als Model einer Kampagne zu agieren, einen intrinsischen Anreiz dar, wohingegen ein anderer damit sein Bedürfnis nach Ruhm befriedigen kann. Die Einordnung erfolgt somit objektiv und basiert auf den theoretischen Grundlagen. Die Kampagnenanalyse zeigt, dass 20 % der Kampagnen keine extrinsischen Anreize nutzten, sondern ihren Fokus auf die intrinsischen Motive der Konsumenten setzten. Das setzt voraus, dass der Konsument Spaß bei dem Lösen der Aufgabe hat, sich damit identifizieren kann, helfen will, das Gefühl von Kompetenz haben will oder einfach nur den Drang verspürt, die Aufgabe zu lösen. Weiter ist auffällig, dass die Unternehmen die Aufgabenstellung in ihren Aufrufen hervorheben. So hieß es beispielsweise bei Intersnack: „Nur sie erhalten das Test-Paket von funny-frisch 59
Extrinsische Anreize Marke
Anreize (kurz)
AXE
Darsteller im Comic
Anzahl der extrinsischen Anreize 1
Balea
Gratisprodukt
1
Billy Boy
Geldpreis
1
Coca-Cola
VIP-Tickets für Olympiade + Reise + Homestory + Promi treffen Geldpreis
4
Coca-Cola Durex
funny-frisch
Teilnahme am Workshop + Teilnahme am Finale (international) + Zusammenarbeit mit Agentur + Geldpreis Produkttester
1 4
Materielle Anreize Direkt Indirekt
Intrinsische Anreize
Immaterielle Anreize Sozial Organisatorisch Erhöhung des Status
Erfolg nach Facebook
Produktentwicklung
Monetäre Entlohnung
Videowettbewerb 2x Preis mit 2x monetärem Erhöhung Gegenwert des Status
0
2x Karrierechancen
Verpackungsdesign
L’Oreal
Modelvertrag + Fotoshooting + Videodreh
3
3 x Erhöhung des Status
Model für Kampagne
McDonald‘s
Teilnahme am Werbespot
1
Erhöhung des Status
Produktentwicklung
Milka Pril
Produkttester Reise
0 1
Prinzenrolle
Gratisprodukt
1
Ritter SPORT
Gratisprodukt
1
Rügenwalder Mühle
Wurstexperte + Wursttester + Darsteller im Werbespot
0
Schwarzkopf
Fotoshooting + VIP-Tickets für ESC + Reise + Professionelle Frisur Reise
4
Volvic
1
3 x Preis mit monetärem Gegenwert Preis mit monetärem Gegenwert
30.000
Produkttester Verpackungsdesign Produktentwicklung Produktentwicklung
Erhöhung des Status
9.000
443 Ideen
Produkttester
Preis mit monetärem Gegenwert GratisProdukte GratisProdukte
2.500 Kreationen 77 Spots
Videowettbewerb
Verpackungsdesign Anerkennung
Erfolg nach abgegebenen Stimmen
Autor-Wettbewerb
GratisProdukte
Monetäre Entlohnung Monetäre Entlohnung
Erfolg nach Ideen
Produktentwicklung + Produkttester + Darsteller im Werbespot Model für Kampagne
Verpackungsdesign
18.000 Bewerber Kurz nach Start bereits 1.000 Bewerber 116.468 Burger
460.000
50.000 Etiketten
1,6 Mio.
5.000 Rezepturen 930 Kreationen Wesentlicher Hunderte Anteil der bewarben sich Fans
1,5 Mio.
50.000
6.000 Fotos
2.200 Untere vierstellige Anzahl 40.000
1.000 Etiketten
Tab. 3: Analyse der Anreize
mit den drei neuen Sorten – und nur sie dürfen Deutschlands neue Chips-Sorte wählen!“ Durch die Betonung auf das „nur Sie“ könnte das Unternehmen neben dem intrinsischen Motiv „Gefühl der Kompetenz“ auch den „Drang, die Aufgabe zu lösen“ erhöhen. Welches intrinsische Motiv beim einzelnen Konsumenten angesprochen wird, wird hier nicht deutlich. Doch scheint die richtige Wortwahl die Intensität der Motivation beeinflussen zu können. Die Vielfalt der in den analysierten Crowdsourcing-Kampagnen gebotenen Anreize sowie ihre Aufteilung werden in Tabelle 4 zusammengefasst. Durch die Betrachtung der restlichen 80 % der Kampagnen, die extrinsische Anreize anboten, kann festgestellt werden, dass die extrinsischen materiellen und immateriellen Anreize fast gleich häufig zum Einsatz kommen. Nach Maslows Theorie wird mit Befriedigung der physiologischen Bedürfnisse, die nächste Stufe der Bedürfnispyramide erreicht. So ist es nicht überraschend, dass nur 23,1 % der 60
angebotenen extrinsischen Anreize Geldpreise sind. Dagegen werden indirekte materielle Anreize wie Gratisprodukte und Reisen sowie soziale immaterielle Anreize gleichermaßen stark eingesetzt. Die immateriellen organisatorischen Anreize sind mit 20 %, die am wenigsten eingesetzten. Nur Durex hat diese in seiner Kampagne benutzt und motiviert seine Teilnehmer durch eine Zusammenarbeit mit einer Agentur und die Teilnahme an einem Workshop. So kann angenommen werden, dass soziale immaterielle Motive bei den Konsumenten stärker vertreten sind. Weiter zeigt die Analyse, dass ebenfalls Kombinationen mehrerer Anreize genutzt werden. Demnach setzten 25 % der Unternehmen zwei oder mehr extrinsische Anreize ein. Abschließend soll die Klassifizierung von extrinsischen und intrinsischen Motiven und Anreizen nach Janzik auf Basis von Crowdsourcing-Communities erwähnt werden. Obwohl die Kampagnenanalyse Übereinstimmungen mit dem Großteil seilehre und studium | update 16 | ss 2013
ner Ergebnisse aufzeigt, kann der Einfluss einiger Anreize bei Crowdsourcing-Kampagnen nicht bestätigt werden. Beispielsweise findet der Anreiz „Bonusprodukte mit monetärem Gegenwert“ bei Crowdsourcing-Kampagnen keine Verwendung. Auch Anreize wie Auszeichnungen oder sichtbare Mitgliedslevel werden nicht eingesetzt. Dies ist darauf zurückzuführen, dass intermediäre Plattformen bei Crowdsourcing-Kampagnen nur selten zum Einsatz kommen und diese Anreize keine Relevanz für Social-Media-Plattformen wie Facebook haben. So kann auch das Motiv „Verbesserung der eigenen Funktion in der Community“ für die weitere Untersuchung ausgeschlossen werden.
Da Crowdsourcing-Kampagnen ein erfolgsversprechendes Instrument sind, um Kundenbindung durch Integration der Konsumenten in die Entstehungsprozesse zu verstärken, ist davon auszugehen, dass sie noch weiter an Bedeutung gewinnen werden. So können die Unternehmen gerade in Bezug auf den starken Wettbewerbsdruck diesen Vorteil für sich nutzen. Doch je mehr Unternehmen das Instrument für sich entdecken, umso mehr wird deutlich werden, dass auch die Ressource Crowd begrenzt ist (vgl. Ramge 2007, S. 137).
11. Ausblick
Literatur
Aus dem vorhandenen Datenmaterial und dem Vergleich der Erfolgsgrößen konnten drei sehr erfolgreiche Kampagnen identifiziert werden. Dazu gehören McDonald’s, Pril und Intersnack.
Bell, D. (2011): The Crowdsourcing Handbook, Milton Keynes.
McDonald’s konnte mit der Kreation eines Burgers und dem Anreiz, Darsteller in einem Werbespot zu werden, rund 116.000 Burgerkreationen und 1,5 Millionen abgegebene Stimmen verzeichnen. An diesen Erfolg knüpfte das Unternehmen 2012 an und konnte die Beteiligung auf 327.000 kreierte Burger und fünf Millionen abgegebene Stimmen steigern. Hierfür ergänzte es seine Anreize um eine Reise an den Entstehungsort von McDonald’s und erleichterte die Teilnahme am Bewertungsverfahren, indem die Restaurantbesucher durch einen QR-Code auf den Burgerverpackungen mit ihrem Smartphone direkt abstimmen konnten. Interessant für die zukünftige Forschung und als Erweiterung dieser Studie wäre zu untersuchen, welche Konsumentenschicht, vor dem Hintergrund der in dieser Studie erforschten Motive, am ehesten durch welche Anreize zu motivieren ist, oder welche Zielgruppen am meisten Potenzial zur Teilnahme an Crowdsourcing-Kampagnen aufweisen.
Billy Boy (Hrsg.) (o. J.): Aktionsvorstellung, http://hotspots. billyboy.de/, Abruf 14.03.2012. Dämon, K. (2011): Back dir dein Produkt, http://www. wiwo.de/erfolg/trends/crowdsourcing-back-dir-dein-produkt/5820982.html, Abruf 29.06.2012. Deci, E. L., Ryan, R. M. (2000): Intrinsic and Extrinsic Motivations: Classic Definitions and New Directions, in: Contemporary Educational Psychology 25, p. 54–67. Füller, J. (o. J.): Die Gefahren des Crowdsourcing, http:// www.harvardbusinessmanager.de/blogs/, Abruf 29.06.2012. Griesson – de Beukelaer (Hrsg.) (o. J.): „Back dir deinen Traumprinzen“: Facebook-Communitykreiert eigene Rezeptur für die Prinzen Rolle, http://www.griesson-debeukelaer. de/deDE/pressecenter/pressemeldungen/2011/, Abruf 29.06.2012. >>
Tab. 4: Eingesetzte Anreize in den Crowdsourcing-Kampagnen update 16 | ss 2013 | lehre und studium
61
Literatur Howe, J. (2006): The Rise of Crowdsourcing, http://www.wired.com/wired/archive/14.06/crowds.html?, Abruf 29.06.2012. Janzik, L. (2011): Motivanalyse zu Anwenderinnovationen in Online-Communities, Wiesbaden. Junke, A. (2011): Mein Burger – McDonald‘s Crowdsourcing Kampagne, http://www.online-artikel.de/article/meinburger-mcdonalds-crowdsourcing-kampagne-83253-1.html, Abruf 22.07.2012. Marsden, P. (2009): Ideenplattformen – Web 2.0 at it‘s best, Frankfurt am Main. Meffert, H., Burmann, C., Kirchgeorg, M. (2012): Marketing – Grundlagen marktorientierter Unternehmensführung: Konzepte-Instrumente-Praxisbeispiele, 11. Aufl., Wiesbaden. Papsdorf, C. (2009): Wie Surfen zu Arbeit wird – Crowdsourcing im Web 2.0, Frankfurt am Main. Ramge, T. (2007): Die Masse macht‘s, in: brand eins: Heft 09/2007, S. 132–137. Rheinberg, F. (2008): Motivation, 7. Aufl., Stuttgart. Roskos, M. (2010): Crowdsourcing – Mehrwerte, Chancen, Definition, http://www.socialnetworkstrategien. de/2010/07/crowdsourcing-mehrwerte-chancendefinition/, Abruf 19.06.2012. Roskos, M. (2009): Warum Kreative beim Crowdsourcing mitmachen, http://www.socialnetworkstrategien. de/2009/08/warum-kreative-beim-crowdsourcingmitmachen/, Abruf 05.06.2012. Schaffrinna, A.(Hrsg.) (2012): Wieder einmal ein kruder „Designwettbewerb“, diesmal von Volvic, http://www.designtagebuch.de/wieder-einmal-ein-kruderdesignwettbewerb-diesmal-von-volvic/, Abruf 19.05.2012. Schmalt, H.-D., Langens, T. A. (2009): Motivation, 4. Aufl., Stuttgart. Unilever (Hrsg.) (2012): Axe Unleashes Anarchy with First-Ever Fragrance for Girls, http://www.unileverusa.com/ mediacenter/pressreleases/2012/AxeUnleashesAnarchywithFirstEverFragranceforGirls.aspx, Abruf 02.07.2012.
62
lehre und studium | update 16 | ss 2013
LEHRE UND STUDIUM Unternehmens praxis unternehmens Profile
update 16 | ss 2013 | lehre und studium
63
Experiment: Innovation der Innovation Arno Dirlewanger
Arno Dirlewanger Selbständiger Innovationsberater und Kreativitätstrainer. Studium Informatik und experimentelles Design (Dipl.-Des.). Lehrbeauftragter an mehreren Hochschulen. Seit 30 Jahren spezialisiert auf Beratung und Moderation von Innovationsprojekten, innovatives Klima und Training individueller Kreativität in Unternehmen wie z.B. EvonikDegussa, Lufthansa, Konica-Minolta und führende Automobilhersteller. Gründer des „Netzwerks Innovationsmanger“, in dem sich Innovationmanager regelmäßig treffen. E-Mail: info@dirlewanger-idee.de
„Freiräume für Kreativität und Eigeninitiative sind bei uns nicht mehr gefragt – gefragt ist, ob wir einen Prozess dafür haben“ umreißt ein Manager eines großen Kunststoffverarbeiters die Situation im Innovationsmanagement seines Unternehmens. Mag es vielleicht nicht überall so drastisch um das Innovationsmanagement bestellt sein, sicher ist, dass das Innovationsmanagement in den meisten großen Unternehmen inzwischen fest etabliert ist – allzu fest vielleicht?! Unübersehbar ist jedenfalls in der derzeitigen Unternehmenspraxis die Neigung, Innovation über standardisierte Prozesse zu erzeugen und Prozesse und Methoden zu bevorzugen, die das unternehmerische Risiko und die individuelle Verantwortung für das Neue minimieren. Das fängt beim warenzeichengeschützten ‚stage gate process’ an, und endet beim zertifizierten Innovationsmanager. Damit ist das Innovationsmanagement auf dem besten Weg, mit der gleichen inneren Einstellung „gemanaged“ zu werden, wie Qualitätssicherung oder jede beliebige andere Managementfunktion. Das Innovationsmanagement braucht daher meines Erachtens einen Anstoß, wieder mehr zu experimentieren und mehr ungerade Wege zu gehen: Innovation der Innovation. 64
1. Innovation braucht kein Mehr an Kreativität In Innovationsprojekten ist immer wieder zu beobachten, dass es meist nicht an Kreativität und ungewöhnlichen Ideen mangelt. Es mangelt vielmehr an Mut, sich für ungewöhnliche Ideen zu entscheiden! So werden oft mit großem Aufwand zahlreiche interessante Ideen in Innovationsworkshops generiert, zunächst auch positiv bewertet, aber für die Weiterverfolgung ausgewählt werden sie nicht – ausgewählt werden die eher konventionellen Ideen, die man mehr oder weniger schon kennt! So wird Innovation verhindert. Wir benötigen also nicht mehr Kreativität, nicht mehr Innovationsworkshops, nicht mehr Ideengenerierungsmethoden und Innovation muss auch nicht mehr gefördert werden. Vielmehr benötigen wir Menschen, die verhindern dass Innovation verhindert wird.
2. Innovation braucht Experimente Ziel ist es also, wieder mehr Neues auszuprobieren im Kopf und in der Realität, mehr zu experimentieren mit dem Unsicheren und Unfertigen, mutiger oder gar kühn zu werden! Das heißt, Verhalten und Settings so zu verändern, dass ein offeneres, experimentierfreudigeres Klima zumindest temporär und lokal, sozusagen in einer Parallelwelt, möglich wird. Solche Möglichkeiten werden im Folgenden als Experimente beschrieben, mit denen die eingefahrenen „Bord-Routinen“ im Unternehmen aufgebrochen werden. unternehmenspraxis | update 16 | ss 2013
Experiment 1: Raum-Choreographie – Aufstand der Tische und Stühle Ein normales Meeting in einem beliebigen Unternehmen: ein langer großer Tisch, in der Mitte darauf kleine Getränkeflaschen, Gläser, Teller mit Gebäck, ein Beamer. Drumherum: aufgeklappte Laptops, Mobiltelefone, 16 Stühle, zehn Personen. An der Schmalseite des Tisches: die Leinwand, zu der sich alle Teilnehmer leicht hindrehen. Das ist die bewährte, klassische Meeting-Choreographie. In solchen Settings werden unter anderem auch Ideen bewertet (z.B. in den so genannten gate-meetings) und über die Weiterverfolgung von Ideen entschieden. Bei einem IT-Unternehmen ließ ich kürzlich die zwölf versammelten Mitglieder der Führungsebene genau diese ihnen vertraute Meetingsituation analysieren: Was bewirkt dieses Setting für die Kommunikation, für die gemeinsame Arbeit, für das Denken während des Meetings? Schnell kamen die Manager zu dem Schluss, dass sie es zwar gut finden, weil sie es so gewohnt sind, es aber eigentlich ganz und gar nicht optimal ist! Passivität und Verbalität herrschen vor. Wer bemüht sich schon von seinem Platz in der Mitte oder ganz hinten an den Kollegen vorbei nach vorne, nur um ein kleines Detail an der Flipchart-Skizze des Kollegen zu verändern? Und wer zweifelt die PowerpointDiagramme an? „80 % der Tische, 20 % der Stühle müssen raus“ war dann der Vorschlag. Die verbleibenden Stühle wurden im Halbkreis zur breiten Seite des Raumes hin orientiert, an die Wand sechs Flipchartblätter mit Tesakrepp geklebt und die konzentrierte Arbeit begann. Jeder konnte schnell an den Flipcharts etwas erklären und visualisieren, alle waren nach vorne, auf die gemeinsame Aufgabe, das Thema orientiert, zwischendurch konnten Präsentationen ohne Leinwand direkt auf die Wand projiziert werden, das Know-how aller wurde genutzt und man kam schneller zum Ergebnis, als ursprünglich gedacht. Und das alles ohne die unnötig angeschafften, teuren und unflexiblen Whiteboards, Copyboards, Flipchartständer oder ähnliche Investitionsruinen. Professionelles Arbeiten einfach nur mit:
F Flipchartpapier F
T
Filzstift Tesakrepp
Also: Choreographie – bequem oder effizient? So simpel diese exemplarische Raumveränderung ist, so effektiv auch das Ergebnis ist, so schwer ist es, sie tatsächlich umzusetzen und auch bei der nächsten Gelegenheit beizubehalten. Und update 16 | ss 2013 | unternehmenspraxis
oft kommen genauso wie bei einer ungewöhnlichen Produktidee auch bei dieser ungewöhnlichen Neuerung die gleichen abwertenden Argumente: „Wenn das wirklich etwas brächte, würden es doch alle machen?!“, „Was soll denn da dran sein?!“ und ähnliches. Man wäre also lieber wieder bei der bequemen, bekannten Sitzordnung. Diese Neu-Inszenierung erfordert ein drastisches Umdenken, ein Verlassen der bekannten Bahnen – lange, bevor es überhaupt darum geht, eine Idee zu generieren, geschweige denn zu bewerten! So kann an diesem Experiment sehr einfach erfahren werden, wer, was und wie uns hemmt, das Ungewöhnliche weiterzuverfolgen. Wir können es als Trainingsfeld für experimentierfreudigeres Denken nutzen und damit letztlich auch die Bereitschaft steigern, in Zukunft ungewöhnliche Produktideen vielleicht positiver zu bewerten.
Experiment 2: Aliens in Residence Ein Fahrzeugbau-Unternehmen sucht einen weiteren Konstrukteur für seine Entwicklungsabteilung. Was wäre, wenn statt des Motoren-Experten ein Modedesigner, ein Gartenbauingenieur, ein Glaziologe oder ein Lebensmittelchemiker hier eingestellt und in der konkreten technischen Motorenentwicklung mitarbeiten würde: §§ §§ §§ §§
........ ?! ........ ........ ? ........ ... ?! ...... .................?!
Ein solcher „Alien“ aus einer ganz anderen Welt, mit gänzlich anderer Ausbildung, gar konträren Denkweisen und vor allem „unbrauchbarem“ Fachwissen würde sicher zu Irritationen führen. Es wäre sicher auch anstrengend und unbequem. Sicher wäre aber auch, dass sich dadurch §§ §§ §§ §§
die Art zu arbeiten die Kommunikation das ‚Mindset’ und die Ergebnisse
ändern würden! Vorausgesetzt, er fungiert nicht als jemand, der eben noch eingearbeitet werden muss oder Jobrotation macht. Vielmehr muss seine Andersartigkeit bewusst und ernsthaft genutzt werden. Sobald er nicht mehr Alien ist, sobald er assimiliert ist und weiß, wie man hier zu denken hat, weiß, wie die Probleme angegangen werden, weiß, welche Lösungen es gibt (wenn er also eingearbeitet ist) ist er nicht mehr hilfreich für das Unternehmen. Es kommt also darauf an, ihn so wenig wie möglich „einzuarbeiten“, nur so weit, dass er trotzdem die Aufgabe und das Problem versteht. Damit das Experiment Alien in Residence funktioniert, müssen einige Spielregeln eingehalten werden: 65
-
Mitarbeit in einem konkreten Projekt
Alien wird als ernst zu nehmender Mitarbeiter verstanden
keine Hilfsarbeiten Honorar
Also: Aliens – nur wenn es sein muss? Wie die veränderte Meeting-Choreographie ist auch dieses Experiment zunächst mit einer Umstellung und vielleicht mit Mehraufwand verbunden – der Effekt aber, kann erheblich sein. In mehrtägigen Innovationsworkshops besetze ich standardmäßig etwa ein Drittel des Teams mit solchen Aliens. Die Erfahrung der letzten Jahre zeigt, dass über 60 % der erfolgreichen Ideen entweder direkt von den Aliens kommen oder durch sie angeregt wurden.
Experiment 3: One Sheet-Präsentation Ob Ideen vorgestellt werden, Organisationskonzepte, Technologien oder neue Strategien, die Präsentation, speziell die Powerpoint-Präsentation ist allgegenwärtig. So allgegenwärtig, dass gar nicht mehr darüber nachgedacht wird, ob Powerpoint überhaupt notwendig ist, ob die Präsentation vielleicht auch anders aussehen könnte. Auch dies, eine allen bekannte, von allen akzeptierte, eine bequeme und standardisierte funktionierende Methode. Selbst das Sheet „Danke für die Aufmerksamkeit“ wird als professioneller Abschluss einer Präsentation gesehen, über das sich niemand mokiert. Auch weil es so einfach ist, die Sheets am Bildschirm zu erstellen (vor dem man sowieso die meiste Zeit sitzt) ist die Powerpoint-Präsentation so beliebt – nicht zuletzt auch, weil man noch Minuten vor der Präsentation am Laptop eine weitere Folie dazu fügen kann. Und noch eine. Und noch eine. Und so kommen schnell 10, 15, 20, 30 oder mehr Sheets zusammen. Alle schön und notwendig – nicht aber unbedingt auch für die Zuschauer! Ermüdende Powerpoint-Präsentationen kennt jeder und sie werden ab der zehnten Folie zum Powerpoint-Karaoke (eine Disziplin, die es übrigens tatsächlich gibt): ein Nachbeten dessen, was der Zuschauer selbst lesen kann. Nun könnte man das eine oder andere Sheet weglassen und könnte damit die Anzahl vielleicht um zwei, drei oder vier Sheets reduzieren. Das wäre aber noch keine dramatische Verbesserung. Drastischer wird es, wenn ich mir vornehme, die normale Präsentation von 30 auf fünf Sheets zu reduzieren. 66
Hier muss ich mir wirklich überlegen, was notwendig ist und wie ich es am kürzesten darstelle. Das geht dann nicht mehr so schnell wie während der Bahnfahrt, wo man noch mal eben zwei weitere Sheets dazu fügt. Richtig interessant wird es allerdings erst, wenn die gesamte Präsentation nur aus einem Sheet bestehen soll! One Sheet. Da hilft es nicht mehr, ein paar Folien wegzulassen, alles nur durch ein Symbol oder Bild auszudrücken, die Schrift kleiner zu machen oder mehr auf eine Seite zu packen. Die bekannten (Präsentations-) Muster, die bekannten Wege sind nicht mehr gangbar. Der Schritt von 30 auf eins ist so radikal, dass ich gezwungen bin, die Präsentation grundsätzlich ganz neu zu denken und ganz neue Wege suchen muss! Ich muss mir ganz neu überlegen: § Was will ich vermitteln? § Wie kann ich es vermitteln? (ohne, dass nur ein nichtssagender Allerweltssatz dasteht). Dass das funktioniert, konnte in mehreren großen Unternehmen gezeigt werden, denen ich dieses Experiment vorschlug. Sowohl „rückwärts“ (von 30 auf eins) als auch „vorwärts“ bei einer neu zu entwickelnden Präsentation (sozusagen von 0 auf eins). Die Vorbereitung besteht dann nicht darin, einfach Sheet um Sheet zu entwerfen, bis schließlich eine Präsentation entsteht, sondern darin, die Präsentation ganz neu zu denken (z.B. mit der Sechs-Felder-Methode). Nach dieser radikalen Neu-Inszenierung kann ich dann auf maximal drei Sheets alles, hinreichend und gut präsentieren, was ich aussagen will oder gleich ganz auf die beamerlose, freie aber mit ‚readymades’ vorbereitete Papierpräsentation übergehen.
Präsentation auf den Kopf gestellt:
One Sheet
Also: One Sheet – eine unmögliche Übung in radikalem Denken? One Sheet ist ein Kunstgriff, um ernsthaft über Neu-Inszenierungen und Bewertungen nachzudenken – so wie auch bei ungewöhnlichen Ideen, die als „nicht machbar“ gelten. Wenn es gelingt, uns immer wieder und überzeugend gegen eine so eingefahrene und allseits akzeptierte Routine wie die Powerpoint-Präsentation mit Alternativen zu behaupten, sind unternehmenspraxis | update 16 | ss 2013
wir freier, beweglicher und experimentierfreudiger auch für andere Neu-Inszenierungen. Ein angenehmer Nebeneffekt ist natürlich auch, dass langweilige und ineffektive Präsentationen interessanter werden.
Experiment 4: Leidenschafts-Assessment Innovationsprojekte erfordern eine ganz spezielle Führungsstärke: Leidenschaft – Leidenschaft für das Andere, für das Neue. Denn ohne leidenschaftliche Überzeugung sind Ideen wie sich selbst bohrende Dübel oder Getränkeflaschen ohne Verschluss kaum den Kollegen oder dem Entscheider als sinnvoll oder machbar zu vermitteln, geschweige denn all die Widerstände, Umwege, Durststrecken, Risiken, Rückschläge oder Kollegenhäme bei der Realisierung zu meistern. Erstaunlicherweise werden immer wieder Menschen mit Innovationsprojekten betraut, die vielleicht gute Projektmanager sein mögen, aber eben „nur“ das. Sie managen das Projekt, sie arbeiten zielorientiert, sie stellen es in der Zeit fertig. Beim geringsten Widerstand reduzieren sie die Originalität der Ursprungsidee rigoros mit dem Hinweis es „muss schließlich machbar sein“. Nein! Die Losung heißt: „Es muss möglich sein“. Sonst wird schnell aus der verschlusslosen Getränkeflasche eine Flasche mit einem leicht zu öffnenden Verschluss. Ein Produkt, aber keine Innovation. Statt der üblichen Assessment-Center wäre daher ein Leidenschafts-Assessement viel wichtiger, in dem man Innovations„Aficionados“ ausfindig machen könnte. Der einfachste Weg, etwas über ihre Leidenschaft zu erfahren ist, die Teilnehmer eines realen Innovationsworkshops zu beobachten. Und zwar besonders bei den Zwischenbewertungen und am Schluss des Workshops: Es ist 16 Uhr, noch 30 Minuten bis zum Ende des Workshops, die sechs ausgewählten Favoriten hängen auf Flipcharts an der Wand, 15 Personen stehen davor. Vor ihren eigenen Ideen. Der Moderator fragt, wer welche Idee mitnehmen und weiterverfolgen will. Wie bei einem Autounfall stehen 15 Personen tatenlos herum, schauen durchaus interssiert zu und warten, dass jemand etwas unternimmt. Da jeder so denkt, unternimmt keiner etwas. Verantwortungsdiffussion nennt das die Verhaltensforschung. Hat man Glück, erbarmt sich ein Teilnehmer und entscheidet sich für eine Idee. In der Regel für die harmloseste oder die, bei der ohnehin schon klar ist, dass und wie sie machbar ist. Aber immerhin. Hat man viel Glück, entscheidet sich einer für die ungewöhnlichste Idee, für die, die vielleicht als Joker, als kreatives Alibi mit in die Endauswahl genommen wurde. Wenn er die Idee ohne ein verschwörerisches Grinsen („ihr wisst ja, dass sie nicht machbar ist und ich werde das auch beweisen“) mitnimmt, haben Sie Ihren Mann gefunden. update 16 | ss 2013 | unternehmenspraxis
Das Gleiche kann in einem Board-Meeting beobachtet werden, in dem über das Weiterkommen einer Idee zum nächsten gate im stage gate process entschieden wird. Eine dritte, ganz andere Möglichkeit ist es, eine Übungssituation zu schaffen, in der die Teilnehmer zum Beispiel ein ganzes Dorf mobilisieren müssen für eine bestimmte, ungewöhnliche Aufgabe, wo sich dann schnell zeigt, wer die Leidenschaft mitbringt, zu überzeugen, Widerstände kreativ zu überwinden. Es kommt also nicht nur darauf an, ob eine Idee „gut“ ist, sondern ob der Verantwortliche „gut“ ist, sprich: engagiert ist und Leidenschaft für die Idee entwickelt, aus der er dann Innovation macht. Denn:
es gibt keine
guten Ideen – per se
Ideen werden zu guten Ideen erst gemacht. Also: Leidenschaft – doch lieber nicht? Ein großes Medizintechnik-Unternehmen interessierte sich vor mehreren Jahren für dieses Konzept. Wir waren schon fast handelseinig, ein solches Experiment durchzuführen, als der Entwicklungsleiter fragte, wie oft ich denn ein Leidenschafts-Assessment schon durchgeführt hätte. Ich antwortete: „in dieser Form noch nie, es wäre das erste Mal bei Ihnen.“ Damit erlosch das Interesse schlagartig, das Assessment kam nicht zustande. Auch ein bekannter Effekt: Es soll ganz neu sein – aber so wie das Alte und schon erprobt und sicher.
3. Experimente – wenn, dann richtig! Auf Kongressen wird das Thema radikale Innovation immer wieder gerne vorgetragen und mit gängigen Fallbeispielen (Apple, 3M), empirisch gefundenen „Erfolgsfaktoren“ und „Treibern“ illustriert. Auch im Unternehmen bewundert und diskutiert man gerne Apples radikale Ideen und Erfolge, über die unternehmerischen Entscheidungen, Experimentierfreudigkeit, Mut oder das Commitment, das sie erfordern, aber nicht. Und noch weniger spricht man darüber, was man selbst tun könnte und wie viel radikale Ideen man im eigenen Unternehmen radikal abgeschnitten hat, radikal bekämpft hat, radikal wegbewertet hat. Das Innovationsmanagement der Zukunft könnte sich dadurch auszeichnen, dass es einiges anders macht als andere Unternehmensbereiche. Die vier hier skizzierten Experimente könnten 67
ein erster Anstoß dazu sein. Weitere sind jederzeit möglich: Schweigende Meetings, out of the laptop, Ideen-Brüter, Science & Fiction Manager. Und so, wie mit diesen ungewöhnlichen Experimenten umgegangen wird, so kann man auch mit ungewöhnlichen Ideen umgehen: ausprobieren, gegen den Trend, raus aus den eingefahrenen Verhaltens- und Denkmustern. Schon vor 200 Jahren wusste der Philosoph und Experimental-(!)Physiker Lichtenberg: „Man muss mit Ideen experimentieren“.1
1
G. C. Lichtenberg 1980.
Literatur Dirlewanger, A. (2011): Mit dem Science Fiction Management Parallelwelten schaffen, Fest-Vortrag anlässlich der 30-Jahr-Feier IDEE SUISSE im Technopark Zürich am 6.12.2011, http://innovators-guide.ch/2011/12/arnodirlewanger/, Abruf 10.09.2012. Dirlewanger, A. (2010): Open Innovation lähmt die Kreativität, in: Manager Seminare, Heft 11/2010, S. 16–17. Lichtenberg, G. C. (1980): Schriften und Briefe. Sudelbücher. München, K308 nach der Lichtenbergschen Nummerierung.
68
unternehmenspraxis | update 16 | ss 2013
Alternative Investments – Bescheidene Gewinner der Finanzkrise Thomas Werner
1. Eröffnung Der Anlagefokus von Privatanlegern richtete sich bislang primär auf die so genannten traditionellen Anlageklassen wie Aktien, Renten oder Geldmarktanlagen. Die Anforderungen an das Vermögensmanagement sind angesichts der aktuellen Entwicklungen an den Kapitalmärkten in den vergangenen Monaten jedoch deutlich gestiegen. Die moderne Portfolio-Theorie stellt die Streuung verschiedener Anlageklassen als Mittel zur Risikoreduzierung in den Vordergrund. Dabei erfolgt keine Definition, welche Anlageklassen zur Investition genutzt werden können. Derzeit ist erkennbar, dass die Streuung über traditionelle Anlageklassen allein nur noch in einem geringen Maß zur Risikoreduzierung beitragen kann. Erst unter Einbeziehung von alternativen Investments, so genannten nicht-traditionellen Anlageklassen wie Private Equity, Hedge Funds, Infrastruktur, Immobilien, Rohstoffen, Kunstgegenständen und ökologisch ausgerichteten Projekten, kann eine ausreichende Risikoreduzierung unter Optimierung der Rendite erfolgen. In einem Großteil der bisher veröffentlichten Literatur wird bei der Betrachtung einer langfristigen Vermögensallokation weitgehend von traditionellen Kapitalanlagen als Standardanlagen eines jeden Investors ausgegangen. Damit sehen sich Investoren – selbst mit einem gut diversifizierten Portfolio – den Trends an den jeweiligen Finanzmärkten vollständig ausgeliefert. Während bei den traditionellen Anlageklassen ein hohes Maß an Informationseffizienz vorherrscht, ist der Investitionsmarkt für nicht-traditionelle Anlageklassen nicht vollkommen transparent. Dabei eröffnet gerade diese Intransparenz dem interessierten Anleger neben dem Potenzial für eine Risikoreduzierung seines Anlageportfolios attraktive Renditechancen. Der vorliegende Beitrag beschreibt ausgewählte alternative Investments in ihren Details und betrachtet diese als Teil eines strukturierten Portfolios. Dabei sind unter anderem individuelle Rendite- und Risikoparameter eines Anlegers ausschlaggebend für die Bestimmung eines langfristigen Portfolioanteils alternativer Investments. Es gilt auch, den weitläufig verbreiteten Gedanken, dass alternative Investments grundsätzlich einen höheren Ertrag ohne gleichlaufendes Risiko ermöglichen, zu widerlegen. Richtig ist, dass nicht-traditionelle Anlageklassen die Renditeupdate 16 | ss 2013 | unternehmenspraxis
Diplom-Wirtschaftsjurist Thomas Werner ist im Produktmanagement einer internationalen Bank tätig. Daneben unterrichtet er regelmäßig an verschiedenen akademischen Bildungseinrichtungen und hält Fachvorträge zu allgemeinen und speziellen wirtschaftlichen Themen im gesamten Bundesgebiet. Zudem veröffentlichte er zahlreiche Fachbeiträge zur Konzeption und zu Qualitätsmerkmalen von unternehmerischen Beteiligungen, nicht-traditionellen Kapitalanlagen und verschiedenen Asset-Klassen. Thomas Werner ist unter anderem Autor der Bücher „Der Graue Kapitalmarkt, Chancen und Risiken“ sowie „Ökologische Investments“. E-Mail: mail@werner-thomas.de
aussichten eines Gesamtportfolios erhöhen können, ohne dessen Sensitivität gegenüber traditionellen Anlageklassen zu intensivieren. Daraus resultiert ein nachhaltiger Bedarf an diversen Formen und Facetten alternativer Investments, den es zu definieren gilt. Ziel ist es, alternative Investments stärker als bisher in den Fokus einer langfristigen Vermögensallokation zu rücken.
2. Alternative Investments Unter traditionellen Kapitalanlagen werden solche verstanden, die im Rahmen einer standardisierten Vermögensanlage oder Vermögensverwaltung eingesetzt werden: Liquide Aktien-, Renten-, Geldmarktanlagen. Diese orientieren sich vorrangig an einem Vergleichsmaßstab, zumeist ein Aktien- oder Rentenindex, der die zentrale Bezugsgröße für den Erfolg der Investition und die Handlungsalternativen des Managements darstellt. Spätestens seit dem Beginn der aktuellen Finanzkrise ist festzustellen, dass die Renditen dieser Anlageklassen und den dazugehörigen Subanlageklassen eine steigende Korrelation zueinander aufweisen, was zu geringeren Diversifikationsmöglichkeiten führt. Diesem Phänomen kann mit dem Einsatz von alternativen Investments positiv entgegengewirkt werden. 69
„Heuschrecken“ und „Raubtierkapitalismus“ sind nur ausgewählte Begriffe, die mit alternativen Investments in Verbindungen gebracht werden (Müntefering 2007, S. 21). Nicht zuletzt aufgrund dieser Meldungen gingen im Jahr 2007 70 % der deutschen Bevölkerung davon aus, dass ein Unternehmen nach dem Einstieg einer Investitions- oder Beteiligungsgesellschaft umgehend Mitarbeiter abbaut und anschließend gewinnbringend zerschlagen wird (Meinungsforschungsinstitut Infas 2007, S. 25). Alternative Investments werden regelmäßig in zwei Segmente unterteilt: alternative Strategien, wie beispielsweise Hedge Funds, denen etablierte Anlageformen zu Grunde liegen und alternative Anlageprodukte wie Private Equity, Rohstoffe, Kunst und Ähnliches, denen neuartige Investitionsgegenstände zu Grunde liegen (vgl. Grünbichler/Graf/Wilde 2003, S. 571 ff.). Die Besonderheit der alternativen Investments liegt darin, dass sie sich durch eigenständige Merkmale und Charakteristika auszeichnen. Im Hinblick auf den Aktienmarkt hat sich beispielsweise gezeigt, dass alternative Investments Gewinne erzielen können, wenn Aktieninvestments Verluste erleiden. Grundsätzlich kann die Beimischung alternativer Investments zu einem traditionellen Anlageportfolio Anlegern Vorteile bieten: Zum einen kann sich das Gesamtrisiko des Portfolios verringern, da die alternativen Investments nicht nur mit den traditionellen Kapitalanlagen sondern auch untereinander nur gering korreliert sind. Zum anderen können sie ein interessantes Ertragspotenzial bieten. Im Rahmen der folgenden Betrachtung sollen Private Equity, Hedge Funds, ökologische Investments und Immobilien beispielhaft für alternative Investments einer kritischen Prüfung unterzogen werden.
3. Private Equity Mit dem Begriff Private Equity können leistungs- und finanzwirtschaftliche Aspekte verbunden werden, da es sich um eine Investitions- und Finanzierungsart handelt. Die Verwendung des Begriffs „Private“ hebt dabei den privaten Charakter einer
Ausstattung von zumeist nicht börsennotierten Unternehmen mit Eigenkapital hervor sowie eine Ausstattung mit Managementleistungen (vgl. Söhner 2012, S. 27 ff.). Die Idee von Private Equity ist nicht neu. Bereits Christoph Kolumbus fand im spanischen Königshaus die benötigte finanzielle Unterstützung, ohne die seine Entdeckungsreise nach Indien nie hätte stattfinden können. Die Vorteilhaftigkeit erkannten Königin Isabella und König Ferdinand in der Ausweitung des Einflussbereichs des spanischen Königshauses. Amerika spielt seitdem eine wichtige Rolle im Bereich Private Equity, nicht zuletzt, da es die eigene Entdeckung einer Private Equity Investition verdankt. Nachfolgende Erfolgsgeschichten – wie bspw. die 1946 gegründete American Research and Development Corporation – konnten diese Entwicklung fortführen. Und nicht zuletzt wäre das bekannte Silicon Valley sicherlich nicht entstanden, wenn nicht Arthur Rock den Investor Sherman Fairchild für die Investition in die Entwicklung der Region begeistert hätte. Weiterhin investierte Arthur Rock in die Gründung damals noch unbekannter Unternehmen wie Intel Corporation oder Apple Computer (vgl. Natter 2003, S. 22 ff.). Pensionskassen konnten aufgrund der Regelung durch das US-Arbeitsministerium in Private Equity investieren, wodurch es zu einer deutlichen Zunahme dieser Investitionen in den USA kam (vgl. Brophy/Wadecki 2008). In der betriebs- und finanzwirtschaftlichen Literatur wird eine Vielzahl von Begriffen und Ansätzen zur Betrachtung von Private Equity synonym verwandt (vgl. Gietl/Landau/Hungenberg 2009, S. 8 ff.). Hinzu kommen zahlreiche Begriffe, Begriffsverbindungen und Beschreibungen. Während unter Private Equity eine Mehrheitsbeteiligung auf Zeit am Eigenkapital eines nicht börsennotierten Unternehmens verstanden wird (vgl. Thum/ Timmreck/Keul 2008, S. 13), sehen andere in Private Equity die Bereitstellung von haftendem Eigenkapital oder kapitalmarktähnlichen Mitteln durch Dritte außerhalb der Börsen (vgl. Gündel/Katzorke 2007, S. 36 ff.). Der Begriff Private Equity entstammt angelsächsischer Wirtschaftspraxis und wird, wie viele Fachtermini, nicht übersetzt.
Abb. 1: Aufteilung der Anlageklasse Private Equity in verschiedene Phasen
70
unternehmenspraxis | update 16 | ss 2013
Abb. 2: Private Equity Investoren und deren Ziele
Er umfasst das vielschichtige Spektrum der Investitionen im vor- und außerbörslichen Bereich. Es ist damit eine Anlageform, bei der Investoren, in der Regel nicht börsennotierte Unternehmen, in unterschiedlichen Phasen ihrer Entwicklung Kapital und auch Managementunterstützung zur Verfügung stellen, ohne dafür weitreichende Sicherheiten zu erhalten (siehe Abbildung 1). Private Equity Investoren und Investitionen zeichnen sich durch ein breites Spektrum unterschiedlicher Merkmale entlang der Wertschöpfungskette von Unternehmensinvestitionen aus. Die bislang wichtigsten Marktteilnehmer, Firmeninvestoren und vermögende Privatpersonen, werden zunehmend ergänzt durch öffentliche Investoren, Stiftungen, Pensionskassen und Versicherungen sowie Unternehmen, für die es unterschiedliche Zielvorgaben und Risiken bei deren Erreichung zu berücksichtigen gilt (siehe Abbildung 2). Private Equity ist für mittelgroße Unternehmen in stabilen Branchen während der Phasen des Eigentümerwechsels ein geeignetes Instrument. Jedoch wird mit Private Equity nicht nur Liquidität für das Unternehmen zur Verfügung gestellt, sondern auch ein neuer und fordernder Eigentümer eingebracht. Private Equity ist keine allgemeingültige Finanzierungsquelle und somit auch keine generelle Lösung für das Problem einer schwachen Eigenkapitalausstattung insbesondere des kleineren Mittelstands (vgl. Grote 2007, S. 14.).
3.1 Venture Capital Trotz aller Überschneidungen der Begriffe Private Equity und Venture Capital, die in der immer weiter verbreiteten synonymen Verwendung der Begriffe ihren Niederschlag finden, ist die Bedeutung beider ähnlich, jedoch nicht identisch. Venture Caupdate 16 | ss 2013 | unternehmenspraxis
pital, das lediglich ein Teilsegment von Private Equity ist, stellt die Bereitstellung von Eigenkapital für neu gegründete und wachstumsorientierte und noch nicht börsennotierte Unternehmen mit visionären Ideen dar. Jedoch gibt es bei den Versuchen einer Abgrenzung zwischen Venture Capital und Private Equity zahlreiche regional bedingte Unterschiede. Bezieht sich beispielsweise der Bergriff Venture Capital in den USA nicht nur auf die frühe Phase der Unternehmensfinanzierung, sondern auch auf die Zeit kurz vor einem Verkauf des Unternehmens, so bezieht sich der Begriff im deutschen Sprachraum mehr auf die reine Start-up-Finanzierung. Dabei können innerhalb dieser Bereitstellungsphase von Kapital verschiedene Investitions- beziehungsweise Finanzierungsphasen eines Unternehmens unterschieden werden (vgl. Werner/Burghardt 2006, S. 105 ff.).
3.2 Wachstumsphase Für die Finanzierung von Wachstum eines Unternehmens besteht ein relativ hoher Kapitalbedarf bei geringem Risiko, da sich das Unternehmen schon in der Gewinnzone befindet. Kapital wird in erster Linie benötigt, um vorhandene Kapazitäten im Produktionsbereich weiter auszubauen und gegebenenfalls einen Börsengang vorzubereiten.
3.3 Veräußerungsphase Eines der Hauptsegmente im Bereich Private Equity ist die Finanzierung von Eigentümerwechseln. Dieser kann im Rahmen einer Übernahme eines Unternehmens durch ein bestehendes Management, ein so genanntes Management-Buy-out (MBO), erfolgen. Hierbei übernimmt ein bereits vorhandenes Management die Geschäftsleitung in unternehmerischer Form. Dies kann auch die Ausgliederung einer Konzerneinheit unter Einbeziehung des Managements bedeuten. Die Übernahme 71
Abb. 3: Schematischer Ablauf des Kaufs und Verkaufs eines Zielunternehmens bei einer LBO-Transaktion
der Mehrheit an einem Unternehmen durch ein externes Management wird durch den Begriff Management-Buy-in (MBI) gekennzeichnet. Dies wird regelmäßig bei Nachfolgeregelungen in mittelständischen Unternehmen umgesetzt. Eine Übernahme der Mehrheit eines Unternehmens setzt ein hohes Maß an Fremdkapital voraus, wobei einerseits ein mit banküblichen Sicherheiten zur Verfügung gestellter Kredit erforderlich ist, andererseits die Bedingungen für eine schnelle Rückführung des Kapitals zu schaffen sind. Die Mehrheitsübernahme mit einem vergleichsweise hohen Einsatz von Fremdkapital wird als Leveraged-Buy-out (LBO) bezeichnet (vgl. Werner/Burghardt 2006, S. 107). Fallbeispiel: Leveraged-Buy-out Bei einer Segmentierung nach Finanzierungsmerkmalen steht der LBO regelmäßig im Mittelpunkt kritischer Diskussionen. Diese Transaktion bezeichnet die fremdfinanzierte Übernahme eines Unternehmens durch einen externen Investor. Der Fremdkapitalanteil kann sich dabei aus verschiedenen Finanzinstrumenten wie vorrangigen Anleihen, welche durch die Aktiva des Zielunternehmens besichert sind, sowie aus Mezzanine- oder ähnlichen Finanzierungsinstrumenten, die im Fall der Zahlungsunfähigkeit nachrangig sind, zusammensetzen. Durch die Fremdfinanzierung kann ein erfolgreicher LBO dem Investor Renditen erwirtschaften, ohne dass eine unternehmerische Wertsteigerung durch die Steigerung der entsprechenden Marktpositionen im jeweiligen unternehmerischen Umfeld oder operationale Verbesserungen im Unternehmen notwendig sind. Abbildung 3 zeigt den vereinfachten schematischen Erwerb eines Unternehmens für einen Kaufpreis in Höhe von zehn Millionen Euro auf. Anschließend erfolgt die Erhöhung des Unternehmenswertes durch gezielte Restrukturierungsmaßnahmen, die zu einer Verringerung der Kostenbasis für das Unternehmen führen. Ebenso ist der Verkauf einzelner Geschäftseinheiten möglich. Die dadurch freiwerdende Liquidität 72
wird für die schnelle Rückführung eines Anteils des Fremdkapitals in Höhe von drei Millionen Euro während eines kurzen Zeitraums verwendet. Bei dem anschließenden Wiederverkauf des Zielunternehmens für einen Verkaufspreis in Höhe von 10,5 Millionen Euro wird das verbleibende Fremdkapital in Höhe von vier Millionen Euro sowie der Eigenkapitaleinsatz in Höhe von drei Millionen Euro zurückgeführt. Demnach verbleibt ein Ertrag für den Private Equity Investor in Höhe von 3,5 Millionen Euro. Jeder LBO ist eine spezifische Transaktion mit individuellen Ausprägungen, denen jedoch gemeinsam ist, dass der Einsatz eines vergleichsweise großen Eigenkapitalanteils erfolgt. Das erworbene Investitionsobjekt, ein Unternehmen, erwirtschaftet Kapitalströme zur Bedienung der Fremdkapitaldienste zur Finanzierung des eigenen Erwerbs. Damit trägt das erworbene Unternehmen zur Sicherstellung des dafür aufgewendeten Kapitaldienstes bei. Maßgeblich für den Erfolg einer LBO-Transaktion ist demnach nicht nur die Höhe der Differenz zwischen Kaufpreis bei Investition und Verkaufspreis bei Desinvestition (welcher dann auf die Jahre der Halteperiode verteilt wird), sondern wie schnell innerhalb der Halteperiode des Unternehmens die Fremdkapitalquote reduziert werden kann (vgl. Borning 2012, S. 63 ff.).
4. Hedge Funds Hedge Funds werden in der Literatur regelmäßig als „alternative Anlageform“ beziehungsweise nicht-traditionelle Anlageform bezeichnet. Dabei bleibt jedoch unberücksichtigt, dass Hedge Funds regelmäßig auch in traditionelle Anlageinstrumente wie Aktien, Anleihen oder am klassischen Geldmarkt investieren können. Sie unterscheiden sich demnach vielmehr in der Art und im Stil des Managements (vgl. Disch/Füss 2004, unternehmenspraxis | update 16 | ss 2013
S. 3). Hedge Funds verfolgen ein breites Spektrum an Anlagestrategien. Dabei erfolgen die Investitionen in zumeist börsennotierte Wertpapiere, Währungen, Derivate oder Rohstoffe. Dies geschieht mit Long-Positionen aber auch mit Short-Positionen. Im Gegensatz zu Private Equity ist die Beziehung zwischen Management und Investor entfernter und damit der operative Einfluss geringer sowie die Haltedauer oftmals kürzer. Bereits im Jahr 1931 wurde der Hedge Funds in seiner Konzeption beschrieben (Peetz 2007, S. 43). 1949 gründete Alfred W. Jones einen Aktienfonds, der die Auswirkungen eines starken Kursverfalls mindern sollte. Er kombinierte zwei Instrumente – Leerkäufe und Leverage – zu einem einzigen konservativen, risikomindernden Anlageprogramm. Seine Überlegung war es, gegen eine Marktabschwächung jederzeit eine Short-Position an Aktien als Absicherung zu unterhalten, um so gegenüber seiner Titelauswahl bei Long-Positionen einen Hebeleffekt zu erzielen. Bereits dieser erste Hedge Funds zeichnete sich durch die Auswahl von Gesellschaftsform und Investorenkreis dahingehend aus, dass für die Wahl der Anlageinstrumente und -strategien ausreichend Freiheiten genutzt werden konnten (vgl. Hedge Fund Working Group 2007). Der Einbezug des englischen Begriffes Hedge, deutsch: absichern, erfolgte auf Basis der Tatsache, dass ein Hedge Funds sich gegen fallende Kurse von Aktienwerten absichern kann. Ein Hedge Funds stellt einen Anlagefonds dar, dessen Ziel, die Erwirtschaftung eines Anlagegewinns, im Vordergrund steht, unabhängig vom jeweils vorherrschenden Marktumfeld. Die juristische Struktur von Hedge Funds liegt nicht selten in einer Jurisdiktion, in der eine liberale Finanzmarktregulierung vorliegt, die weitreichende Freiheiten bei Anlageentscheidungen und deren Umsetzungen ermöglicht. Ein gemeinsames Merkmal aller Hedge Funds ist das Ziel der Manager oder Partner eines Investmentprogramms, eine so genannte absolute Rendite zu erwirtschaften, indem Investmentgelegenheiten und Marktineffizienzen ausgenutzt werden, während gleichzeitig das Kapital vor potenziellen absoluten Verlusten geschützt wird. Die Konzentration auf positive absolute Renditen unabhängig von der Markttendenz unterscheidet den
Portfolioansatz von Hedge Funds vom traditionellen Portfoliomanagement mit ebensolchen Anlageklassen, dessen Ziel es ist, eine zuvor definierte Benchmark zu übertreffen. Unter widrigen Marktbedingungen können Hedge Funds im Gegensatz zu traditionellen Aktien- oder Rentenfonds einfach ihre Barquote erhöhen und den Anteil kapitalmarktabhängiger Instrumente reduzieren. Hedge Funds sind bei der Auswahl ihrer Investmentstrategien (siehe Abbildung 4), Instrumente und Märkte weitaus flexibler als traditionelle Vermögensverwaltungen. Zur Klassifizierung der zahlreichen Hedge Funds-Strategien existiert keine Standardmethode. Die Investition in eine Vielzahl von Investitionszielen, -strategien und -techniken erfolgt zur Erreichung verschiedener Rendite-Risiko-Profile. Die Verwendung unterschiedlicher Anlagetechniken verringert die Volatilität des Gesamtportfolios und ermöglicht die Erzielung einer positiven Rendite unabhängig von der allgemeinen Marktentwicklung. Die Frage nach einer Kategorisierung von Hedge Funds ist sowohl von akademischer als auch von praktischer Natur, da anhand der praktischen Umsetzung ein Vergleich der erreichten Ergebnisse mit der jeweiligen Investitionsrichtlinie erfolgen kann (vgl. Wicki 2011, S. 44 ff.). Fast jede Datenbank und Datenquelle der Finanzbranche hat ihr eigenes Klassifikationsschema geschaffen. Daher ist jedes Schema subjektiv. Zudem ist hervorzuheben, dass manche Hedge Funds in keine der Kategorien passen oder Mischformen darstellen. Wichtig erscheint jedoch, ein Verständnis dafür zu entwickeln, dass die verschiedenen Strategien fundamentale Unterschiede bezüglich der Ertragsfaktoren, Risiken und Korrelationsmerkmale aufweisen. Verschiedene Strategien bedeuten unterschiedliche Handelsstile, Basisinstrumente, Verschuldungsgrade, Liquiditätserfordernisse, Anlagehorizonte sowie Marktgewichtungen und folglich unterschiedliche Rendite-Risiko-Profile. Das Rendite-Risiko-Verhältnis eines Portfolios profitiert aufgrund niedriger Korrelationen einerseits durch die generelle Beimischung von Hedge Funds zu traditionellen Anlageklas-
Marktneutrale Strategien (Relative Value)
Ergebnisgetriebene Strategien (Event Driven)
Opportunistische Strategien (Opportunistic)
Vorgehensweise
Erwirtschaftung einer Rendite, welche unabhängig vom jeweiligen Marktumfeld ist
Erwirtschaftung einer Rendite durch Erwirtschaftung einer Rendite durch Spekulation auf Ereignisse im Anpassung der Wertpapierpositionen an Bewegungen der Kapitalmärkte Unternehmenslebenszyklus
Beispielhafte Strategien
Fixed Income Arbitrage, Convertible Arbitrage, Equity Market neutral
Distressed Securities, Risk Arbitrage, Merger Arbitrage
Global Macro, Dedicated Short Bias, Emerging Markets, Long/Short Equity
Abb. 4: Beispielhafte Hedge Funds-Strategien, Quelle: Eling 2006, S. 7 ff.
update 16 | ss 2013 | unternehmenspraxis
73
sen und andererseits durch die Diversifikationspotenziale einzelner Hedge Funds-Strategien. Dennoch besteht auch hier die Gefahr, dass ein möglicher Mehrwert deutlich überschätzt wird (vgl. Signer/Favre 2002).
5. Ökologische Investments Ökologische Produkte gewinnen in allen Lebensbereichen zunehmend an Bedeutung – von artgerechter Tierhaltung über den umweltfreundlichen Anbau von Lebensmitteln bis hin zu ressourcenschonendem Energieverbrauch ist dieses Thema allseits präsent. Auch ökologische Kapitalanlagen liegen im Trend. Allgemein betrachtet handelt es sich bei ökologischen Kapitalanlagen um Investitionen, durch die ein besonderer Nutzen für die Umwelt erbracht werden kann. Demzufolge umschließen diese neben Direktinvestitionen in umweltfreundliche Projekte auch Einzelanlagen in Aktien, rentenähnliche Anlagen und Fonds von ökologisch wirtschaftenden Unternehmen. Der entscheidende Unterschied zu den traditionellen Anlagen ist die Einbeziehung der Mittelverwendung als zentrales Anlageziel. Bei einer Vielzahl von Anlegern ist die Erkenntnis gewachsen, dass auch bei einer Finanzanlage die Übernahme von sozialer, ethischer oder ökologischer Verantwortung notwendig geworden ist (Abbildung 5). Damit steht nicht nur die reine finanzwirtschaftliche Wertschaffung beziehungsweise Wertvermehrung im Vordergrund, sondern auch die Verwendung des zu investierenden Kapitals unter den genannten Gesichtspunkten, was sich auch auf den Kapitalmarkt als solchen ausgewirkt hat. Letztendlich hat dieser Wandel und die damit einhergehende zunehmende Nachfrage zur Entstehung und Weiterentwicklung von ökologischen Kapitalanlagen beigetragen. Das bedeutet, bei einer Anlageoption, die nicht die ökologischen Vorgaben erfüllt, erfolgt keine Investition, auch wenn die traditionellen
Anlageziele erfüllt werden. Die Priorisierung des Ziels einer ökologischen Mittelverwendung kann durchaus zu einer Einschränkung bei der Realisierung der ökonomischen Ziele führen. Einem möglichen Verzicht auf Verzinsung des eingesetzten Kapitals steht ein ökonomischer Nutzen und Mehrwert gegenüber (vgl. Werner 2008, S. 39 ff.). Begriffe wie „ökologisch“, „ethisch“ oder „nachhaltig“ sind jedoch nicht urheberrechtlich geschützt und werden daher sehr unterschiedlich verwendet. Auf dem deutschen Markt für ökologische Kapitalanlagen gibt es bereits zahlreiche Angebote. Diese reichen von der Investition in Aktien von ökologisch wirtschaftenden Unternehmen, Anleihen zugunsten dieser Unternehmen, unternehmerischen Beteiligungsangeboten, Investmentfonds in vielen Ausprägungen, Lebensversicherungen bis hin zu Private Equity und Mikrofinanzierungsengagements. Der Anleger kommt folglich nicht umhin, eigene soziale und ökologische Kriterien für seine Investitionsentscheidungen festzulegen und zu prüfen, wie verschiedene Anbieter diesen individuellen Maßstäben gerecht werden. Für ökologisch orientierte Kapitalanlagen gelten darüber hinaus – in finanzieller Hinsicht – die gleichen Entscheidungskriterien wie für konventionelle Finanzprodukte.
6. Immobilien Immobilien sind neben dem Sparbuch die beliebteste Anlageform der Deutschen. Dies dürfte vor allem an einem historisch begründeten Sicherheitsbedürfnis nach vier Währungsreformen – 1923, 1948, 1990 in den neuen Bundesländern und 2002 mit der Einführiung des Euros – liegen. Immobilien dienen sowohl der Vermögensbildung als auch der Altersvorsorge und tragen darüber hinaus entscheidend zur Portfoliodiversifikation und
Abb. 5: Vereinfachte Darstellung von beispielhaften Aspekten für ökologische und traditionelle Kapitalanlagen Quelle: Werner 2008, S. 41
74
unternehmenspraxis | update 16 | ss 2013
Risikostreuung bei. Daneben ist ihr Besitz oftmals mit positiven emotionalen Empfindungen verbunden. In Deutschland reicht die Spannweite der Immobilienanlagen von der privaten Investition in eine vermietbare Eigentumswohnung bis zum Aufbau von international gestreuten, unterschiedliche Objektarten umfassenden Liegenschaftsportfolios durch institutionelle Großanleger. Im Rahmen einer Immobilieninvestition besteht zunächst für den Investor die Möglichkeit, direkt in Grundvermögen zu investieren. Damit verbunden sind jedoch erhebliche Risiken und Nachteile, wie beispielsweise hohe Investitionssummen, Transaktionskosten, Vermittlungskosten, Managementkosten und -risiken, Mietausfallrisiken etc. Ein großer Nachteil geht mit der Direktimmobilie einher: die fehlende Flexibilität in Bezug auf die Liquidität (vgl. Welling 1997, S. 665 ff.). Dennoch kann die Adaption der Portfoliotheorie auf Immobilieninvestitionen für den Anleger Vorteile mit sich bringen. Das liegt darin begründet, dass neben der bisherigen ausschließlichen Fokussierung auf die erwirtschaftete Rendite nun auch die Risiken einer Immobilieninvestition und die Abhängigkeiten der verschiedenen Anlagen voneinander an Bedeutung gewinnen. Dabei unterscheiden sich Immobilieninvestitionen teilweise signifikant von den Chancen-Risiko-Verhältnissen anderer Anlageklassen (vgl. Benjamin/Sirmans/Zietz 2001, S. 183 ff.). Bei einer Direktinvestition erwirbt und verwaltet der Anleger die Immobilie selbst. Der Betrieb dieser Immobilie hängt somit direkt vom Investor ab und erfordert solide, insbesondere immobilienwirtschaftliche Kenntnisse. Direktinvestitionen in Immobilien sind vergleichsweise zeitintensiv und ressourcenaufwendig. Um ein Portfolio direkter Immobilienanlagen zu diversifizieren, werden beträchtliche Finanzmittel benötigt. Direkte globale Immobilieninvestitionen beschränken sich aus diesem Grund fast ausschließlich auf institutionelle Investoren, die entsprechende Mittel dafür aufbringen können. Im Gegensatz dazu kann der Erwerb von indirekten Immobilieninvestitionen auf Basis der in Abbildung 6 aufgezeigten Investitionsmöglichkeiten am Kapitalmarkt eine sinnvolle Alternative darstellen. Die Höhe der Immobilieninvestition, Haltedauer der Immobilien, Kosten und Managementstrategie können den individuellen Vorgaben des Investors angepasst werden. Weiterhin kann durch die Streuung des Vermögens auf mehrere individuelle Immobilieninvestitionen, strukturiert nach Lage, Objektart, Mietern, Ausfallsrisiken, Renditeerwartungen etc., das Gesamtrisiko der Immobilieninvestition reduziert werden. Durch die Auffächerung der Objektpalette beziehungsweise die Entwicklung unterschiedlicher Anlageformen spricht die Immobilie erweiterte Kundenkreise an. Allerdings bleibt das Grundprodukt – die Immobilie – unabhängig vom gewählten Vertriebs- beziehungsweise Beteiligungskonzept dasselbe (Abbildung 6). Investoren wenden sich weltweit immer mehr grenzüberschreitenden Immobilienanlagen zu. Die Ausbreitung der weltweiten Verbriefung des in Immobilien investierten Kapitals stellt für update 16 | ss 2013 | unternehmenspraxis
Abb. 6: Spektrum der Immobilieninvestitionen
Anleger ein kostenwirksames Mittel dar, um schnell eine liquide, diversifizierte globale Immobilienallokation in ihrem Portfolio aufzubauen.
7. Alternative Investments in einem traditionellen Anlageportfolio Alternative Investments, denen auf absolute Renditen ausgelegte Strategien zu Grunde liegen, können in der Regel hohe risikobereinigte Renditen, niedrige Korrelation zu traditionellen Anlagen und Diversifizierungsvorteile vorweisen, wie sie innerhalb traditioneller Anlagen allein nicht darstellbar sind. Die Beimischung zu einem traditionellen Anleihen- oder Aktienportfolio kann das gesamte Risiko-Rendite-Profil eines Portfolios verbessern. Die Diskussion zwischen Akademikern und Praktikern, ob und wie die spezifischen Risiken von alternativen Investments in einem risikobereinigten Renditeumfeld berücksichtigt werden sollten, dauert schon lange an und ist weder akademisch noch praktisch abgeschlossen.
7.1 Asset Allokation Die Idee einer Verteilung beziehungsweise Allokation von Gütern und Vermögensgegenständen ist nicht neu. Bereits der babylonische Talmud, der circa auf das vierte Jahrhundert zurückgeht, beinhaltet eine Textstelle, in der durch den Rabbiner Rav Yitzchak das Folgende geraten wird: „A person should always divide his money into thirds: a third in real estate, a third in merchandise, and a third readily available.“ (Shimoff 2012). Ebenfalls haben Kaufleute bereits im Mittelalter erkannt, dass sich Risiken durch Streuung reduzieren lassen. Sie schlossen sich zusammen und tätigten so gemeinsam – beispielsweise in der Handelsschifffahrt – eine Vielzahl von Investitionen. Damit 75
Alternative Investments
Traditionelle Investments
Investor
Nur für dafür qualifizierte Investoren mit ausreichendem Wissenshintergrund und Liquidität geeignet
Breites Allgemeinwissen zu finanzwirtschaftlichen Abläufen ausreichend
Informationstransparenz und -verfügbarkeit
Intransparent, wenige Wissensträger mit speziellen Ressourcenzugang
Informationsversorgung reguliert und jederzeit verfügbar
Investitionsmarkt
Komplexe Transaktionen zwischen Marktteilnehmern mit individueller Preisvereinbarung
Investitionen können in der Regel über standardisierte Märkte zu frei zugänglichen Preisen ge- und verkauft werden
Investitionszugang
Vergleichsweise hohe Mindestinvestitionssummen
Kaum Mindestinvestitionsanforderungen
Investitionsmanagement
Aktives Management erforderlich
Begrenzte Einflussnahmemöglichkeit auf Investition
Investitionsrestriktionen
Weitgehende Investitionsfreiheiten
Gesetzliche Restriktionen wie beispielsweise InvG, AktG
Investitionsallokation
Sukzessive Einzahlungen möglich
In der Regel Vollinvestition
Investitionshorizont
Mittelfristiger Anlagehorizont zur Renditeerzielung notwendig
Kurzfristige Gewinne und Verluste erzielbar
Investitionsende
Verkauf der Investitionsobjekte außerhalb der standardisierten Kapitalmärkte
Verkauf über standardisierte Märkte auf Basis der Preisfindung über Angebots- und Nachfrageverhältnis
Abb. 7: Idealtypische Gegenüberstellung alternativer Investments zu traditionellen Anlagemöglichkeiten
war der einzelne Kaufmann in der Lage, Investitionen in verschiedene Projekte vorzunehmen, was ihm allein aufgrund der Kapitalintensität bislang nicht möglich gewesen war, und so sein Risiko gegenüber einer Einzelinvestition zu senken. Bis zum Ende der 1950er Jahre wurden zur Bewertung und Verwaltung von Anlageinstrumenten überwiegend die Rendite und deren Aussichten als maßgeblicher Faktor herangezogen. Risikoreduktion durch Diversifikation oder gezielte Gewichtung verschiedener Anlageklassen wurde nicht berücksichtigt (vgl. Dexheimer/Schubert/Ungnade 1985, S. 83). In den folgenden 1960er Jahren wurde der Zusammenhang zwischen den verschiedenen vorhandenen Anlageklassen, die so genannte Korrelation, in die Betrachtung einer Diversifikation mit einbezogen. Vermutlich war das die Geburtsstunde der modernen Portfoliotheorie. Ein erstes mathematisches Modell dazu wurde bereits 1952 von Harry Markowitz beschrieben (Markowitz 1952). Auch wenn man sich schon vor Markowitz’ Aufsatz der naiven Diversifikation bewusst war, lieferte er die mathematischen Grundlagen. Er konnte zeigen, dass man durch geschickte Kombination risikobehafteter Anlagen ein Portfolio erhalten kann, welches aufgrund des Diversifikationseffektes bei nicht perfekt korrelierten Anlagen bei gleicher Renditeerwartung ein niedrigeres Risiko aufweist. Bei seinen Betrachtungen legte Markowitz eine Normalverteilung der Renditen der berücksichtigten Anlageklassen zu Grunde. In den folgenden Jahren folgte die Abkehr von der höchstmöglichen Rendite durch Selektion hin zur Umsetzung einer langfristigen Strategie für ein Portfolio, das zur Erzielung einer akzeptablen Rendite bei möglichst geringen Risiken führen soll. 76
Der Transfer der modernen Portfoliotheorie, die von Markowitz ursprünglich nur für Wertpapiere und öffentliche Märkte entwickelt wurde, auf alternative Investments bereitet in der Praxis jedoch einige Probleme. So ist vor allem die Verfügbarkeit von historischen Marktdaten stark eingeschränkt. Aber auch spezifische Eigenschaften wie beispielsweise die Heterogenität der verschiedenen Anlagen, die lange Kapitalbindung, die eingeschränkte Fungibilität beziehungsweise Preisfindung sowie hohe Transaktionskosten bereiten Probleme bei der Integration in den gedanklichen Rahmen der modernen Portfoliotheorie. Zahlreiche Investoren, die der modernen Portfoliotheorie vertraut und ihre Portfolios zielgerichtet und strukturiert diversifiziert haben, sahen sich in den Zeiten vergangener Krisen an den Kapitalmärkten gut ausgestattet, um diesen zu begegnen. Dennoch wurden gerade diese Anleger enttäuscht. Es stellte sich heraus, dass die moderne Portfoliotheorie gravierende Schwachstellen aufweist, die selbst breit gestreute Portfolios negativ beeinträchtigen können. So können z.B. seltene Ereignisse, unabhängig ihrer Zeitdauer, extreme Auswirkungen haben, die mit der Theorie der Normalverteilung nicht vereinbar sind. Die Einbindung von alternativen Investments in ein diversifiziertes Portfolio erscheint durchaus sinnvoll, da dadurch die Wahrscheinlichkeit deutlich erhöht werden kann, das Portfoliorisiko zu reduzieren. Ein positiver Nebeneffekt dessen ist, dass ein höheres Renditepotenzial prognostiziert werden kann. Diese Investitionen sind jedoch auch weniger liquide. Die Gefahr von Kapitalverlusten lässt sich durch Diversifikation verringern. Dennoch lassen sich die Risiken nicht gänzlich eliminieren und Verluste nicht vollständig ausschließen. unternehmenspraxis | update 16 | ss 2013
7.2 Gegenüberstellung Die Illiquidität alternativer Investments ist sicherlich ein wichtiger Aspekt, aber auch eine Vielzahl von anderen Aspekten, wie beispielsweise der Zeitpunkt der Auszahlungen (Abbildung 7), ist nicht zu vernachlässigen. Zwischenbewertungen sind zudem allenfalls eine grobe Schätzung der endgültigen Auszahlungen, was die Liquiditätsplanung der Anleger erschwert. Auch wissen Anleger im Vorfeld selten, in welche Investitionsvorhaben ihre Mittel fließen, und verlassen sich voll und ganz auf den jeweiligen Manager (so genannter blind pool). Somit ist mehr Vertrauen nötig als bei traditionellen Anlagen. Je länger sich die Laufzeit einer alternativen Investition darstellt, umso grösser wird die mögliche Anzahl von nicht mehr vorhersehbaren Ereignissen. Damit ist ein Zeithorizont von mehreren Jahren für eine sinnhafte Prognose zukünftiger Entwicklungen unbrauchbar. Investitionsentscheidungen basieren nicht mehr auf Risiken sondern vielmehr auf Unsicherheit (vgl. LeRoy/Singell 1987). Damit können die bei alternativen Investments durchschnittlich gezahlten höheren Renditen als Illiquiditätsprämie verstanden werden, als zusätzlicher Ertrag für den Verzicht auf Flexibilität in der Geldanlage.
7.3 Risiko-Rendite-Profil Jede Steigerung der Rendite ist zwangsläufig mit einem zunehmenden Risiko verbunden (vgl. Sharpe/Alexander/Bailey 1995, S. 261 ff.). Es gilt auch für alternative Investments das „first fundamental law of finance“ (vgl. Ghysels/Santa-Clara/Valkanov 2005). Als problematisch kann sich die Messung des Risikos darstellen. Da es sich aus der Unsicherheit über die künftig anfallende Rendite ergibt, kann es ex ante nicht sicher ermittelt werden. Damit lässt sich erst im Anschluss an eine Investition darstellen, wie hoch die Renditeschwankungen beziehungsweise das Risiko im Zeitverlauf ausgefallen sind (vgl. Pink 2006, S. 13 ff.). Für die Ermittlung von Renditen inklusive deren Prognose sind traditionelle Methoden der Performancemessung nur bedingt einsetzbar, da zur Ermittlung der Wertentwicklung nicht auf börsentäglich veröffentlichte Wertstellung zurückgegriffen werden kann und eine hohe Heterogenität der Anlagekategorien und Subkategorien innerhalb der alternativen Investments vorherrscht. Dazu kommt eine ungenügende Darstellung historischer Daten. Die vielfach verwendete Schätzung auf der Basis von Buchwerten kann Verzerrungen implizieren. Diese können durch die Verwendung von Performanceanalysen auf der Basis von Cashflowbetrachtungen vermieden werden, die auf die tatsächlich erfolgten Zahlungen an den Investor abzielen. Dabei kommt vielfach ein so genannter Multiple beziehungsweise Vervielfältiger zum Einsatz, der die Summe der tatsächlich erzielten Erträge für den Investor in das Verhältnis update 16 | ss 2013 | unternehmenspraxis
zur Summe der Einzahlungen setzt. Weiterhin kann der Erfolg durch interne Zinsfußberechungen beziehungsweise die Internal Rate of Return, IRR, ausgedrückt werden. Allerdings kann diese Angabe ebenfalls nur einen verzerrten Aufschluss über den Erfolg einer Investition geben. Diese Verzerrung liegt darin begründet, dass eine Wiederanlage von Rückflüssen oder von positiven Zahlungssalden zum internen Zinsfuß unterstellt wird, was in der Regel nicht der Fall ist (vgl. Albrecht/ Maurer 2008, S. 865 ff.). Investoren erlagen in der Vergangenheit dem Reiz der Aussicht hoher Renditen. Dieser Reiz ließ das Hinterfragen des damit zusammenhängenden Risikos vergessen. Investoren werden diesem Reiz in unterschiedlichen Formen und Ausprägungen auch zukünftig erliegen. Die Verantwortung dafür sollte dem Investor nicht abgenommen werden. Investoren müssen wissen und akzeptieren, dass alternative Investments eine relativ große Bandbreite von unterschiedlichen Risiken bergen, die häufig von herkömmlichen Risikomessgrößen nicht erfasst werden. Wenn diese Risiken eintreten, kann der Kunde sein Investment teilweise oder sogar komplett verlieren.
7.4 Diversifikationsvorteil Der Diversifikationsvorteil von alternativen Investments entsteht aus der schwachen Korrelation zwischen den einzelnen Strategien verschiedener Produkte und Anlageformen und im Vergleich zu traditionellen Vermögenswerten. Hier ist jedoch festzuhalten, dass manche Strategien stärker als andere mit den traditionellen Märkten korrelieren und Korrelationen im Zeitablauf nicht stabil sind.
7.5 Die optimale Berücksichtigung alternativer Investments Ein optimal diversifiziertes Portfolio basiert, je nach individueller Risikoneigung beziehungsweise Nutzenfunktion des Anlegers, auf verschiedenen Anlageklassen. Die unterschiedlichen
Abb. 8: Verschiedene Rendite-Risiko-Kombinationen in Abhängigkeit der Korrelation
77
Abb. 9: Effizienzlinie nach der Integration nicht-traditioneller Anlagen (für die Volatilität wird in der Finanzmarkttheorie oft das griechische Zeichen σ verwendet )
Portfoliomischungen der Anlageklassen können in ein Rendite-Risiko-Diagramm übertragen und somit grafisch dargestellt werden. Dabei gibt es für jede einzelne Gewichtungskombination im Optimum jeweils nur einen Punkt im Diagramm, an dem entweder eine vorgegebene Rendite mit dem geringsten Risiko oder ein vorgegebenes Risiko mit der höchstmöglichen Rendite erzielt werden kann (Abbildung 8). Die vereinfachte schematische Darstellung in Abbildung 9 zeigt eine Verschiebung der Effizienzkurve nach links oben, das heißt durch eine zusätzliche Beimischung von nicht-traditionellen Anlagen kann das Gesamtrisiko des traditionellen effizienten Portfolios reduziert – hier Verschiebung nach links – und eine Renditesteigerung erreicht werden – hier Verschiebung nach oben.
7.6 Praktischer Einsatz alternativer Investments im Portfolio Zur praktischen Umsetzung des Einsatzes alternativer Investments im Portfolio gilt es zu klären, welchen Anteil diese im Gesamtportfolio einnehmen sollen, wie eine Diversifikation innerhalb der gewählten alternativen Investments erfolgt und in welche Struktur im Sinne einer rechtlichen oder organisationalen Produktkonzeption anschließend investiert werden soll (vgl. Hagenmüller 2004, S. 33 ff.). Portfolioallokation Ein Anleger entscheidet sich für die grundsätzliche Einbindung von alternativen Investments zur Optimierung seines individuellen Rendite-Risiko-Verhältnisses seines Portfolios. Dabei erfolgt eine Berücksichtigung der entsprechenden Liquiditätssituation seines Lebenszyklus ebenso wie die vorherrschenden steuerlichen und rechtlichen Rahmenbedingungen für den Investor. Darüber hinaus erfolgt die Festlegung der Anlagekategorie, in welche die Investition erfolgen soll. 78
Diversifikation innerhalb der gewählten alternativen Investments Verschiedene Subkategorien der ausgewählten alternativen Investments mit unterschiedlichen strategischen und operationellen Ansätzen werden dazu in das traditionelle Portfolio eingebracht, um so das unsystematische Risiko durch Diversifikation zu vermindern. Dieser Schritt erweist sich in der praktischen Umsetzung regelmäßig als schwierig, da Anlagerichtlinien und ähnliche Vorgaben eine theoretisch sinnvolle Diversifikation vorgeben, aber in der Praxis nicht zu jedem Zeitpunkt passende alternative Investments hinsichtlich Laufzeit, Ausrichtung und operationelle Vorgehensweise verfügbar sein können. Investitionsart Investoren stehen verschiedene Möglichkeiten der Investition zur Verfügung. Von der direkten Investition über Fondslösungen hin zu Dachfondskonzepten. Dabei spielen Mindestinvestitionssummen, Diversifikationspotenziale, rechtliche und steuerliche Auswirkungen sowie Kosten eine entscheidende Rolle. Wichtig bei der Entscheidung für eine indirekte Struktur ist der Nachweis der erfolgreichen Geschäftstätigkeit des jeweiligen Managements, englisch: Track record. Durch die Umsetzung dieser Vorgehensweise können Potenziale für eine angemessene Verzinsung des eingesetzten Kapitals auf Basis der individuellen Risikopräferenz und entsprechenden Liquiditätsplanung genutzt werden.
8. Fazit Die konzeptionellen Vorteile von handelbaren traditionellen Anlageklassen gehen aktuell mit gravierenden Nachteilen einher: Der weitgehende Gleichlauf von Renditeausprägungen und die besondere Schwankungsanfälligkeit. Ausdruck dessen ist die zunehmende Krisenanfälligkeit dieser Produkte, welche auch durch die sich verändernde Qualität hinsichtlich der Transparenz der globalen Informationsnetze bedingt ist. Aus diesem Grund hat sich das Spektrum der Investitionsmöglichkeiten in den letzten Jahrzehnten geändert, auch zu Gunsten der alternativen Investments. Diese Entwicklung ist auch mit der niedrigen Korrelation zu anderen Anlageklassen zu begründen. Aufgrund dieser Eigenschaften können Investitionen in nicht-traditionelle Anlageklassen nicht nur zur Diversifikation eines Portfolios beitragen, indem sie eine Absicherung des potenziellen Verlustes bei negativen Marktbewegungen oder gegen drohende Inflation beziehungsweise Deflation bieten, sondern gleichzeitig die Rendite optimieren. Die Auswahl geeigneter alternativer Finanzprodukte zur Umsetzung einer Portfoliostruktur inklusive alternativer Investments wird allerdings häufig durch das Fehlen öffentlich zugänglicher Informationen und entsprechender Quotierung erschwert. unternehmenspraxis | update 16 | ss 2013
Bei der Betrachtung alternativer Investments gilt zu berücksichtigen, dass deren Vorteile nur im Rahmen einer sinnvollen Asset Allokation zur Geltung kommen können. Eine Optimierung wird zunehmend durch den hohen Anteil der Anlageklasse Immobilien verhindert. Jedoch hat sich auch während der letzten Finanzkrise gezeigt, dass in der Zeit des Einbruchs von Aktienkursen die Wertentwicklung ausgewählter alternativer Investments wie Hedge Funds zeitweise gleichlaufende Züge annahm. Geschuldet wurde diese dem kurzfristigen Liquiditätsbedarf, der durch den Verkauf von langfristig ausgerichteten alternativen Investments ausgeglichen werden musste. Insbesondere die geringere Transparenz und die damit einhergehende schwierige Preisfindung der meisten alternativen Investments im Gegensatz zu den traditionellen Investments erschwerten Verkäufe. Die dennoch erfolgten Veräußerungen wurden daher mit deutlichen Verlusten realisiert. Eine einheitliche Definition des Begriffs alternative Investments ist kaum möglich. Bislang konnten sich weder in der wirtschaftswissenschaftlichen Literatur noch in der Gesetzgebung einheitliche Formulierungen durchsetzen, was in der Folge zu einer synonymen Verwendung des Begriffs für eine Vielzahl von unterschiedlichen Produkten führt. Diese fehlende Differenzierung spiegelt kaum die Unterschiede in Bezug auf Investitionsverhalten, Anlagestrategien und Regulierungen wider. Lediglich die Nutzung von Fremdkapitalanteilen für so genannte Leverage-Effekte ist den meisten alternativen Investments gleich und eigen. Der Dynamik bei der Entwicklung neuer Produkte und Strategien am Kapitalmarkt gebührend, erfolgt eine Klassifizierung anhand typischer Merkmale. Die meisten Definitionsversuche beschreiben mehr die Tätigkeiten alternativer Investments als tatsächlich diese zu definieren. Damit geht der ebenso populäre Ruf nach mehr Regulierung einher, ohne dass dabei eine Konkretisierung erfolgt. Alternative Investments zeichnen sich auch während Finanzkrisen durch die Orientierung an absoluten Erträgen aus. Damit wird die Performance nicht mit einem Index als Benchmark verglichen, da Erträge auch in Zeiten fallender Kapitalmärkte erzielbar sind. Gewinner in einer Finanzkrise ist demnach nicht der, welcher gemessen an einer Benchmark weniger als andere verloren hat, sondern der Investor, der absolut in einem fallenden Investitionsumfeld Erträge vereinnahmen konnte. Das ist der Investor alternativer Investments.
Literatur Albrecht, P., Maurer, R. (2008): Investment- und Risiko management, 3. Aufl., Stuttgart. Benjamin, J. D., Sirmans, G. S., Zietz, E. N. (2001): Returns and Risk on Real Estate and Other Investments: Recent Evidence, Journal of Real Estate Portfolio Management, No. 3, p. 183–214. Borning, M. (2012): Der Staat als Investor in Private Equity, Frankfurt am Main. Brophy, D. J., Wadecki, A. A. (2008): Characteristics of the Private Equity Arena, in: Cendrowski, H. et al. (eds.): Private Equity. History, Governance, and Operations, p. 39–64. Dexheimer, P., Schubert, E., Ungnade, D. (1985): Leitfaden durch die Anlageberatung, Stuttgart. Disch, W., Füss, R. (2004): Chancen und Risiken von Hedge Funds als Anlagekategorie, Villingen-Schwenningen. Eling, M. (2006): Hedgefonds-Strategien und ihre Performance, Lohmar. Ghysels, E., Santa-Clara, P., Valkanov, R. (2005): There Is a Risk-Return Trade-Off After All. Journal of Financial Economics 76, p. 509–548. Gietl, R., Landau, C., Hungenberg, H. (2009): Einflussnahme von Private Equity-Gesellschaften auf ihre Portfoliounternehmen und deren Entwicklung nach einem Buyout: Deskriptive Ergebnisse einer Betrachtung europäischer Portfoliounternehmen, Arbeitspapier 08-04, http://www.management.wiso.uni-erlangen.de/Forschung/ Arbeitspapiere/IUP%20AP%2008-04%20Einflussnahme%20 durch%20Private%20Equity-Gesellschaften-vF.pdf, Abruf: am 03.12.2012. Grote, M. H. (2007): Private Equity im Mittelstand: Mythos und Realität, in: Department of Finance, Goethe University Frankfurt am Main (Hrsg.): Working Paper Series: Finance and Accounting, Nr. 183, Frankfurt am Main. Grünbichler, A., Graf, S., Wilde, C. (2003): Private Equity und Hedge Funds in der Strategischen Asset Allocation, in: Dichtl, H., Kleeberg, J. M., Schlenger, C. (Hrsg.): Handbuch Asset Allocation, Bad Soden, S. 571–600. Gündel, M., Katzorke, B. (2007): Private Equity – Finanzierungsinstrument und Anlagemöglichkeit, Köln. Hagenmüller, M. (2004): Investor Relations von PrivateEquity-Partnerships, Sternenfels.
>> update 16 | ss 2013 | unternehmenspraxis
79
Literatur Hedge Fund Working Group (2007): Hedge Fund Standards: Consultation Paper PART 1: Approach to best practice in context. LeRoy, S., Singell, L. (1987): Knight on Risk and Uncer tainty. Journal of Political Economy 95, p. 394–406. Markowitz, H. M. (1952): Portfolio Selection, in: Journal of Finance 7, p. 77–91. Meinungsforschungsinstitut Infas (2007): Die Deutschen kennen Private Equity nicht, in: Frankfurter Allgemeine Zeitung vom 17.10.2007, Nr. 241, S. 25. Müntefering, F. (2007): Interview für Bild am Sonntag vom 17.04.2005, in: Zeit vom 1. Februar 2007, S. 21. Natter, A. (2003): Private Equity und Venture Capital als private Vermögensanlage, Frankfurt am Main. Peetz, D. (2007): Hedge-Fonds und Finanzmarktinstabilität – eine systematische Betrachtung, Zürich. Pink, M. (2006): Globale Portfoliodiversifizierung im Rahmen der Anlagestrategie offener Immobilienpublikumsfonds, Halle-Wittenberg. Sharpe, W., Alexander, G., Bailey, J. (1995): Investments, 6th ed., Upper Saddle River, New Jersey. Shimoff, E. (2012): Eliot Shimoff, http://userpages.umbc. edu/~shimoff/, Abruf am 03.12.2012. Signer, A., Favre, L. (2002): The difficulties of measuring the benefits of hedge funds, Journal of Alternative Investments, Vol. 5, No. 1, p. 31–42. Söhner, M. (2012): Gläubigerschutz und Anlegerschutz von Private Equity- und Hedgefonds, Berlin. Thum, O., Timmreck, C., Keul, T. (2008): Private Equity, Leitfaden zur erfolgreichen Unternehmensfinanzierung, München. Welling, P. (1997): Portfolio-Management für Immobilien, in: Falk, B. (Hrsg.): Das große Handbuch ImmobilienManagement, S. 663–710. Werner, T. (2008): Ökologische Investments, Wiesbaden. Werner, T., Burghardt, R. (2006): Der Graue Kapitalmarkt, Wiesbaden. Wicki, D. (2011): Hedge Funds im Schweizer Recht Regulierung qua Transparenz?, Berlin.
80
unternehmenspraxis | update 16 | ss 2013
Die Macht der Medien — Zwischen gesellschaftlichem Funktionszweck und medialen Eigengesetzlichkeiten Klaus Hofmann
1. Einleitung Am 13. Dezember 2011 veröffentlichte Deutschlands auflagenstärkste Boulevardzeitung ihre Rechercheergebnisse zu einem umstrittenen Hauskredit des damaligen Bundespräsidenten Christian Wulff. Weitere Veröffentlichungen zu Vorwürfen um Urlaube, Schnäppchen und Sponsoren folgten, außer in der Bild-Zeitung, bundesweit auch in der gesamten Presse und im Rundfunk. Die von den Medien in ihrer Berichterstattung thematisierten Vorwürfe gegen den Bundespräsidenten standen plötzlich im Mittelpunkt öffentlichen Interesses. Die „veröffentlichte Meinung“ der Medien setzte in der Gesellschaft eine öffentliche Meinungsbildung in Gang und beeinflusste über mehr als zwei Monate das öffentliche Meinungsspektrums zum „Fall Wulff“. Das Ergebnis ist bekannt: Am 17. Februar 2012 trat Bundespräsident Wulff von seinem Amt zurück. Ein „Lehrbeispiel“ für die Macht der Medien? Worin besteht deren Macht? Was sind die maßgeblichen Faktoren? Wie ist Medienmacht rechtlich einzuordnen und zu bewerten? Um diese Fragen zu beantworten, soll im Folgenden der Begriff „Medienmacht“ in seinen wesentlichen Merkmalen spezifiziert, in den Zusammenhang der nationalen Medienordnung eingeordnet und im Verhältnis zu deren Gestaltungsziel betrachtet werden. Die daraus abzuleitenden Anforderungen an eine verantwortungsbewusste Ausübung medialer Macht werden umrissen und in Handlungsleitlinien zusammengefasst.
2. Vorbemerkung Die nachfolgenden Ausführungen beziehen sich auf die klassischen Massenmedien Presse (als Oberbegriff für Zeitung und Zeitschrift) und Rundfunk (als Oberbegriff für Hörfunk und Fernsehen) – und damit auch auf den Journalismus in diesen Medien. Auf Entwicklungen im Bereich Multimedia geht dieser Beitrag nicht ein. Gerade beim so genannten „Multimediarecht“ ist die klare und eindeutige Zuordnung nach medialen Erscheinungsformen schwierig, was vor allem kompetenzielle Folgen hat. Diese Abgrenzungsprobleme stellen sich zunehmend im Lichte der durch die Digitalisierung stärker einsetzenden technischen update 16 | ss 2013 | unternehmenspraxis
Dr. Klaus Hofmann M.A. ist Lehrbeauftragter an der Fachhochschule Mainz für die Fächer Medienrecht und Wirtschaftsprivatrecht. Er studierte an der Johannes GutenbergUniversität Mainz Rechtswissenschaften und Publizistik, arbeitete als wissenschaftlicher Mitarbeiter am Institut für Publizistik, Lehrstuhl Medienrecht und promovierte im Rundfunkrecht. Er war beim ZDF und SWR Mainz tätig und leitete innerhalb des Produktionsbetriebs die Abteilungen FS-Bild und FS-Herstellung und Produktionsplanung. E-Mail: higkla@gmx.de
Konvergenz, die auch zum Teil zu inhaltlicher Annäherung führt. Als Problem kommt hinzu, dass bezogen auf demokratietheoretische Zielsetzungen die Einbindung des Internets und der öffentlich relevanten Online-Kommunikation in die Medienordnung noch weitgehend ungeklärt ist. Ebenfalls ausgeklammert sind die Fragen der Verhinderung vorherrschender Meinungsmacht durch Medienkonzentration.
3. Begriff und Gestaltungsziel der nationalen Medienordnung Der Begriff „nationale Medienordnung“ beschreibt die Gesamtheit von Ordnungen oder Strukturen, welche in einem inneren Funktionszusammenhang zueinander stehen und die Medien (hier: die zentralen Massenmedien) in der Bundesrepublik charakterisieren. Die Mechanismen der Ordnungsbildung beziehen sich auf die Regelung öffentlicher Kommunikation, im engeren Sinn auf die Massenmedien als Regelungsfeld. Dabei geht es vorrangig um die Regulierung der Rahmenbedingungen in Form von allgemeinverbindlichen Regelungen mittels Recht. 81
4. Verfassungsrechtliche Grundlagen der nationalen Medienordnung Betrachten wir Medienmacht in diesem spezifischen Zusammenhang, bewegen wir uns auf medienrechtlichem, genauer gesagt, auf verfassungsrechtlichem Terrain. Medienrecht bedeutet „konkretisiertes Verfassungsrecht“ (Hermann/Lausen 2004, S. 149). Die Grundlage für die nationale Medienordnung ist das Grundgesetz (GG). Von Bedeutung sind die darin festgeschriebenen Kommunikationsfreiheiten und geregelten Kompetenzen von Bund und Ländern im Medienbereich. Ebenso hat die Rechtsprechung des Bundesverfassungsgerichts (BVerfG) wesentlich zur Sicherung der Kommunikationsfreiheiten und zur Entwicklung einer freien Presse und eines funktionierenden Rundfunks beigetragen. Zentraler Ansatzpunkt ist Art. 5 GG. Den darin grundrechtlich gewährleisteten Kommunikationsfreiheiten kommt im Zusammenhang mit dem gestellten Thema entscheidende Bedeutung zu.
5. Kommunikationsfreiheiten des Art. 5 Abs. 1 GG Aus Art. 5 GG lässt sich die Unterscheidung nach individuellem und institutionellem Medienrecht als Regulierung der verschiedenen Kommunikationsfreiheiten ableiten. Art. 5 Abs. 1 GG kennt fünf Formen der Kommunikationsfreiheiten (vgl. dazu im Einzelnen Fechner 2012, S. 19 ff.): §§ M einungsfreiheit (Grundtypus und allgemeine Basis der Kommunikationsgrundrechte), §§ Informationsfreiheit, §§ Pressefreiheit, §§ Rundfunkfreiheit, §§ Filmfreiheit. Die Grundrechtsgewährleistungen in Art. 5 Abs. 1 GG stellen die Vorgänge der Individualkommunikation und der Massenkommunikation unter besonderen Schutz – gegenüber staatlichen Beeinträchtigungen, aber auch im Hinblick auf Gefährdungen, die aus der Gesellschaft selber für die Freiheit der Kommunikationsprozesse erwachsen können. Neben den individualrechtlichen Aspekten gewährleistet Art. 5 Abs. 1 GG auch die Freiheiten der Massenmedien Presse, Rundfunk und Film – und unstrittig auch die Freiheit der neuen Medien, auch wenn diese in Art. 5 GG nicht explizit genannt sind. Allgemein betrachtet ist die Freiheit der Massenmedien ein Aspekt der Meinungs- und Informationsfreiheit, geht jedoch als selbständiges Recht darüber hinaus. Geschützt wird hier auch die institutionelle Eigenständigkeit und Garantie des Mediums als Institut zur Vermittlung von Meinungen und Tatsachen und 82
als Mittel zur Massenkommunikation. Man spricht in diesem Zusammenhang von institutionellem Medienrecht, und meint damit Rolle und Aufgabe des Staates, mit einer „positiven“ Grundordnung den Rahmen für eine freie Medienlandschaft zu schaffen. Wegen der „schlechthin konstituierenden Bedeutung“ (BVerfGE 20, 56 ff.; 35, 202 ff.; 66, 116 – Wallraff), insbesondere von Presse und Rundfunk für die freie Meinungsbildung (für den Rundfunk: BVerfGE 57, 295 ff. – 3. Rundfunkurteil) und damit für die Demokratie (vgl. BVerfGe 7, 198 ff. – Lüth; 90, 27 ff.), obliegt dem Gesetzgeber nach der Rechtsprechung des BVerfG für beide Massenmedien eine Einrichtungs- und Bestandsgarantie und die Pflicht zur gesetzlichen Ausgestaltung der Presse- und Rundfunkordnung. Bezogen auf das Institut der freien Presse (zum Schutz der Institution Presse vgl. Löffler/Ricker 2005, S. 58 ff.), womit die Einrichtung einer freien Presse insgesamt gemeint ist, und bezogen auf das Institut des funktionierenden Rundfunks, ebenfalls insgesamt gesehen, muss der Gesetzgeber die rechtliche Gewährleistung der Presse- bzw. Rundfunkfreiheit durch rechtsetzende Regulierungen und Regelungen zur Zielerreichung ausgestalten. Die duale Rundfunkordnung ist ein Beispiel für eine strukturbezogene Gestaltungsregulierung. Regelungen zum Beispiel bezüglich der Programmleistungen des Rundfunks oder Werberegeln sind zu den Ausgestaltungsregelungen zu zählen. Das übergeordnete Ziel des Art. 5 GG, die Kommunikationsfreiheiten in allen ihren Facetten zu ermöglichen, setzt Offenheit und Responsivität auf Seiten der Medien Presse und Rundfunk voraus und den Zugang der Rezipienten zu verschiedenen Medienanbietern und Medienangeboten. „Responsivität“ verlangt in diesem Zusammenhang von den Medien bei ihrem publizistischen Handeln, den Bezug auf die Gesellschaft, d.h. Pluralität bei der Berücksichtigung von Themen, Meinungen und deren Reflexion (im Einzelnen dazu etwa BVerfGE 119, 181 ff.). Die institutionelle Ordnung des Medienmarktes (Marktstruktur) und der Zugang zum Markt (Anbieter) und zu den Angeboten (Rezipienten) ist und bleibt daher eine wesentlich staatlichmedienpolitische Aufgabe. Auch die Verhinderung vorherrschender Meinungsmacht ist staatliche Aufgabe. Laut BVerfG wird das Strukturprinzip des Pluralismus, das Presse und Rundfunk für die öffentliche Kommunikation in ihrem publizistischen Angebot zu gewährleisten haben, in besonderem Maße gefährdet durch eine Entstehung vorherrschender Meinungsmacht. Der Gesetzgeber ist daher verfassungsrechtlich zu Vorkehrungen verpflichtet, um solchen Entwicklungen entgegenzuwirken. Für die medienkonzentrationsrechtliche Prüfung ist die Kommission zur Ermittlung der Konzentration im Medienbereich (KEK) zuständig (zur Aufgabe der KEK, vgl. §§ 21, 35 ff. 13. Rundfunkstaatsvertrag). unternehmenspraxis | update 16 | ss 2013
6. Mediale Wissensmacht im Kontext zur öffentlichen Aufgabe der Medien „Scientia potentia est“, „Wissen ist Macht“, lautet ein lateinisches Sprichwort. Noch treffender hat es Francis Bacon, ein englischer Staatsmann und Philosoph aus dem 16. Jahrhundert, formuliert: „Denn auch das Wissen selbst ist Macht“. Diese Feststellung gilt in einer hoch ausdifferenzierten, an Komplexität ständig zunehmenden Informations- und Wissensgesellschaft mehr denn je – auch für die Medien. Information und Wissen sind die Ressource, aus der Mehrwert geschöpft werden soll. Doch der Einzelne hat aus eigenem Erleben und persönlicher Erfahrung nur äußerst begrenzte Einsichten in Politik, Wirtschaft und Kultur. Um Übersicht zu gewinnen, bedient er sich z.B. des publizistischen Angebots von Presse und Rundfunk. Von ihnen wird die Herstellung von Öffentlichkeit und die Wahrnehmung öffentlicher Interessen erwartet und für die Wahrnehmung dieser als öffentliche Aufgabe angesehenen Funktion werden den Medienorganisationen und Medienschaffenden von Presse und Rundfunk Privilegien zuerkannt. Presse und Rundfunk sind im freiheitlich-demokratischen Rechtsstaat unverzichtbare Instrumente, um unabhängig von staatlichen Einflüssen und in vielfältiger Weise die Öffentlichkeit über bedeutende Vorgänge in Politik, Gesellschaft, Wirtschaft und Kultur zu informieren.
Vorstellungen über Inhalt und Form der Vermittlung und nehmen damit in wesentlichem Maße Einfluss auf die öffentliche Meinung und zugleich auch auf die individuelle Meinungs- und Willensbildung. Damit sind wir beim Kernthema angekommen: bei der Verknüpfung des Stellenwerts von Presse und Rundfunk in der repräsentativen Demokratie mit der Macht, die ihnen daraus erwächst.
7. Zugangsfragen zu Struktur und Inhalten medialer Macht „Medienmacht“ steht in einem engen sachlichen Verhältnis zu den zentralen Leitbildern und Basismechanismen der nationalen Medienordnung zur Herstellung und Gestaltung öffentlicher Kommunikation. Unbestritten ist, dass Presse und Rundfunk Anteil an der Ermöglichung öffentlicher Kommunikation haben und ihnen eine zentrale gesellschaftliche Funktion zukommt, bezogen auf demokratiepolitische und soziokulturelle Zielsetzungen. Vor diesem Hintergrund führt der Zugang zu Struktur und Inhalten ihrer medialen Macht über folgende drei Fragen: §§ W ie sind Presse und Rundfunk in das demokratische System eingebunden? §§ Welche Funktionen nehmen sie für die Gesellschaft wahr?
Nach den Leitlinien des BVerfG besteht die grundlegende öffentliche Aufgabe von Presse und Rundfunk (zur öffentlichen Aufgabe der Presse, vgl. BVerfGE 20, 162 ff. – Spiegel sowie Löffler/Ricker 2005, S. 14 ff.; zur öffentlichen Aufgabe des Rundfunks; vgl. alle Rundfunk-Urteile des BVerfG) in ihrer Funktion als „Publikative“ darin,
§§ W elche Macht erwächst ihnen daraus und welche Verantwortung tragen sie?
§§ freie Kommunikationsprozesse zu ermöglichen,
Die Freiheit der Meinungen und der Berichterstattung sowie die ihrer medialen Vermittlung ist für den demokratischen Verfassungsstaat konstituierend. Presse und Rundfunk fungieren in der repräsentativen Demokratie als Träger der öffentlichen Meinung und nehmen damit unverzichtbare Aufgaben für die Gesellschaft wahr.
§§ freie Meinungsbildung und Meinungsvielfalt zu ermöglichen, §§ K ritik- und Kontrollfunktion gegenüber den Staatsgewalten auszuüben, §§ Vermittlungsfunktion zwischen Bürger und Staat wahrzunehmen. Bei der Umsetzung und Erfüllung dieser öffentlichen Aufgabe durch Presse und Rundfunk geht es um die Gestaltung gesellschaftlicher Infrastruktur, gebildet aus den Wissensbeständen, die von den Journalisten in den Medien ausgewählt und präsentiert werden. Presse und Rundfunk sind im Kernbereich der öffentlichen Kommunikation die mediale Funktion der Wissensvermittlung übertragen. Sie verfügen also notwendigerweise über Wissen. Sie verfügen aber auch über ihr Wissen, indem sie frei entscheiden, wie sie damit umgehen. Sie entscheiden nach eigenen update 16 | ss 2013 | unternehmenspraxis
8. Medien als Träger öffentlicher Meinung
Was die Vorgaben gebotener Informations- und Meinungspluralität betrifft, erfüllen sie ihre öffentliche Aufgabe je nach Organisationsform in sehr unterschiedlicher Weise. Die öffentlichrechtlichen Rundfunkanstalten sind, um Informations- und Meinungsvielfalt zu gewährleisten, programminhaltlich zum Binnenpluralismus verpflichtet (zum binnenpluralen Modell vgl. Fechner 2012, S 280). Bei den privatwirtschaftlich verfassten Medienunternehmen im Presse- und Rundfunkbereich soll eine Vielzahl von Medien auch eine Vielfalt von Informationen und Meinungen im Sinne von Außenpluralismus (so BverfGE 57, 295 f.) sichern. Darüber hinaus ist in der Organisationsform des dualen Rundfunksystems die Koexistenz von öffentlich-rechtlichem und pri83
vatem Rundfunk festgeschrieben, um Außenpluralität im Programmangebot zu gewährleisten (vgl. BverfGE 57, 295 f.).
systemen, um größtmögliche Aufmerksamkeit für Themen zu erzeugen (vgl. Luhmann 1996):
9. Medien als Organe gesellschaftlicher Meinungsund Willensbildung
Das erste Regelsystem (Selektionslogik) besteht in der Auswahl berichtenswerter Ereignisse nach Maßgabe ihres Nachrichtenwertes (vgl. Schulz 1976).
Generell resultiert die öffentliche Aufgabe von Presse und Rundfunk aus der Tatsache, dass beide Medien im pluralistischen System der Demokratie (= Aufteilung der Macht an demokratisch legitimierte Institutionen und Funktionsträger) an der Organisation der politischen Meinungs- und Willensbildung mitwirken sollen. Mit „Organisation“ ist hier die kommunikative Vorbereitung und Beeinflussung politischer Entscheidungen gemeint. Als Medium und Faktor für die Bildung öffentlicher Meinung nehmen Presse und Rundfunk in wesentlichem Ausmaß Einfluss auf das öffentliche Leben und die politische Willensbildung. Dadurch gewinnen sie Macht und es erwächst ihnen aus dieser Macht Verantwortung.
10. Gesellschaftlicher Funktionszweck der Medien Presse und Rundfunk haben gegenüber der Gesellschaft eine umfassende Informationspflicht und können sich bei ihrer publizistischen Tätigkeit auf das Privileg des Art. 5 GG (Schutz der Pressefreiheit und Rundfunkfreiheit) stützen. Die Informationsverpflichtung umfasst als zentrale Leistung, die beide Medien für die Gesellschaft ausüben (sollen), die Kritik- und Kontrollfunktion. Dieser Kritik- und Kontrollfunktion können beide Medien nachkommen, indem Dritte die Möglichkeit haben, mit Kritik- und Kontrollaussagen in der Zeitung, in der Zeitschrift, im Hörfunk und Fernsehen „zu Wort zu kommen“ (hier fungieren die Medien als „Medium“, d.h. als Vermittler), oder aber, indem die Medien selbst diese Kritik- und Kontrollaufgaben wahrnehmen (hier fungieren die Medien als „Faktor“, d.h. mit gestaltendem Eigeneinfluss). Gerade für die freiheitliche Demokratie sind Kritik- und Kontrollfunktion ein herausragender Indikator und für die politische Meinungs- und Willensbildung deshalb unverzichtbar.
11. Faktoren medialer Macht Aus der Wahrnehmung der gesellschaftlichen öffentlichen Aufgabe und der von Presse und Rundfunk zu gewährleistenden öffentlichen Kommunikation erwächst beiden Medien starke und vielfältige Macht. Presse und Rundfunk verhalten sich im Rahmen der publizistischen Tätigkeiten als „gatekeeper“ der veröffentlichten Meinung und „Schleusenwärter der Kommunikation“. Sie erreichen ihren gesellschaftlichen Funktionszweck im wesentlichen durch die Nutzung von zwei aufeinander abgestimmten Regel84
Das zweite Regelsystem (Präsentationslogik) besteht aus einem Kanon von Inszenierungsformen für das so ausgewählte Material, um die Maximierung des Interesses der Leser, Zuhörer, Zuschauer zu sichern (vgl. Meyer/Kampmann 1998 sowie Meyer et al. 2000). Das Zusammenwirken von Selektionskompetenz mit der medialen Bedeutung für Aufmerksamkeit kennzeichnet die spezifische Logik des Mediensystems bei Presse und Rundfunk (vgl. Wildemann/Kaltefleiter 1965). Grundsätzlich bedeutet „Information“ immer Selektion („Schere im Kopf des Journalisten“). Die Presse- und Rundfunkjournalisten vermitteln zwar, aber sie bestimmen durch „mediale Filterung“ auch, was sie vermitteln, und dies mit Tendenz, nicht selten sogar tendenziös. „Macht“ meint in diesem Zusammenhang, die willentliche Fähigkeit des Journalisten, struktural und funktional Realität zu bestimmen oder zu bewegen. Dabei geht es nicht um eine direkte Einflussnahme der Medien auf den Nutzer im Sinne einer linearen Wirkungskette, sondern um eine indirekte Einflussnahme in Form einer reflexiven Wirkung, also, um die Gestaltung sozialer, politischer, wirtschaftlicher und kultureller Infrastruktur, gebildet aus den Wissensbeständen, die von Journalisten selektiert und präsentiert werden, und dem Wissen, das beim Rezipienten vorhanden ist. Diese Medienwirkung ist zwar bei den einzelnen Lesern, Hörern und Zuschauern verschieden in Art und Ergebnis, wegen der medialen Möglichkeit der Realitätsbestimmung aber stets intensiv. Die gesellschaftliche „Wirklichkeit“ konkretisiert sich in der selektiven Information über gesellschaftlich-relevante Themen und im Aufbau des Interesses an diesen Themen und ihrer Sichtweise. In diesem Sinne wirken Presse und Rundfunk indirekt und besitzen strukturelle und funktionale Macht. Ihre Thematisierungskompetenz und Artikulationsfunktion sind geprägt von Zeitgeist, von der Logistik des Mediensystems, von ökonomischen Zwängen. Sie stehen vielfältig zu einer engeren oder weiteren sozialen Umwelt in Beziehung, mit politischen, wirtschaftlichen und kulturellen Lobbys. Dazu kommt ein ständig wachsendes Informationsaufkommen, dem, mit Blick auf die Massenkommunikation, eine begrenzte Verarbeitungskapazität bei den Medien selbst und ihren Nutzern gegenübersteht. Presse und Rundfunk bestimmen den Inhalt der öffentlichen Meinung. Ändert sich der Medientenor, dann verändert sich auch die Einstellung der Rezipienten, zwar nicht gleichzeitig, aber wenig später. Die Ursachen für dieses Phänomen sind, wie empirische Forschungen belegen, Isolationsfurcht und die angeborene Neigung des Menschen zur Imitation als einer Form des Lernens unternehmenspraxis | update 16 | ss 2013
(dazu im Einzelnen Noelle-Neumann et al. 2009, S. 210 ff.). Presse und Rundfunk sind demnach mit ihrer strukturellen und funktionalen Macht Bewusstseinsbilder und -veränderer.
12. Aspekte medialer Verantwortung Medienmacht gestaltet also die Wahrnehmung gesellschaftlicher Wirklichkeit. In dem Maße, in welchem Presse und Rundfunk, respektive die Journalisten in diesen Medien, Macht ausüben, sind sie jedoch auch für ihr Tun und Lassen und für die Folgen daraus verantwortlich. Beide Medien verantworten die funktionale Umsetzung ihrer gesellschaftlichen Dienstleistungsaufgabe. Sie sind Handlungs- und Verantwortungsträger für die professionelle Auswahl ihrer Themen und für die Gestaltungskriterien ihrer öffentlichen Berichterstattung. Eine Maxime für die Erfüllung der von ihnen geforderten zentralen Informationsleistung ist die qualitative Inhaltsgestaltung und -vermittlung nach den Kriterien Vollständigkeit, Objektivität und Verständlichkeit (vgl. Wildemann/Kaltefleiter 1965). Unter Vollständigkeit ist die Pflicht zur umfassenden Berichterstattung über gesellschaftlich-relevante Themen, mit Wiedergabe der in der Gesellschaft vorkommenden Meinungen (Meinungsvielfalt) zu verstehen. Objektivität meint das Verbot der Einseitigkeit und die Verpflichtung zur Überparteilichkeit, Unabhängigkeit, objektiven Berichterstattung und Sachlichkeit. Verständlichkeit schließlich bedeutet, die Informationsinhalte allgemein verständlich darzustellen und deren Bedeutung im gesellschaftlichen Kontext erkennbar zu machen. Neben diesen qualitativen Anforderungen dienen auch professionsspezifische medienethische Werte und Handlungskriterien als Steuerungsinstrument für eine verantwortungsbewusste mediale Berichterstattung. Dazu zählen etwa die Wahrheitspflicht, die Pflicht, Zweifel an der Richtigkeit von Nachrichten für den Rezipienten erkennbar zu machen, sorgfältig zu recherchieren und nach Möglichkeit nur solche Materialquellen zu verwenden, die in Beurteilung und Wiedergabe einen objektiven Standpunkt erkennen lassen. Und schließlich ist noch als dritter wesentlicher Aspekt das eigene Funktions- und Rollenverständnis der Medien Presse und Rundfunk und ihrer Medienschaffenden als Leitidee publizistischen Handelns anzusprechen, wenn von Macht und Verantwortung die Rede ist. Presse und Rundfunk üben ihre öffentliche Aufgabe gemeinwohlorientiert und in diesem Sinne „treuhänderisch“ für die Gesellschaft aus. Die Schlüsselfunktion, die sie dadurch im demokratischen Kommunikationssystem einnehmen, die damit verbundene Macht ihrer gesellschaftlichen Position resultieren aus der funktionsbedingten Wahrnehmung ihres Verfassungsauftrags. update 16 | ss 2013 | unternehmenspraxis
Einzig und allein dafür genießen Presse und Rundfunk im Rahmen ihrer publizistischen Tätigkeit Privilegien und können sich auf den spezifischen Grundrechtsschutz nach Art. 5 Abs. 1 GG berufen. Eine Orientierung der publizistischen Tätigkeit von Presse und Rundfunk auf die Gesellschaft, wie sie die öffentliche Aufgabe fordert, setzt im Bezug zur Gesellschaft verantwortungsbewusstes mediales Handeln voraus. Als Leitidee meint Verantwortung hier eine Verantwortungshaltung gegenüber der Gesellschaft, d.h. eine moralische innere Verfassung und Verpflichtung, verantwortlich handeln zu sollen, immer und ausschließlich bezogen auf den gesellschaftlichen „Auftraggebers“. Dies bedeutet die Bereitschaft der Medienorganisationen im Presse- und Rundfunkbereich sowie ihrer Medienschaffenden, neben medienethischen Grundsätzen, auch durch Selbstregulierung oder mittels anderer Formen einer „Verantwortungskultur“ die ihnen übertragene öffentliche Aufgabe verantwortungsvoll und -bewusst wahrzunehmen, wenn sie die gesellschaftsdienlichen Ziele öffentlicher Kommunikation erreichen wollen (sollen). Denn – nicht zu Unrecht sagt Antoine de Saint-Exupery: „Bedenke, dass Dein Wort eine Tat ist“!
Literatur Fechner, F. (2012): Medienrecht, 13. Aufl., Tübingen. Herrmann, G., Lausen, M. (2004): Rundfunkrecht, 2. Aufl., München. Löffler, M., Ricker, R. (2005): Handbuch des Presserechts, 5. Aufl., München. Luhmann, N. (1996): Die Realität der Massenmedien, Opladen. Meyer, T., Kampmann, M. (1998): Politik als Theater. Die neue Macht der Darstellungskunst, Berlin. Meyer, T., Outrup, R., Schicha, C. (2000): Die Inszenierung des Politischen. Zur Theatralität medialer Diskurse, Wiesbaden. Noelle-Neumann, E., Schulz, W., Wilke, J. (Hrsg.) (2009): Fischer Lexikon Publizistik, Massenkommunikation, Frankfurt am Main. Schulz, W. (1976): Die Konstruktion von Realität in den Nachrichtenmedien. Analyse der aktuellen Berichterstattung, Freiburg/München. Wildemann, R., Kaltefleiter, W. (1965): Funktionen der Massenmedien, Frankfurt am Main/Bonn. 85
Traineeprogramme als Personalentwicklungsinstrument für Nachwuchskräfte ein Überblick über ausgewählte Ansätze in Theorie und Praxis Tobias Koeder, Achim Saulheimer
Diplom-Betriebswirt (FH) Tobias Koeder HA Personal Teilbereich Personalmarketing und Personalentwicklung ZDF, Mainz E-Mail: hapersonal-Personalentwicklung@zdf.de
Achim Saulheimer ist Mitarbeiter im Drittmittelforschungsprojekt „Personalwirtschaftliche Instrumente in mittelständischen Unternehmen“ von Herrn Prof. Dr. Kurt W. Koeder. E-Mail: achim.saulheimer@wiwi.fh-mainz.de
1. Einführung in die Thematik Traineeships, Traineeprogramme bzw. Traineeausbildungen – so gängige Begriffsfassungen –gelten als strukturierte und systematisch geplante und gestaltete Einstiegsoptionen für Hochschulabsolventen in eine Führungs- oder Fachkarrierelaufbahn in Unternehmen (vgl. Kolberg 2012a, S. 20). Sie stellen eine Möglichkeit dar, Unternehmen den passenden und qualifizierten Nachwuchs bereitzustellen und deren „Talent Pipeline“ zu füllen (vgl. Nesemann 2012, S. 2). Die unternehmensseitige Notwendigkeit hierfür wird vor dem Hintergrund des vielzitierten „War for Talents“, dem von McKinsey bereits Ende der 1990er Jahre geprägten Terminus des Wettbewerbs um die besten Köpfe und Potenzialträger, umso offenkundiger, je mehr sich Unternehmen vor dem Hintergrund der negativen demografischen Entwicklung mit ihrer eigenen künftigen Personalausstattung auseinandersetzen müssen. Tatsächlich wird in Deutschland die Zahl der Erwerbstätigen bis zum Jahr 2030 auf 37,5 Millionen und bis zum Jahr 2050 auf dann nur noch 24 Millionen sinken, gegenüber 41 Millionen im Jahr 2002 (vgl. Bröckermann 2012, S. 13). Ausbildungs- und Studienplätze werden unbesetzt bleiben, der Mangel an Fachkräften wird gegenseitiges Abwerben zwischen Unternehmen verstärken und Fluktuationen steigern (vgl. Bröckermann 2012, S. 13). Der demografische Wandel wird demnach den Wettbewerb auf den Beschaffungsmärkten für Talente erheblich verschärfen (vgl. Jäger 2012, S. 30) und die Rekrutie86
rung ist bereits heute „einer der erfolgskritischsten Prozesse im gesamten Talentmanagement und sogar Personalmanagement“ (Jäger 2012, S. 31), denn Talente zu finden wird weiterhin eine der vorrangigsten HR-Aufgaben sein. Traineeships sind in diesem Zusammenhang zu einem probaten Rekrutierungs- und Personalentwicklungsinstrument avanciert, mit dem sich die Unternehmen auch in ihrer externen Wahrnehmung, d.h. im Rahmen ihres externen Personalmarketings, als „Employer of Choice“ zu profilieren versuchen. So verweist die Wirtschaftswoche in ihrer Ausgabe vom 24. Januar 2011 auf eine von der Haniel-Gruppe gemeinsam mit der Managementberatung Kienbaum durchgeführte empirische Untersuchung, wonach die Mehrheit der befragten Firmen als wichtigstes Ziel ihrer Traineeprogramme die Gewinnung talentierter Potenzialträger und künftiger Führungskräfte angeben (vgl. Rettig 2011, S. 76). Darüber hinaus streben die Unternehmen damit eine Steigerung ihrer Arbeitgeberattraktivität (Employer Branding) sowie eine strukturierte Einbindung von Nachwuchstalenten in ihre Organisation an (vgl. auch www.haniel.de). Auch Hochschulabsolventen selbst erachten Traineeprogramme als eine Art Karrieresprungbrett: Die Zahl derer, die sich einen Berufsstart als Trainee vorstellen können, liegt laut der Haniel/Kienbaum-Studie bei derzeit 94 %, gegenüber bereits hohen 84 % im Jahr 2011 (vgl. o.V. 2012, S. 55). Der vorliegende Beitrag möchte darstellen, wie Traineeprogramme im Rahmen der Personalentwicklung zu verorten sind und unternehmenspraxis | update 16 | ss 2013
greift daher zunächst Begriff, Inhalte und Ziele der Personalentwicklung auf, denn „alle Anstrengungen der Unternehmen und der Menschen, ihre Position am Markt zu stärken, gehen durch das Nadelöhr der Personalentwicklung.“ (Becker 2005, S. 4). Auch Traineeships tragen daher im Sinne systematischer, an den Unternehmens- und Mitarbeiterbedürfnissen/-potenzialen orientierter Nachwuchsförderung zu dieser Positionsstärkung am Markt bei. Dazu wird das Traineeship als ein mögliches und effektives PE-Instrument vorgestellt, indem zunächst Charakteristika, Rahmenbedingungen, personalwirtschaftliche Zielsetzungen in strategischer und operativer Hinsicht, Inhalte und Ablauf (Phasenmodell) erläutert werden. Einige Beispiele namhafter (Groß)-Unternehmen beleuchten kurz deren praktische Herangehensweise und Umsetzung von Traineeprogrammen, um anschließend allgemein Vor- und Nachteile zu rekurrieren. Der Bezug auf aktuelle Studien liefert weitere Aspekte zu Zielen und Strukturen, Rekrutierungsstrategien, Planungsfragen, PostLaufbahnprogrammen, Nachhaltigkeitsaspekten und zu Auswirkungen und Konsequenzen der Bologna-Reform auf Traineeships. Schließlich sollen Gütekriterien diskutiert und Defizite in der praktischen Umsetzung aufgezeigt werden. Leider führt nämlich eine Popularisierung dieses PE-Instrumentes zu teils unerfreulichen Entwicklungen, indem Unternehmen das positive Image der Traineeprogramme konterkarieren, wenn sie unter diesem Label lediglich bessere Praktika anbieten (vgl. Kolberg 2012a, S. 21). Abschließend soll überlegt werden, wie auch kleine und mittlere Unternehmen das PE-Instrument im Rahmen ihrer Personalstrategie sinnvoll einsetzen und für sich nutzbar machen können. Ein Praxisbeispiel aus diesem Bereich soll die Zweckmäßigkeit dieses Ansatzes auch für kleine und mittlere Unternehmen (KMU) darstellen. Schließlich würdigt ein abschließendes Fazit das Traineeship und gibt neben Handlungsempfehlungen auch eine Prognose zur weiteren Positionierung und Entwicklung dieses PE-Instrumentes ab.
2. Personalentwicklung Personalentwicklung ist ein sehr wichtiger Aufgabenbereich moderner Personalarbeit in Unternehmen und gehört dort zum gängigen Instrumentarium. Personalentwicklung als Begriff wurde erstmals in den 1960er Jahren in den USA und in den 1970er Jahren in Deutschland in der Literatur erwähnt. In den folgenden Jahrzehnten etablierte sich der Begriff durch den vermehrten Aufbau von Personalentwicklungsabteilungen in Unternehmen sowohl theoretisch, als auch in der Praxis (vgl. Mudra 2004, S. 5 ff.). Personalentwicklung wurde und wird interdisziplinär von verschiedenen Forschungsgebieten betrachtet, der Betriebswirtschaftslehre, der Psychologie und der Pädagogik. Durch die unterschiedlichen Betrachtungsweisen ist eine einheitliche Definition des Begriffs Personalentwicklung bisher nicht gelungen (vgl. Mudra 2004, S. 137 ff.), dennoch sollen einige Definitionsansätze im Folgenden kurz skizziert werden. update 16 | ss 2013 | unternehmenspraxis
Abb. 1: Bevölkerungsentwicklung Deutschland: 2010 bis 2075 Quelle: Demographie, Wirtschaft und Soziales: eine Tour d’ Horizon von Prof. Dr. Bernd Raffelhüschen anlässlich des 4. HR Forums an der FH Mainz. Die Bevölkerungspyramide wandelt sich zu einer Pilzstruktur: Immer weniger Erwerbstätige versorgen immer mehr Rentner.
Für Wunderer und Dick ist Personalentwicklung ein Inbegriff aller Maßnahmen zur Entwicklung der Mitarbeiter, mit dem Ziel der Erhaltung, Entfaltung, Anpassung und Verbesserung des Arbeitsvermögens (vgl. Wunderer/Dick 2007, S. 135). Personalentwicklung beinhaltet nach Becker sämtliche Maßnahmen der Bildung, Förderung und Organisationsentwicklung, die zielorientiert systematisch sowie methodisch geplant, umgesetzt und kontrolliert werden (vgl. Becker 2002, S. 4). Olfert bezeichnet sämtliche Maßnahmen zur Erhaltung und Verbesserung der Mitarbeiterqualifikation als Personalentwicklung (vgl. Olfert/Steinbuch 2006, S. 375), wobei die berufliche Bildung (Ausbildung, Fortbildung, Weiterbildung, Umschulung), Personalförderung, im weitesten Sinne auch die Organisationsentwicklung Bestandteile sind. Grundsätzlich ist Personalentwicklung aus Unternehmenssicht dann erforderlich, wenn es Abweichungen zwischen den Arbeitsanforderungen gegenwärtiger und zukünftiger Arbeitsplätze (Anforderungsprofil des Unternehmens) und den Qualifikationen der Mitarbeiter (Eignungsprofilen) gibt (vgl. Breisig 2005, S. 246 ff.). Insgesamt lässt sich schlussfolgern, dass die Hauptaufgabe der Personalentwicklung darin besteht, die Qualifikationen und Interessen der Mitarbeiter zu erkennen (Potenzialerkennung) und zu fördern und diese mit den Anforderungen ihres Tätigkeitsbereiches in Einklang zu bringen. Hinsichtlich der Potenziale kommt es insbesondere darauf an, bereits vorhandene Stärken zu nutzen und die beruflichen Aufgaben für den Mitarbeiter so zu gestalten, dass eine bestmögliche Deckung zwischen dem, was der Mitarbeiter kann und dem, was der Mitarbeiter zu tun hat, gefunden wird (vgl. Malik 2006, S. 122). Um diese Aufgabe 87
sinnvoll und effizient zu erfüllen, bedient sich die Personalentwicklung einer Vielzahl von Instrumenten. Aus der Bandbreite möglicher Personalentwicklungsinstrumente von Anforderungsprofilen, Leistungs- und Potenzialbeurteilungen über z.B. Traineeprogramme, Mitarbeitergespräche, Fördergespräche, Coaching und Mentoring und Nachfolge-/Laufbahnplänen bis hin zu Bildungs- und Weiterbildungsmaßnahmen müssen für ein Personalentwicklungskonzept diejenigen ausgesucht werden, die auf die unternehmerischen Anforderungsbelange und die Eignung der Mitarbeiter abgestimmt sind (vgl. Becker 2002, S. 89 ff. und Olfert 2006, S. 410 ff.).
3. Traineeship 3.1 Ursprung Der britisch-niederländische Konsumgüterkonzern Unilever zählte international vor bereits etwa sechzig Jahren zu den Pionieren von Traineeship-Anbietern, während in den 1970ern deutsche Dax-Unternehmen wie VW, Daimler, Deutsche Bank folgten und gegenwärtig auch Behörden, staatliche Konzerne, sogar Parteien mit diesem PE-Instrument arbeiten (vgl. o.V. 2011a, S. 1248). Bemerkenswert ist, dass mittlerweile auch einige kleine und mittlere Unternehmen (KMU) das Traineeship als interessante Einstiegsvariante für Hochschulabsolventen, gegenüber den beiden Alternativen Direkteinstieg bzw. Assistentenprogramm, erkannt haben, um Nachwuchskräfte über einen definierten Zeitraum genauer beobachten und gemäß individueller Stärken und Schwächen anleiten, fordern und fördern zu können (vgl. o.V. 2011a, S. 1248). Dies scheint vor allem für Bachelorabsolventen wichtig zu sein, da die Altersstruktur für Studienabsolventen erheblich gesunken ist.
3.2 Begriffsbestimmung Traineeprogrammen werden bei vielen Unternehmen besondere Bedeutung beigemessen, und sie werden als ein modernes und effektives Instrument der Personalentwicklung erachtet, da sich aus den Trainees künftige Führungskräfte rekrutieren lassen (vgl. Bröckermann 2009, S. 337 und o.V. 2011a, S. 1248). Ferner bieten Traineeprogramme Studienabsolventen die Möglichkeit der systematischen und geplanten Einarbeitung sowie Integration in das neue Unternehmen (vgl. Becker 2005, S. 334). Als formelle Gütekriterien für ein Traineeship nennt Thom eine Maßnahmendauer von mindestens sechs Monaten bei kleineren Unternehmen, außerdem eine Mindestanzahl von wenigstens drei Teilnehmern und eine programmatische Strukturierung mit Vorgaben zu einzelnen Stationen, Ausbildungszielen und festen Weiterbildungsangeboten (vgl. Kolberg 2012b, S. 24). Verschiedene Bereiche werden demnach von den neuen Mitarbeitern durchlaufen, die sowohl der fachlichen Vertiefung (d.h. spezifisches Wissen über wesentliche Tätigkeiten und Aufgaben eines bestimmten Funktionsbereichs) als auch der fachlichen Verbreiterung (ressort- und unternehmensübergreifendes Wissen) sowie der Vermittlung allgemeiner Unternehmensinformationen und Rahmenbedingungen dienen (vgl. Nesemann 2012, S. 45 f.). Im Rahmen von Traineeprogrammen werden Studienabsolventen also vertiefte Einblicke in Arbeitstechniken der betrieblichen Praxis und in funktionsbezogene Zusammenhänge sowie in Organisationsstrukturen gegeben. Dieses Ziel soll mit Hilfe von „On the Job“Maßnahmen, „Job Rotation“, Mitarbeit des Trainees sowie durch weiterführende Ausbildung in „Off the Job“-Maßnahmen oder „Near the Job“-Maßnahmen erreicht werden. Ferner ist Mentoring eine Maßnahme, um diese Ziele zu erreichen. Im Rahmen des Employee Life Cycle kann das Traineeship in Anlehnung an Scholz wie in Abbildung 2 dargestellt verortet werden.
Along the Job Laufbahnentwicklung, fachliche Entwicklung, Führungsentwicklung Out of the Job
Into the Job Berufsausbildung, Einführungstage, Einarbeitung Trainee-Programme
On the Job Training, Projektarbeit, Mentorenprogramme (Patensystem) (Trainee-Programme)
Near the Job (Trainee-Programme) Lernwerkstatt, Qualitätszirkel, Erfahrungszirkel
RuhestandsVorbereitung, Altersteilzeitprogramme
Off the Job (Trainee-Programme) Externe Trainings, Vorträge, Firmenbesuche
Abb. 2: Einordnung des Trainee-Programms in den Employee Life Cycle, Quelle: in Anlehnung an Scholz 2000, S. 511
88
unternehmenspraxis | update 16 | ss 2013
In Abbildung 3 sollen Trainee-Programme, wie sie die Literatur expliziert, in einem Überblick definiert werden. Nesemann charakterisiert Traineeprogramme zusammenfassend als berufsvorbereitende Ausbildung für Hochschulabsolventen in Unternehmen, in deren Rahmen fachliche, methodische und soziale Kompetenzen vermittelt und wesentliche Einblicke in Unternehmensstrategie, -struktur, -prozesse und -kultur gewährt werden (vgl. Nesemann 2012, S. 38). Gezielt werden auch Kenntnisse für eine mögliche spätere Übernahme einer Führungsposition erlangt, ohne dass Traineeprogramme allerdings zwangsläufig auf eine Führungsposition hinauslaufen, sondern in Abhängigkeit der jeweiligen Performance, lediglich die Möglichkeit hierfür bieten (vgl. Nesemann 2012, S. 37). Immerhin arbeiten etwa 80 % der Trainees im Anschluss an das Traineeprogramm bereits in einer Führungsposition (vgl. o.V. 2011a, S. 1250).
3.3 Einbettung in das Instrumentarium der Personalentwicklung Die nachfolgende Abbildung 4 soll die Einordnung eines Traineeships in die schematische Darstellung eines Personalentwicklungskonzepts verdeutlichen. Abb. 3: Traineeprogramme – Definitionen Quelle: in Anlehnung an Nesemann 2012, S. 36)
Klassischerweise kann ein Traineeship auch als Maßnahme „Into the Job“ betrachtet werden, indem Hochschulabsolventen Berufsfähigkeit im Rahmen einer systematischen Einarbeitung vermittelt wird. On-, Off- und Near the Job-Angebote komplettieren das Bildungsportfolio. Die Trainees werden durch die Unternehmen sorgfältig ausgewählt, da das Auswahlverfahren und die Einführung mit hohen Kosten verbunden sind. Die Programme sind organisiert, systematisch und geplant. Der Terminus „Traineeprogramm“ impliziert demnach die Notwendigkeit eines sinnvoll geplanten Ablaufs mit einer strukturierten Ordnung und Didaktik, die Thom (vgl. Thom 1987, S. 219) anhand folgender Merkmale charakterisiert: §§ p räzise definierte Lernziele, die sich aus den Personalzielen des Unternehmens und den angestrebten Zielpositionen für die Teilnehmer ergeben, §§ L erninhalte, -orte, -mittel sowie -methoden, die auf diese Lernziele Bezug nehmen und §§ e ine Steuerung und Kontrolle (Evaluation) des Programms immer unter Zielbezug. Die Trainees erhalten auch ergänzende Fortbildungsmaßnahmen in Bereichen wie Interviewtechniken, Mitarbeiterführung, Konfliktmanagement, Kommunikationsseminare oder Präsentationstechniken, Teamentwicklung, übernehmen Projektaufgaben etc. update 16 | ss 2013 | unternehmenspraxis
Abb. 4: Einordnung eines Traineeships in die schematische Darstellung eines Personalentwicklungskonzepts, Quelle: in Anlehnung an Mentzel 2005, S. 356
89
3.4 Zielsetzungen und Merkmale Der Ablauf des Traineeprogramms wird auf die Trainees abgestimmt, so finden sich auch die aus persönlichen Neigungen gesetzten Studienschwerpunkte in den Programmen wieder (vgl. Bröckermann 2009, S. 338). Die Unternehmen verfolgen mit den Traineeprogrammen personalwirtschaftliche Ziele, wie Nachwuchsgewinnung und -förderung, Sicherung von HighPotentials, Transfersicherung und die Stärkung des Ansehens als attraktiver Arbeitgeber nach Innen und Außen (vgl. Becker 2005, S. 334 und Jung 2008, S. 289). Als essentielle Merkmale eines Traineeprogramms lassen sich festhalten: Dauer:
sechs bis 24 Monate
Programm: systematisch geplant, organisiert, didaktisch strukturiert
Abb. 5: Aufgaben und Ziele von Traineeprogrammen Quelle: vgl. Jung 2008, S. 289 und Olfert 2010, S. 400
Teilnehmer: in der Regel Studienabsolventen Inhalt: systematischer Arbeitsplatzwechsel in einem oder mehreren Funktionsbereichen Bildungsmaßnahmen: on, near, off the job Die Ziele und Dauer eines Traineeprogramms sind von Unternehmen zu Unternehmen unterschiedlich. Ebenso variieren die Einsatzzeit und der Inhalt der Aufgaben in dem eingesetzten Bereich. In einem Traineeprogramm unterscheiden sich die Ziele einerseits durch die Zielsetzung des Unternehmens und andererseits durch die Zielsetzung des Trainees (siehe hierzu auch Abbildung 5).
3.5 Gestaltungsvarianten und Programmablauf (Phasenmodell) Trainees benötigen eine gewisse Eingewöhnung. Nach dieser Zeit ist der Trainee im Unternehmen fest verankert. Wie entwickelt sich der Trainee? Dieser Frage ist auch das Staufenbiel Institut nachgegangen und spricht von einem „Fünf-Phasen-Modell“. Diese Phasen gliedern sich wie in der Tabelle dargestellt.
Traineeprogramme können unterschiedlich verlaufen. Olfert zeigt drei Arten von Traineeprogrammen auf (siehe Abbildung 6). Eine Darstellung in der Fachzeitschrift „Personalwirtschaft“ gibt Auskunft über die prozentuale Verteilung verschiedener Traineeprogrammtypen, in ähnlicher Differenzierung wie bei Olfert (siehe Abbildung 7). Einige Unternehmen wenden das von Olfert gezeigte „Begrenzte Traineeprogramm mit Vertiefung“ an. Im Folgenden werden beispielhaft einige auf das Personalressort begrenzte Programme namhafter Unternehmen mit Vertiefungsphase kurz dargestellt. Karstadt Die Personal-Trainees lernen die Arbeitszeitsysteme kennen, planen den Personalbedarf und -einsatz und machen sich mit Personalcontrollinginstrumenten vertraut. Nach dem erfolgreichen Abschluss des Traineeprogramms in der Personalabteilung steht eine Position als Personalreferent in Aussicht und die Möglichkeit nach einiger Zeit zum Personalleiter auf-
1. Eingewöhnung
2. Integration
3. Verantwortung
4. Erfolge
5. Zukunft
Wer sind meine Kollegen?
Welche Aufgaben kann ich unterstützen?
Welche Teilprojekte könnte ich übernehmen?
Werden die Aufgaben zur Routine?
Welcher Aufgabenbereich sagt mir am meisten zu?
Werde ich gut mit meinen Kollegen auskommen?
Sind Aufgabenpakete für Trainees vorgesehen?
Können sich meine Kollegen auf mich verlassen?
Erkenne ich wiederkehrende Workflows?
Haben Unternehmen und Abteilung Interesse an mir? (Habe ich Signale erhalten?)
Welcher meiner neuen Kollegen ist für welche Aufgabe zuständig?
Wer ist für mich und meine Aufgaben zuständig?
Sind meine Ergebnisse korrekt?
Arbeite ich selbstständig?
Habe ich mir mein Netzwerk aufgebaut und gepflegt, um mögliche Angebote zu erhalten?
Tab.: Fünf-Phasen-Modell (vgl. http://www.staufenbiel.ch/publikationen/forum-magazin/trainee-einstieg)
90
unternehmenspraxis | update 16 | ss 2013
Abb. 6: Arten von Traineeprogrammen, Quelle: vgl. Olfert 2010, S. 400
zusteigen. Personalreferenten sind häufig Ansprechpartner der Trainees. Diese sind je nach Unternehmen für einen bestimmten Mitarbeiterkreis zuständig, beraten Führungskräfte in allen Fragen rund um das Thema Personal und sind an der Mitarbeiterauswahl beteiligt (vgl. http://www.karstadt.de/redmedia/unternehmen/de/jobs/527.htm). Deutsche Bahn Die Aufgaben eines Personaltrainee werden wie folgt definiert: Die Trainees im Human Resource unterstützen bei der Personalstrategie, der Personalplanung sowie dem Personalcontrolling, dem operativen Personalmanagement, bei der Führungskräfte- und Personalentwicklung, dem Bereich Arbeits- und Tarifrecht und lernen die Schnittstellen zu anderen Geschäftsfeldern des DB-Konzerns kennen (vgl. http://www. metro24.de/pages/DE/Jobs_Karriere/Studierende/Trainee METRO durchbricht zu Beginn des Traineeprogramms die Ressortbegrenzung, indem sie, ähnlich wie beim ressortübergreifenden Traineeship, zunächst einen Einblick in die anderen zentralen Funktionsbereiche des Unternehmens gewährt, um dem Trainee so eine Gesamtorientierung zu ermöglichen. METRO Cash & Carry Der Trainee startet mit einem Durchlauf durch sämtliche Abteilungen eines Metro-Marktes. Der Personaltrainee lernt also vor den eigentlichen HR-Inhalten das ganze Spektrum der Abläufe, Kommunikationswege und Verknüpfungen innerhalb eines Marktes kennen. Erst danach wird der Trainee in die Zentrale und hier in einen bestimmten Bereich der Personalabteilung, wie z.B. der Personalentwicklung, eingesetzt. Dort wird der Trainee, teilweise projektgebunden, an allen Abläufen von der Bewerberauswahl über die Einstellung bis hin zu Schulungen eingebunden (vgl. http://www.metro24.de/pages/ update 16 | ss 2013 | unternehmenspraxis
Abb. 7: Verteilung der Arten von Traineeprogrammen Quelle: Kolberg 2012, S. 22
DE/WhoWeAre/JobsKarriere/Absolventen/Traineeprogramme/Traineeprogramm_Personal). Exemplarisch wurde hier der Personalbereich herausgegriffen. Laut einer Studie der Haniel-Gruppe in Zusammenarbeit mit Kienbaum Management Consultants setzt die Hälfte der über 400 befragten Unternehmen Trainees tatsächlich in den Funktionsbereichen Finance und Controlling ein, während 37 % im Marketing und fast genauso viele im Bereich Personal zum Einsatz kommen (vgl. o.V. 2012, S. 55). Laut WISU entwickelt sich der Trend zum Fach-Traineeship, d.h. der Trainee durchläuft die relevanten Abteilungen seines Fachressorts, während er in angrenzende Bereiche lediglich „hineinschnuppert“ (vgl. o.V. 2011a, S. 1250). 91
4. Studien und Trends – eine Auswahl 4.1 Staufenbiel Die Staufenbiel Studie „JobTrends Deutschland“ untersucht in jedem Jahr die Anforderungen und Angebote von Unternehmen, die Studienabsolventen rekrutieren. Die Studie ist nach Branchen und Absolventengruppen gegliedert und liefert detaillierte Informationen über Qualifikationen, die für den Arbeitgeber von Interesse sind. Im Zeitraum von Oktober und November 2011 haben sich 255 Unternehmen (mit rund 4,7 Millionen Mitarbeitern weltweit, davon ca. 1,2 Millionen in der Bundesrepublik und fast 121.000 Bewerbern im Jahr) an der Befragung beteiligt. Aus der Studie geht hervor, dass die durchschnittliche Dauer von Traineeprogrammen bei 16 Monaten liegt. Ebenso durchlaufen die Trainees im Schnitt fünf Abteilungen mit evtl. Auslandsaufenthalt. Im Schnitt befinden sich die Trainees zwölf Wochen in einer Abteilung. 38 % der befragten Unternehmen gaben an, dass ihre Führungspositionen mit ehemaligen Trainees besetzt sind (vgl. Staufenbiel 2012). Interessanterweise sehen der Studie zufolge viele Unternehmen in Traineeprogrammen eine adäquate Antwort auf die oft beklagte mangelnde Employability von Bachelorabsolventen, um auf diesem Wege ihrer geringeren Praxisreife durch inhaltliche und methodisch angelegte Programmanpassungen zu begegnen und so Berufsfertigkeit anzutrainieren. So haben vier von zehn Unternehmen entsprechende programmatische Veränderungen infolge der Bologna-Reform vorgenommen, was bedeutet, dass mit dem Traineeship ein wesentlicher Ausbildungsteil der Hochschulabsolventen in die Unternehmen hineinverlagert worden ist (vgl. Zimmermann 2012, S. 27 f. und Rettig 2011, S. 77).
4.2 Kienbaum 2003 führte Kienbaum ebenfalls eine große Umfrage zum Thema „Trainee“ durch. An der Befragung nahmen 102 Unternehmen aus allen Branchen (von Banken und IT bis hin zur Nahrungsmittelindustrie) teil. Als wichtigstes Kriterium bei der Auswahl von Trainees gaben die befragten Unternehmen die soziale Kompetenz an, gefolgt von einem Studienabschluss (Universität bzw. Fachhochschule). Weniger wichtig sind BA/VWA Abschluss und eine Promotion. Auch der Unterschied zwischen FH- und Universitätsabschluss ist geringfügig; beides wird als gleich wichtig eingeschätzt. Etwa ein Drittel der befragten Unternehmen gestalten die Trainee-Programme flexibel nach den individuellen Fähigkeiten und Interessen der Absolventen. Das Spannungsfeld zwischen individueller Gestaltung und Standardisierung des Traineeships konstatiert auch Thom und hält als wichtiges Programmziel für die Teilnehmer das Erlernen von Flexibilität als Kernkompetenz fest, indem Trainees bedarfsorientiert am ehesten dort arbeiten sollten, wo betriebliche 92
Problemlösungen vorrangig erforderlich sind (vgl. Kolberg 2012b, S. 25 f.). Kienbaum greift hier auf die drei Arten der Traineeprogramme von Olfert (vgl. Abbildung 6) zurück. Als vierte Variante eines Traineeprogramms zeigt die Kienbaum Studie das individuelle auf den Absolventen zueschnittene Traineeprogramm. Rund 60 % der Unternehmen geben an, dass die zu durchlaufenden Stationen/Abteilungen bei vier bis sechs liegen, und bei knapp über 50 % liegt die Dauer des Traineeprogramms bei 15 bis 19 Monaten. Dies stützt auch die Staufenbiel Studie. Das jährliche Durchschnittsgehalt liegt während der Traineezeit bei ca. 38.000 Euro und nach der Traineezeit bei 42.000 Euro. Dies kann sich aber innerhalb von drei Jahren auf 50.000 Euro steigern. Nach dem Traineeprogramm besetzen ungefähr ein Drittel der Trainees nach zwei bis drei Jahren eine Führungsposition (vgl. Kienbaum Trainee Studie, 2003).
4.3 Haniel/Kienbaum In einer weiteren Studie der Haniel-Gruppe in Zusammenarbeit mit Kienbaum aus 2011/2012 wurden deutschlandweit 406 Unternehmen und 355 Absolventen befragt. Als die drei wichtigsten Gütekriterien für ein Traineeprogramm nennen dieser Untersuchung zufolge 45 % der befragten Trainees eine persönliche Betreuung, 40 % gezielte Personalentwicklungsmaßnahmen und 39 %inhaltliche Programmvielfalt, während die Unternehmen an erster Stelle mit 40 % der Nennungen auf Personalentwicklungs- und Weiterbildungsmaßnahmen Wert legen, gefolgt von inhaltlicher Vielfalt mit 38 % und an dritter Stelle Gestaltungsspielraum für den Trainee mit immerhin 31 % der Nennungen. Die Studie stellt einen Trend zu mehr Flexibilität der Unternehmen zugunsten der Programmteilnehmer fest, die verstärkt eigene Wünsche und Interessen einbringen können. So konnten 2011 über die Hälfte der Trainees bei der Programmplanung des Unternehmens mitwirken und hatten ein Mitspracherecht, was für eine Tendenz zur Programmindividualisierung spricht. Ob sich dieser Trend fortsetzt bleibt abzuwarten, da eine Standardisierung generell weniger kostenintensiv sein und auch eher dem betrieblichen Flexibilisierungsanspruch gerecht werden dürfte. Ferner stellt diese Untersuchung, im Gegensatz zur Staufenbiel Studie (siehe oben) deutliche Zutrittsbarrieren für Bachelorabsolventen fest, wobei 18 % der befragten Unternehmen hierin sogar ein Ausschlusskriterium sehen und 41 % generell einen universitären Abschluss als strikte Bedingung für die Aufnahme in ein Traineeprogramm festlegen. Gefordert wird neben Eigeninitiative von 40 % der befragten Unternehmen insbesondere Praxiserfahrung der Traineeanwärter, die damit eine weitere Zutrittsbarriere darstellt. Praxiserfahrung wird von diesen Unternehmen bereits vorausgesetzt und berufsbefähigende Kompetenzen in gewissem Umfang offenkundig schon erwartet. unternehmenspraxis | update 16 | ss 2013
Es wird angesichts dieser beispielhaft herangezogenen Untersuchungen interessant bleiben, abzusehen, wie sich der Stellenwert von Traineeprogrammen insbesondere in der Beurteilung der Unternehmen hinsichtlich der Eingangsvoraussetzungen der Teilnehmer und der darauf abgestellten Programminhalte und -methoden entwickeln wird.
5. Kriterien für ein „seriöses“ Traineeprogramm Welche Schlüsse lassen sich für ein seriöses Traineeprogramm ableiten? Von einem seriösen und erfolgreichen Traineeprogramm spricht die Wirtschaftswoche, sofern folgende fünf Punkte Berücksichtigung finden: §§ Positives Image des Programmanbieters §§ Klare Programmstruktur §§ F aires Gehalt (in der Regel nicht weniger als 70 Prozent eines Direkteinsteigergehalts) §§ Optimale Länge §§ S ichere Zukunft (Einstiegsmöglichkeiten nach Ende der Traineezeit) (vgl. Rettig 2011, S. 79)
6. Erfolgsdeterminanten eines Traineeprogramms Wesentlicher Erfolgsfaktor für ein gelungenes Trainee-Programm ist eine zentrale Programmkoordination durch einen Verantwortlichen, der sowohl gegenüber den Betreuern in der Linie als auch gegenüber der Unternehmensleitung entsprechendes Gewicht hat (vgl. Kolberg 2012b, S. 24). Nicht nur extern kann ein Traineeprogramm die Arbeitgebermarke (Employer Brand) positiv beeinflussen, auch muss das interne Image derart positiv besetzt sein, dass das Programm eine entsprechend breite Akzeptanz erfährt (vgl. Nesemann 2012, S. 53). Gerade die jeweiligen Fachvorgesetzten tragen als Gestalter und Träger der Unternehmenskultur sowie maßgebliche Personalentwickler (vgl. Nesemann 2012, S. 186) Verantwortung für den sachgerechten Ablauf des Traineeships. Zudem übernehmen sie Vorbildfunktion, denn in der Interaktion mit den Trainees lernen diese in einer Art „Lernen am Modell“ (Nesemann 2012, S. 70) Herangehensweisen, Werthaltungen und Einstellungen ihres Vorbildes kennen und können dies verinnerlichen (vgl. Nesemann 2012, S. 70). Außerdem können Vorgesetzte Leistung und Potenzial nur dann aussagekräftig beurteilen, wenn sie genügend Zeit für die Interaktion mit dem Trainee investieren (vgl. Nesemann 2012, S. 77). Thom bemängelt sehr deutlich, dass sich die Vorgesetzten als Verantwortliche seit jeher nicht ausreichend für ihre Betreuupdate 16 | ss 2013 | unternehmenspraxis
ungs- und Führungsaufgaben gegenüber den Trainees engagieren und diesen zu wenig Priorität einräumen, zugunsten einer Favorisierung des Tagesgeschäftes (vgl. Kolberg 2012b, S. 25). Diese Tendenz kristallisiert sich erfahrungsgemäß generell oftmals im Zuge von Führungsaufgaben im Rahmen der Personalentwicklung heraus. Im Sinne einer strategisch angelegten Programmaufwertung des Traineeships gilt es, den Fachvorgesetzten zu entlasten, indem als Betreuer für den Trainee ersatzweise eine andere routinierte und ebenso kompetente Fachkraft ausgewählt wird (vgl. Nesemann 2012, S. 187). Andererseits kann durch Einbindung von TraineeProgrammen in ein Zielvereinbarungssystem die erfolgreiche Trainee-Betreuung des Vorgesetzten mit der Kopplung an Boni und Beförderungen begünstigt und damit dessen Ausbildungsbereitschaft gefördert werden. Zielvereinbarungen könnten Aussagen darüber enthalten, welche Trainees bis zu welchem Zeitpunkt mit welchen Kompetenzen auszustatten sind (vgl. Nesemann 2012, S. 189 und Kolberg 2012b, S. 25). Ohnehin ist das Commitment der Unternehmensleitung für den Erfolg von Traineeprogrammen entscheidend. Nesemann konnte einen positiven Einfluss der Leitung des Unternehmens auf das interne Image von Traineeships auch empirisch bestätigen (vgl. Nesemann 2012, S. 189). Es ist Aufgabe der Geschäftsleitung, die notwendigen Rahmenbedingungen für eine effiziente Nachwuchsförderung zu gewährleisten. So kann die Unternehmensleitung Anreizmaßnahmen für die involvierten Fachvorgesetzten setzen, indem sie diese in die Konzeption des Programms einbindet, ihnen Mitwirkungsmöglichkeiten bei der Traineeauswahl einräumt, die Betroffenen zu mitgestaltenden Beteiligten macht und beispielsweise deren Engagement durch Erwähnung etwa in der Mitarbeiterzeitschrift honoriert (vgl. Thom/Giesen 1998, S. 20 und Nesemann 2012, S. 191). Schließlich kann die Unternehmensleitung für eine Kultur Sorge tragen, die auch den Mentoren hohen Stellenwert beimisst (vgl. Thom/Giesen 1998, S. 20 und Nesemann 2012, S. 191). Durch ihre Vorbildfunktion unterstützen die Mentoren ihre Trainees („Lernen am Modell“), begünstigen den Wissenstransfer und das Kennenlernen informeller Beziehungsstrukturen im Unternehmen, die Verinnerlichung vorherrschender Unternehmenswerte und -normen, den Zugang zu Netzwerken und den Aufbau eigener Netzwerke durch den Trainee (vgl. Nesemann 2012, S. 85). Wunderer und Dick sehen im Mentoring eine ideale Möglichkeit zur Förderung von Sozialkompetenz: Stärken und Schwächen des Trainees können im konkreten Arbeitsfeld veranschaulicht, Entwicklungsziele wie z.B. zur Verbesserung der Selbständigkeit vereinbart, Weiterbildungsmaßnahmen beschlossen sowie Fortschritte und Rückschläge analysiert werden (vgl. Wunderer/ Dick 2002, S. 379 f. und Nesemann 2012, S. 89). Kritisch wird die Frage diskutiert, ob sich Mitglieder der Unternehmensleitung selbst als Mentoren zur Verfügung stellen sollten, was einerseits hohe symbolische Bedeutung 93
signalisierte und den Trainees herausragenden Input ermöglichte. Andererseits könnte dies bei den betreuenden Kollegen gewisse Ressentiments hervorrufen, wenn sie davon ausgehen, dass die Trainees zum Sprachrohr der Geschäftsleitung werden und Informationen ungefiltert nach oben tragen (vgl. Nesemann 2012, S. 192). Schließlich signalisiert ein Mentoring-Konzept die Bereitschaft des Unternehmens, sich seinen Trainees und ihrer Entwicklung verpflichtet zu fühlen, was wiederum zu einer entsprechenden Außenwirkung beiträgt (vgl. Nesemann 2012, S. 90). Nesemann hat hier festgestellt, dass Mentoring überraschenderweise nur das externe Image des Traineeships verbessert. Sie empfiehlt ein besseres Matching zwischen Mentor und Protegé, Training der Mentoren und deren Bereitschaft ihre Zeitfenster zugunsten der Trainees zu intensivieren, was sicherlich angesichts einer Fülle operativer Aufgaben im Tagesgeschäft nicht immer einfach zu bewerkstelligen sein wird. Zum Kennenlernen der Beziehungs- und Machtstrukturen im Unternehmen bietet sich Projektarbeit an, da hier meist umfangreiche Kontakte zu routinierten Kollegen aufgebaut werden können, was der Sozialisation der Trainees förderlich ist. Zusammenfassend lassen sich im Überblick folgende Erfolgsdeterminanten für ein erfolgreiches Traineeship bestimmen: §§ I ntensive Einbindung des direkten Fachvorgesetzten, unter Einräumung entsprechender Zeitfenster für die Traineebetreuung §§ I dentifikation und Commitment der Unternehmensleitung gegenüber dem Traineeprogramm als fester Größe im Rahmen eines strategischen PE-Konzeptes, z.B. durch Funktionalisierung eines Projektkoordinators Traineeship, der direkt an die Geschäftsleitung berichtet, und durch maßgebliche Unterstützung der untergeordneten operativen Ebenen §§ I mplementierung von Mentoring-Programmen mit optimierten Mentor-Mentee-Beziehungen §§ I ntegration von Projektarbeit mit gemischten Projektgruppen aus Berufserfahrenen und Trainees (Wissenstransfer) §§ G egebenenfalls Einbezug von Auslandsaufenthalten, bei international agierenden Unternehmungen §§ I nstallation eines regelmäßigen Arbeitskreises mit Statusmeetings aus Projektkoordinator, Fachvorgesetzten, Trainees, um den Entwicklungsstand zu reflektieren, Arbeitsergebnisse zu evaluieren, weitere Maßnahmen und Aktionsschritte zu erörtern, unter zeitweisem Einbezug von Mitgliedern der Unternehmensleitung zur Aufwertung der PE-Maßnahme (internes Image des Traineeprogramms) (in Anlehnung an Nesemann 2012) 94
7. Verzahnung des Traineeships mit dem betrieblichen Personalentwicklungsprogramm Wichtig ist die konsequente Weiterförderung der Trainees im Anschluss an das Trainee-Programm, insbesondere um den Verbleib von Potenzialträgern im Unternehmen zu begünstigen, deren weitere Entwicklung genauso systematisch zu steuern wie zuvor und die dem Unternehmen entstandenen Ausbildungskosten mittel- und langfristig zu amortisieren. Mit dem finalen Meilenstein „erfolgreiche Beendigung des Traineeships“ entsteht damit sogleich eine kritische Schnittstelle (siehe Abbildung 8) zum Übergang in das reguläre Personalentwicklungssystem des Unternehmens (vgl. Nesemann 2012, S. 102). „Trainee-Programme sind nur der erste Baustein einer weiterführenden Personalentwicklung“, wie Thom feststellt (vgl. Kolberg 2012b, S. 25). Im Sinne eines Bildungszyklus gilt es, die Ist-Leistung des Trainees am Ende des Traineeprogramms in eine Zielleistung im Rahmen einer Anschlussförderung zu überführen, die der gleichen Systematik von Bildungsmaßnahmen, Erfolgskontrollen und Transfersicherung unterliegt wie während des eigentlichen Traineeprogramms (vgl. Kolberg 2012b, S. 25). ls Gestaltungselemente für die Bewerkstelligung der SchnittA stellenproblematik empfehlen sich §§ d as Aufzeigen von Laufbahn- und Entwicklungsmöglichkeiten im Rahmen weiterer Personalentwicklungsmaßnahmen §§ A ngebote weiterer Weiterbildungsmöglichkeiten über das Ende des Traineeprogramms hinaus §§ F ortführung der erprobten Mentoring-Beziehung auf fortgeschrittener Ebene §§ B eurteilungssystematik für die ehemaligen Trainees mit Anbindung an die Systematik der Führungskräfteentwicklung §§ W eitere Teamintegration der Trainees mit kontinuierlichem Netzwerkausbau (vgl. Kolberg 2012a, S. 23 und Nesemann 2012, S. 104)
8. Ein Praxisbeispiel: Coppenrath & Wiese Ein anschauliches Praxisbeispiel liefert das Unternehmen Coppenrath & Wiese, namhafter Hersteller und Vertreiber von Tiefkühlbackwaren mit Firmensitz in Osnabrück und über 2.000 Beschäftigten (vgl. hierzu Düthmann 2012, S. 51). Für das stark wachsende Unternehmen bestand vor drei Jahren großer Bedarf an qualifizierten Fach- und Führungskräften in wesentlichen Funktionsbereichen (Engineering, Produktentwicklung, Qualitätssicherung), der nur schwer mit überzeugenden Kandidaten des externen Beschaffungsmarktes gedeckt werden konnte, weil der „Fit“ zum Unternehmen offenkundig nie wirklich überzeugte. unternehmenspraxis | update 16 | ss 2013
Die anfängliche Strategie, den Bedarf über Mehrarbeit der Bestandsmitarbeiter abzufangen, führte zu erheblichen persönlichen Mehrbelastungen, und die Akquise über Personalberatungen war offensichtlich auch nicht zielführend. Die Lösung schließlich boten interne Qualifizierungsprogramme und ein Traineeprogramm mit der Absicht, Nachwuchsführungskräfte selbst heranzuziehen, die branchen- und unternehmensbezogene Nischenkenntnisse besitzen, über hohe soziale Kompetenz verfügen und im Unternehmen sozialisiert sind, also über den nötigen „Stallgeruch“ verfügen. So bietet das Unternehmen mittlerweile vier verschiedene Traineeprogramme an, die am langfristigen Bedarf einzelner Ressorts orientiert sind. Vorausschauend werden junge Menschen dann als Trainees gewonnen, wenn das „Matching“ mit dem Unternehmen gegeben ist. Im Sinne einer gezielten, systematischen und langfristigen Nachwuchsförderung zur Vorbereitung auf spezielle Fach- und Führungsaufgaben scheint das Unternehmen bereit zu sein, den Gedanken der ausschließlichen Kosteneffizienz zu relativieren. Zusammenfassend spiegelt das Statement des verantwortlichen Personalgeschäftsführers Andreas Wallmeier dies wider: „ …wir sind auf jeden Fall deutlich besser aufgestellt als zuvor. Als Lebensmittelhersteller zieht man zum Beispiel bei Ingenieuren oft den Kürzeren gegenüber Maschinenbauern oder der Automobilindustrie. Aber sobald sich die Kandidaten mit unserer Branche auseinandersetzen, sehen sie, dass sie hier viel früher in interessante Positionen kommen können. So optimiert eine junge Frau, die wir kürzlich als Trainee eingestellt haben, momentan unseren kompletten Planungsprozess – von Absatzplanung bis Beschaffung. ...“ „ … Die Trainees der ersten Stunde sind inzwischen fertig, und wir sind sehr zufrieden mit ihnen. … Aber wir mussten uns dafür auch wirklich anstrengen.“ (Düthmann, C. (2012): ausgewählte Interviewauszüge mit Andreas Wallmeier, Geschäftsführer Produktion, Technik, Qualitätswesen, Personal, Einkauf und IT bei Coppenrath & Wiese in: Lebensmittelzeitung 08 vom 24.02.2012, Seite 51)
9. Traineeprogramme – Quo Vadis? Aktuell beschäftigen sich Wissenschaftler wieder verstärkt mit Forschungsfragen zu Traineeprogrammen, nachdem insbesondere das Institut für Organisation und Personal (IOP) der Universität Bern damit bereits seit Jahrzehnten befasst ist. Vor dem Hintergrund der aktuellen demografischen Entwicklungen insbesondere in Deutschland ist dieser Trend nicht verwunderlich. Im Gegenteil spricht er für die Notwendigkeit, gezielte und systematische Nachwuchsförderung in den Unternehmen zu betreiben. Weit über 500 Firmen bieten zwischenzeitlich Traineeplätze im deutschsprachigen Raum an, mit vielen Angeboten nicht nur für Wirtschaftswissenschaftler wie noch zu Beginn der Entwicklung, insbesondere damals im General Manageupdate 16 | ss 2013 | unternehmenspraxis
Abb. 8: Schnittstellenproblematik zwischen Ende des Trainee-Programms und Anschlussförderung im Rahmen eines ganzheitlichen strategischen Personalentwicklungskonzepts, Quelle: Gulden 1996, S. 169
ment, sondern mittlerweile zugeschnitten auf Fachressorts wie Logistik, Vertrieb, Controlling (begrenztes Traineeprogramm mit Vertiefung, siehe Differenzierung gemäß Olfert). Darüber hinaus etablieren sich Traineeprogramme als Bildungsmaßnahmen „Into the Job“ auch in Fächern wie Ingenieurswesen (siehe Beispiel Coppenrath & Wiese) oder Informatik (vgl. Kolberg 2012b, S. 24). Die Breite der Angebote hängt mit der großen Tradierung der Berufsausbildung in den deutschsprachigen Ländern vor allem gegenüber dem angelsächsischen Raum zusammen und mit der vielfach zu findenden Überzeugung, dass ein Studium, gerade im Zuge der Bologna-Reform, zwar Berufsfähigkeiten, aber noch keine finalen Berufsfertigkeiten bereitstellt (vgl. Kolberg 2012b, S. 24). Wie können sich nun auch kleine und mittlere Unternehmen hinsichtlich der Traineeprogrammatik aufstellen? Am Fachbereich Wirtschaft der Fachhochschule Mainz wurden bereits im Rahmen von Drittmittelprojekten Traineeprogramme gemeinsam mit mittelständischen Unternehmen konzipiert und durchgeführt. Hochschulabsolventen, denen Mentoren der Hochschule und Fachvorgesetzte des Unternehmens zur Seite stehen, haben im Zuge ihres Traineeprogramms betriebliche, ressortbezogene Aufgabenstellungen bearbeitet, die bei regelmäßigen Statusmeetings unter Beteiligung der Fachverantwortlichen, der betreuenden Hochschullehrer und in regelmäßigen Abständen immer auch unter Einbezug von Mitgliedern der Geschäftslei95
tung reflektiert, ergänzt und angepasst wurden. Für die Trainees bedeutet dies einen enormen Zugewinn an fachlicher Erfahrung, methodischen Kompetenzen und Netzwerkfähigkeiten. Dem Unternehmen stehen gleichsam oftmals sehr engagierte und lernbereite junge Menschen zur Verfügung, die im Laufe des Traineeships in die Organisation hineinwachsen und dabei schon anspruchsvolle Aufgaben unter professioneller Begleitung sowohl seitens der Hochschule als auch des Unternehmens selbst erledigen können. KMUs kann generell angeraten werden, sich näher mit der Thematik von Traineeprogrammen auseinanderzusetzen und unternehmensspezifische Angebote zum Beispiel auch gemeinsam mit Hochschulen zu entwickeln, was im Übrigen allen Beteiligten, nicht nur den Trainees selbst, einen wechselseitigen Wissenstransfer ermöglicht.
10. Vor- und Nachteile
Literatur Becker, M. (2007): Lexikon der Personalentwicklung, Stuttgart. Becker, M. (2005): Systematische Personalentwicklung. Planung, Steuerung und Kontrolle im Funktionszyklus, Stuttgart. Becker, M. (2002): Personalentwicklung: Bildung, Förderung und Organisationsentwicklung in Theorie und Praxis, Stuttgart. Berthel, J., Becker, F. G. (2007): Personal-Management, Grundzüge für Konzeptionen betrieblicher Personalarbeit, 8. Aufl., Stuttgart. Breisig, T. (2005): Personal, Herne.
Als Fazit lässt sich festhalten, dass Traineeprogramme Vor- und Nachteile mit sich bringen. Als Vorteile zur Einsetzung dieser Programme treten auf, dass Trainees sich in unterschiedlichen Problemstellungen und Bereichen bewähren müssen. Dadurch reifen die unternehmensübergreifenden Kenntnisse und Erfahrungen (vgl. Olfert 2010, S. 400). Ein weiterer Vorteil von Traineeprogrammen ist, dass Einsteiger mehrere Abteilungen des Unternehmens durchlaufen und so einen Gesamtüberblick erhalten. Während dieser Einarbeitung können Trainees ihre Stärken und Interessen herausfinden und ein Netzwerk aufbauen – dies ermöglicht eine solide Grundlage für eine spätere interne Karriere. Gerade die Möglichkeit des Networkings ist für viele Anwärter maßgeblich bei der Entscheidung für ein Traineeprogramm (vgl. Zimmermann 2012, S. 28). Ein weiterer Pluspunkt zeigt sich in der Chance auf berufliche und persönliche Weiterentwicklung. Unternehmen fördern ihre Trainees mit Seminaren, Mentoring-Angeboten und möglichen Auslandseinsätzen. Eine spätere Übernahme ist wahrscheinlich, da Unternehmen aufgrund der hohen Investitionen eine entsprechende Leistung von den Trainees erhoffen und erwarten (vgl. o.V. 2011b). Als Nachteil zeigt sich, dass Studienabsolventen ohne jegliche Berufs- und Führungserfahrung ausgewählt werden. Ein möglicher Konflikt könnte dadurch entstehen, dass die Trainees als Führungskräfte ausgebildet werden und die Mitarbeiter mit Führungspotenzial auch auf die Anzahl der begrenzten und frei werdenden Führungspositionen warten (vgl. Weiand 2011, S. 147). Ferner hat die intensive Betreuung und Förderung ihren Preis, so haben Trainees im Schnitt ein niedrigeres Einkommen als Direkteinsteiger und die Trainees tragen mehr Verantwortung. Eine mögliche weitere Beschäftigung fordert eine hohe Flexibilität, da sich Einsatzort und -bereich erst ergeben. Einige Unternehmen fordern eine neue interne Bewerbung. In der Regel werden den Trainees statt unbefristeten Arbeitsverträgen nur befristete angeboten. (vgl. o.V. 2011b).
96
Bröckermann, R. (2012): Personalwirtschaft, Stuttgart. Bröckermann, R. (2009): Personalwirtschaft, Stuttgart. Düthmann, C. (2012): Interview mit Andreas Wallmeier, Geschäftsführer Produktion, Technik, Qualitätswesen, Personal, Einkauf und IT bei Coppenrath & Wiese in: Lebensmittelzeitung 08 vom 24.02.2012, S. 51. Gulden, H. (1996): Evaluation von Traineeprogrammen als Alternative zur klassischen Form des Berufseinstiegs. Betrachtung aus Firmen- und Studentensicht, Nürnberg. Jäger, W. (2012): Die Königsdisziplin im Umschwung, in: Personalwirtschaft, Heft 03/2012, S. 30–31. Jung, H. (2006): Personalwirtschaft, 7. Aufl., München/ Wien. Kienbaum (Hrsg.) (2003): Trainee Studie. Kolberg, A. (2012a): Gut verzahnt ist halb gewonnen, in: Personalwirtschaft, Heft 07/2012, S. 20–23. Kolberg, A. (2012b): Die Vorgesetzten kümmern sich zu wenig, Interview mit Professor em. Dr. Norbert Thom, Institut für Organisation und Personal (IOP) der Universität Bern, in: Personalwirtschaft 07/2012, S. 24–26. Konegen-Grenier, C. (1994): Traineeprogramme. Berufsstart für Hochschulabsolventen, Köln. Malik, F. (2006): Führen, Leisten, Leben, Frankfurt am Main. Mentzel, W. (2004): Unternehmenssicherung durch Personalentwicklung, Freiburg.
unternehmenspraxis | update 16 | ss 2013
Mudra, P. (2004): Personalentwicklung Integrative Gestaltung betrieblicher Lern- und Veränderungsprozesse, München. Nesemann, K. (2012): Talentmanagement durch TraineeProgramme, Wiesbaden. Olfert, K. (2010): Personalwirtschaft, Herne. Olfert, K., Steinbuch, P. (2006): Personalwirtschaft, Ludwigshafen. O.V. (2012): Traineeprogramme immer beliebter, in: Lebensmittelzeitung 05 vom 03.02.2012, S. 55. O.V. (2011a): Sprungbrett für High Potentials, in: WISUKarriere, Heft 10/2011, S. 1248–1250. O.V. (2011b): Entscheidung zwischen schnellem Geld und Karriere, in: Die Welt vom 08.09.2011, http://www.welt.de/ wirtschaft/karriere/junge-profis/article13585420/Entscheidung-zwischen-schnellem-Geld-und-Karriere.html, Abruf 09.10.2012.
www.haniel.de/irj/go/km/docs/haniel_documents/hcw/ public/haniel/press/Pressemitteilungen/Haniel/2012/01_ Traineestudie/Traineestudie%202011%202012_final.pdf, Abruf 16.10.2012. www.karstadt.de/redmedia/unternehmen/de/jobs/527. htm, Abruf 08.10.2012. www.metro24.de/pages/DE/Jobs_Karriere/Studierende/ Trainee, Abruf 09.10.2012. www.staufenbiel.ch/publikationen/forum-magazin/ trainee-einstieg, Abruf 10.10.2012. www.tfh-wildau. de/.../090615_DB_Trainee_Personalwesen_2009.pdf, Abruf 09.10.2012. www.wilhelmadt.wordpress.com/2012/01/27/studiezu-traineeprogrammen-in-deutschland-immer-mehrabsolventen-wollen-als-trainee-starten/, Abruf 18.10.2012. Zimmermann, S. (2012): Praxisreife mit Programm, in: Personalwirtschaft, Heft 07/2012, S. 27–29.
Rettig, D. (2011): Einstieg mit Aussicht, in: Wirtschafts woche vom 24.01.2011, S. 76–80. Scholz, C. (2000): Personalmanagement. Informations orientierte und verhaltenstheoretische Grundlagen, 5. Aufl., München. Staufenbiel (Hrsg.) (2012): JobTrends Deutschland 2012 – Studie zu Entwicklungen am Arbeitsmarkt für Absolventen, Köln. Thom, N. (1987): Personalentwicklung als Instrument der Unternehmungsführung. Konzeptionelle Grundlagen und empirische Studien, Stuttgart. Thom, N., Giesen, B. (1998): Gestaltungselemente für Trainee-Programme. Erfahrungsgestützte Orientierungshilfen am Beispiel der Trainee-Programme für Absolventen der Wirtschaftswissenschaften, in: Thom N., Giesen, B. (Hrsg.): Entwicklungskonzepte und Personalmarketing für den Fach- und Führungsnachwuchs, 2. Aufl., Köln. Weiand, A. (2011): Personalentwicklung für die Praxis, Stuttgart. Wunderer, R, Dick, P. (2007): Personalmanagement – Quo Vadis?, Köln. Wunderer, R., Dick, P. (2002): Sozialkompetenz – eine mitunternehmerische Schlüsselkompetenz, in: Die Unternehmung, 56. Jg., Nr. 6, S. 361–391.
update 16 | ss 2013 | unternehmenspraxis
97
Fähige Mitarbeiter brauchen fähige Vorgesetzte Dr. Markus Hilleke
Dr. Markus Hilleke Jahrgang 1965, studierte Maschinenbau mit dem Schwerpunkt Fertigungstechnik an der RWTH Aachen. Nach fünf Jahren Tätigkeit als wissenschaftlicher Mitarbeiter am FraunhoferInstitut für Produktionstechnologie wechselte er Anfang 1998 in die Industrie. Seit dieser Zeit hat er Führungsverantwortung in unterschiedlichsten Positionen und Bereichen der Unternehmensorganisation. Unter anderem als Vice President Operations in einem internationalen Technologiekonzern oder als Geschäftsführer eines mittelständischen Unternehmens. E-Mail: markus.hilleke@gmx.de
1. Ausgangssituation Es ist kein Geheimnis und unbestritten, dass langfristig leistungsfähige und engagierte Mitarbeiter zu den wichtigsten Ressourcen eines zukunftsfähigen Unternehmens gehören, egal in welcher Branche. Gerade in einer Zeit des zunehmenden globalen Wettbewerbes, der vermehrten Austauschbarkeit von Produkten, des ansteigenden Fachkräftemangels und nicht zuletzt der beängstigenden demografischen Entwicklung, wird die Auswahl, Gewinnung, Bindung und Entwicklung von Mitarbeitern zu dem alles entscheidenden Wettbewerbsvorteil von Unternehmen.
2. Anspruch und Wirklichkeit Statistisch lässt sich diese Aussage durch viele Studien belegen, wobei die Gallup Studie für den deutschsprachigen Raum mittlerweile die meist zitierte Studie ihrer Art ist (vgl. Gallup 2011). Gemäß dieser Studie gibt es einen unmittelbaren Zusammenhang zwischen der emotionalen Bindung eines Mitarbeiters und den Unternehmenserfolgsparametern Produktivität, Rentabilität und Kundenzufriedenheit. Dabei liegt der Schlüssel zur emotionalen Bindung primär im unmittelbaren Arbeitsumfeld. 98
Nicht Rahmenbedingungen wie beispielsweise ein großzügiges Gehalt, Zusatzleistungen oder die Unternehmensstrategie und -kultur sind die dominanten Faktoren, sondern der Vorgesetzte. Der Unternehmenserfolg steht somit in direkter Korrelation zur Führungsfähigkeit und -qualität der direkten Vorgesetzen. Bestätigt wird dies auch durch die aktuelle Aon Hewitt-Studie „Attraktive Arbeitgeber in Zentral- und Osteuropa“, an der sich 479 Unternehmen beteiligt haben (vgl. Aon Hewitt 2011). Vor allem die Qualität der Führungskräfte unterscheidet ausgezeichnete Unternehmen von der Konkurrenz. Dementsprechend ist es nicht verwunderlich, dass die Führungskräfteentwicklung nach Aussage des HR-Barometers der Capgemini Consulting für das Jahr 2012, wie auch schon für die Jahre 2008 und 2010, das strategisch wichtigste HR-Thema ist (vgl. Capgemini 2011). Weiterhin erstaunt es nicht, dass die Anzahl an Veröffentlichungen, Ratgebern, Trainings und Seminaren zum Thema Führungskräfteentwicklung in den letzten Jahren explodiert ist. Allein in 2010 sind ca. 4.000 Bücher rund um das Thema Führung erschienen. Dabei muss aber konstatiert werden, dass in einer Vielzahl der Fälle keine Unterscheidung zwischen Management und Leadership getroffen wird. Wie wichtig das aber ist, wird im Nachgang noch näher erläutert. So erdrückend die Flut dieser Ratschläge auch ist, ihr Nutzwert scheint eher gering zu sein. So bedeutsam die Führungskräfteentwicklung in den Unternehmen auch gesehen wird, das Ergebnis bzw. der Erfolg scheint eher bescheiden zu sein. Zwischen Anspruch und Wirklichkeit besteht noch eine große Lücke, wie aktuelle Studienergebnisse zeigen. Die aktuelle Studie der Talent-Management-Beratung Development Dimensions International (vgl. DDI 2012), für die weltweit 1.279 Mitarbeiter ohne Führungsverantwortung zu ihren Erfahrungen mit Vorgesetzten befragt wurden, zeigt, dass vielen Vorgesetzten wichtige Führungsqualitäten fehlen und sie ihre Aufgaben nicht effektiv erfüllen. So bezeichneten 34 % der Studienteilnehmer ihre(n) Vorgesetzte(n) als nur manchmal oder niemals effektiv. 37 % sagten, sie seien nur manchmal oder niemals motiviert, ihr Bestes für ihre momentane Führungskraft zu geben. Im Rahmen der Studie gaben die Befragten im Durchschnitt an, lieber einen Strafzettel, eine Erkältung oder einen schmerzhaften Kater hinzunehmen, als ein schwieriges Gespräch mit dem/der Vorgesetzten zu führen. Zwei von drei unternehmenspraxis | update 16 | ss 2013
Mitarbeitern berichteten von Situationen, in denen Vorgesetze ihr Selbstwertgefühl angegriffen hätten. Die Mehrzahl (53 %) würde nach eigenen Angaben unter ihrem jetzigen Vorgesetzten 20 bis 60 % produktiver arbeiten, wäre dieser so gut wie der Beste ihrer Laufbahn. Ein Viertel bezifferte diesen Produktivitätszuwachs sogar auf 41 bis 60 %. Umgerechnet bedeutet das: Wenn nur zwei bis drei Angestellte von besseren Führungskräften geleitet würden, ergäbe sich die zusätzliche Produktivität eines weiteren Mitarbeiters. Von den Befragten, die angaben, momentan für die beste Führungskraft ihrer Karriere zu arbeiten, sind 98 % zu ständigen Bestleistungen bereit. Unter denjenigen, die für den subjektiv schlechtesten Chef ihrer Laufbahn tätig sind, waren es dagegen nur 11 %. 94 % der Mitarbeiter der besten Chefs fühlten sich durch ihre Führungskraft unterstützt, produktiver zu arbeiten, im Gegensatz zu 5 % der Mitarbeiter schlechter Vorgesetzter. Im Detail berichteten Mitarbeiter, dass ihre Vorgesetzten niemals oder selten auf Anliegen eingingen, die den Arbeitsplatz betreffen (35 %). 51 % der Führungskräfte wollen nach Aussage ihrer Angestellten meistens oder immer Probleme lieber selbst lösen, anstatt ihren Mitarbeitern dabei zu helfen, Lösungen eigenständig zu entwickeln. Zudem geben viele Vorgesetze nur selten oder nie ausreichendes Leistungsfeedback (45 %). Etwa 55 % der Befragten haben schon einmal überlegt, aufgrund ihres Chefs den Job zu wechseln. 39 % haben diesen Schritt schon einmal gemacht. Zu ähnlichen Ergebnissen kommt auch die von der Unternehmensberatung Gallup seit einem Jahrzehnt jährlich durchgeführte repräsentative Untersuchung des so genannten Gallup Engagement Index (vgl. Gallup 2011). Fast ein Viertel der deutschen Beschäftigten hat innerlich bereits gekündigt, 63 % machen Dienst nach Vorschrift und nur 14 % verfügen über eine hohe emotionale Bindung an ihren Arbeitgeber. 2010 waren es noch 16 %. Der überwiegende Teil der Belegschaft weist folgende Merkmale auf: Niedrigere Arbeitsmotivation, mehr Fehlzeiten, weniger Verbesserungsvorschläge, höhere Fluktuationsneigung, geringere Weiterempfehlung des eigenen Arbeitgebers, geringere Kundenorientierung, weniger Spaß bei der Arbeit, höheres Stressempfinden. Ein Blick auf die vergangenen Jahre zeigt dabei, dass äußere Faktoren wie eine Verschlechterung oder Verbesserung der Konjunktur zu keiner nennenswerten Trendverschiebung führt.
Weiterhin haben sich in vielen Unternehmen in den letzten Jahren Einzellösungen in den Bereichen Rekrutierung, Entwicklung und Bewertung etabliert, so dass voneinander unabhängige Programme entstanden sind. Was häufig fehlt, ist ein integrierter, ganzheitlicher und durchgängiger Ansatz bezogen auf die vom Unternehmen gewünschten Führungskompetenzen. Andererseits ist nach wie vor zu beobachten, dass häufig nicht die richtigen Mitarbeiter in eine Führungsverantwortung befördert werden. Nach wie vor wird zu häufig der Mitarbeiter mit der besten Fach- und Methodenkompetenz in eine Führungsposition entwickelt, ohne dass er eine echte Vorstellung davon hat, welche Anforderungen und Fähigkeiten diese neue Rolle überhaupt verlangt. Hinzu kommt, dass sich Unternehmen bei der Besetzung von Schlüsselfunktionen in einer Vielzahl der Fälle auch nicht die dafür notwendige Zeit geben. Meist geht es darum, eine Lücke schnell zu schließen Dafür ist man bereit, Kompromisse einzugehen. Zu welchen folgeschweren Ergebnissen das führen kann, zeigen die oben erwähnten Studien.
3. Was ist eigentlich Führung? Wenn Menschen danach befragt werden, was sie unter Führung verstehen, so fallen oftmals die Begriffe Management oder Leadership. Nicht verwunderlich, denn beide Begriffe lassen sich mit „Führung“ übersetzen. Und trotzdem sind sie von ihrer Führungsausrichtung deutlich different und unterscheiden sich wesentlich in der Führungsarbeit, die ein deutlich anderes Handeln und Verhalten sowie Instrumentarium erfordert (Abbildung 1). Aber wo grenzen sich nun Management und Leadership voneinander ab? Management im engeren Sinne deckt die Sachebene ab, ist technisch orientiert und fokussiert sich auf die Unternehmensführung, d.h. auf Prozesse, Systeme und Strukturen. Hierbei geht es primär um Themen wie Planen, Organisieren, Steuern, Kontrollieren und Stabilisieren. Die Managementfä-
Trotz der Tatsache, dass Unternehmen Jahr für Jahr mehrere Milliarden Euro in die Führungskräfteentwicklung investieren, zeigen alle Studien, dass sich die Führungsqualität in den letzten Jahren kaum verändert hat und weiterhin auf niedrigem Niveau ist. Die Gründe können dabei auf unterschiedliche Ursachen zurückgeführt werden. Einerseits scheinen viele Programme, mit denen Unternehmen ihre Führungskräfte finden, bewerten und entwickeln, ins Leere zu laufen, weil sie zum einen auf die falschen Kompetenzen zielen und zum anderen wie ein „Gießkannenprinzip“ angelegt sind, entsprechend dem Motto: Gleiche Inhalte für alle. update 16 | ss 2013 | unternehmenspraxis
Abb. 1: Unterschied zwischen Management und Leadership
99
higkeit steht somit für fachliche und methodische Kompetenz. Managen heißt folglich, fachlich und methodisch fit zu sein. Demgegenüber findet Leadership auf der Beziehungsebene statt, ist auf den Menschen gerichtet und orientiert sich am Mitarbeiter. Leadership muss somit unter dem Blickwinkel der Menschenführung betrachtet werden und ist kein Privileg bzw. Status, sondern eine Dienstleistung am Mitarbeiter. Eine elementare Grundvoraussetzung für erfolgreiches Leadership ist infolgedessen ein positives Menschenbild. Leadership bedeutet, Menschen zum Folgen zu bewegen. Erfolg stellt sich dann ein, wenn die Mitarbeiter im Hinblick auf die vorgegebenen Ziele ihrer Führungskraft nachfolgen. Menschen wollen einem Menschen folgen, der davon überzeugt ist, das Richtige zu tun und dies auch mit der nötigen Energie vertritt. Somit geht es darum, durch Charakter, Persönlichkeit, Auftreten und Ausstrahlung wirksame Führungs-KRAFT zu entwickeln. Wie schwer das ist, zeigen die in diesem Beitrag zitierten Studien. Denn es sind nicht die fehlenden Managementfähigkeiten der Vorgesetzten, die zu der geringen emotionalen Bindung der Mitarbeiter führen und dadurch die wirtschaftlichen Ziele der Unternehmen beeinträchtigen, sondern die zum Teil unzureichende Qualität der Menschenführung.
aus. In diesem Zusammenhang kann auch die Aussage von Frau Strathmann, Personalvorstand des Autozulieferers und Reifenherstellers Continental, gesehen werden: „Wer keine guten Mitarbeiter hervorbringt, macht bei uns keine Karriere. Führungskräfte müssen nicht nur Zahlen liefern, sondern Talente.“ (VDI 2012, S. 21). Die spannende Frage lautet nun, wie kann eine Führungskraft sowohl ein guter Manager als auch zugleich ein guter Leader sein? Ist das überhaupt möglich? Denn einerseits braucht eine Organisation beide, den Manager für die Dinge, den Leader für die Menschen. Andererseits hat jeder Mensch in der Regel eindeutige Präferenzen im Denken und Handeln, weshalb eine Führungskraft, die gut managen, häufig nicht ebenso gut Menschen inspirieren kann – und umgekehrt. Fakt ist, dass es das Idealbild der Führungskraft nicht gibt. Unter dem Titel „Erfolgreiche Führung gegen alle Regeln“ beschreibt die Gallup-Studie, dass erfolgreiche Führungskräfte auf den ersten Blick kaum etwas gemeinsam haben (vgl. Gallup 2012). Es sind völlig unterschiedliche Persönlichkeiten, die ihre Ziele auf unterschiedliche Weise verfolgen. Sie haben einen eigenen Stil, den sie flexibel den Gegebenheiten, der Organisation und den Menschen anpassen können.
Immer wieder tritt die Frage auf, welche Eigenschaften bzw. Fähigkeiten eine erfolgreiche Menschenführung kennzeichnen. Leider gibt es hier keine Musterantwort bzw. kein Patenrezept. Die Erfahrungen zeigen aber, dass die nachstehenden Faktoren essentiell für ein erfolgreiches Leadership sind. Faktoren, die auf der Persönlichkeitsebene ein breites Spektrum derjenigen Eigenschaften aufzeigen, die von einer Führungskraft in der Praxis täglich gefordert werden, um Mitarbeiter emotional zu binden und zum Folgen zu bewegen.
Fakt ist aber auch, dass die für eine erfolgreiche Führungskraft erforderlichen Kompetenzen, Fertigkeiten und Eigenschaften aufgebaut, entwickelt und ausgebaut werden können. Denn wie sagte schon Warren Bennis: „Führungskräfte werden gemacht, nicht geboren.“ (Quelle: http://de.wikipedia.org/wiki/Warren_Bennis).
§§ §§ §§ §§ §§ §§
Ein wichtiger Erfolgsfaktor für die Schaffung und Gewährleistung einer nachhaltigen Führungsqualität ist die aktive Gestaltung einer Führungskultur im Unternehmen. Dazu braucht es ein ganzheitliches unternehmensweites Selbstverständnis von Führung. Dieses unternehmensspezifische Selbstverständnis dient erfahrenen wie angehenden Führungskräften als Bezugsrahmen für ihr Handeln. Es ist die Basis und der Maßstab an dem sich die Auswahl, Entwicklung und Beurteilung von Führungskräften orientiert und schafft somit das Fundament für ein unternehmensweit gewolltes Führungsverhalten.
§§ §§ §§ §§ §§
Vorbild sein durch Authentizität Energie ausstrahlen durch Selbstvertrauen Beziehung aufbauen durch Werte leben Motivation erzeugen durch sinnstiftende Ziele Orientierung geben durch Transparenz und Einbindung Vertrauen schaffen durch Freiraum gewähren und Fehler zulassen Berechenbarkeit zeigen durch konsequentes Handeln Offenheit zeigen durch Zuhören Wertschätzung vermitteln durch Anerkennung Entwicklung ermöglichen durch Verantwortungsübergabe und Feedback Individuelle Talente fördern durch Stärken stärken
Sehr gute Führungskräfte zeichnen sich entsprechend durch die Fähigkeit aus, sowohl Manager als auch Leader gleichermaßen zu sein und die für die Erfüllung der jeweiligen Rolle notwendigen Fähigkeiten situativ anwenden zu können. Oder anders formuliert, die gesamtheitliche Wahrnehmung der beiden Rollen macht eine „vollkommene“ Führungskraft im Unternehmen 100
4. Vom Führungsleitbild zum Führungskräfteentwicklungsprogramm
Der Stellenwert von Führung im Unternehmen kann dadurch manifestiert werden, dass dieses Selbstverständnis parallel zum Unternehmensleitbild in Form eines Führungsleitbildes hinterlegt und entsprechend kommuniziert, gelebt bzw. praktiziert wird. Ein Führungsleitbild §§ r eflektiert die gemeinsame Führungsphilosophie im Unternehmen, §§ formuliert die grundlegenden Überzeugungen und Ziele, die für das Führungshandeln gültig sein sollen, unternehmenspraxis | update 16 | ss 2013
Abb. 2: Vom Führungsleitbild zum Kompetenzmodell Quelle: Profil M Beratung für Human Resources
§§ d efiniert die Verantwortung gegenüber den verschiedenen Adressaten der Führungskraft, §§ vermittelt Orientierung, Motivation und dient der Sinn gebung. Demzufolge stellt das Führungsleitbild das „Grundgesetz“ des Führungshandelns dar. Um zu einem Führungsleitbild zu gelangen, das maßgeschneidert die Führungsherausforderungen des Unternehmens widerspiegelt, ist ein zweigleisiges Vorgehen sinnvoll. Zum einen sollte über eine Top-Down-orientierte Vorgehensweise sichergestellt werden, dass sich die Unternehmensstrategie im Führungsleitbild ebenso wiederfindet, wie die wesentlichen Erfolgsfaktoren der Führung. Gleichzeitig sollte durch eine Bottom-Up-orientierte Vorgehensweise gewährleistet werden, dass die Erwartungen der Mitarbeiter an Führung im Führungsleitbild angemessen abgebildet sind. Eine Übersetzung des Leitbildes in die gewünschten Führungskompetenzen erfolgt durch die Entwicklung eines Kompetenzmodells (Abbildung 2). In einem solchen Kompetenzmodell werden die konkreten Anforderungen an Führungskräfte genauer spezifiziert. Einzelne Kompetenzen enthalten dann einzelne Anforderungsbereiche, die für die Einschätzung, Auswahl und Weiterentwicklung von Führungskräften im Unternehmen relevant sein sollten. Beispiele für mögliche Kompetenzfelder
sind: „Mitarbeiter fördern und entwickeln“, „Beziehung gestalten“ oder auch „Wirksam kommunizieren“. Inhaltlich werden die einzelnen Kompetenzen dann durch so genannte „Verhaltensanker“ spezifiziert. Unter diesen Verhaltensankern werden Beschreibungen beobachtbaren Verhaltens verstanden. Diese stellen die unterste Ebene des Kompetenzmodells dar und dienen im nachfolgenden Prozess zur eigentlichen Einschätzung von Führungsverhalten. Führungskräfteentwicklungsprogramme sollten immer auf der Basis eines für das Unternehmen spezifischen Kompetenzmodells entwickelt werden. Erfahrungen zeigen, dass es darüber hinaus hilfreich wenn nicht sogar notwendig ist, Entwicklungsprogramme möglichst individuell auf die jeweiligen Führungskräfte zuzuschneiden. Allen Personalentwicklungsmaßnahmen sollte daher eine Evaluierung des individuellen Führungsverhaltens und -handelns vorausgehen, indem die persönlichen Stärken und Entwicklungsfelder anhand der Kriterien des Kompetenzmodells ermittelt werden. Hier bieten sich so genannte Führungs-Checks an, wobei es bei der Ausgestaltung keine festen Richtlinien bzw. Muster gibt. In der Praxis hat sich folgende Vorgehensweise – gemäß dem Prinzip: andere fragen, erzählen lassen, zeigen lassen (Abbildung 3) – als strategisch und operativ sinnvoll erwiesen.
Abb. 3: Führungs-Checks unter Nutzung der drei Perspektiven – Stärken und Entwicklungsfelder sicher erkennen Quelle: Profil M Beratung für Human Resources
update 16 | ss 2013 | unternehmenspraxis
101
Um diese Einschätzungen aus den Führungs-Checks mit den Eindrücken aus dem direkten Arbeitsumfeld abzurunden, bietet sich zusätzlich ein 180°-Feedback in Bezug auf die Kernbereiche des neu erstellten Anforderungsprofils an. Hierbei werden eine Selbsteinschätzung der Führungskraft sowie die Einschätzungen des direkten Vorgesetzten und der Mitarbeiter erhoben. Die Ergebnisse des Führungs-Checks als auch der 180°-Befragung bilden dann zusammen eine valide Eingangsgröße für ein individuelles Entwicklungsgespräch. Wichtig ist hierbei immer die Einbindung des direkten Vorgesetzten, der eine entscheidende Rolle in der Begleitung und im Coaching der zu entwickelnden Führungskraft innehat. In diesem Gespräch werden dann die konkreten Entwicklungsschritte für die Führungskraft diskutiert und beschlossen. Dabei werden Wege definiert, wie die Stärken noch weiter eingebracht und die Entwicklungsfelder gezielt bearbeitet werden können.
Literatur Aon Hewitt (2011): Pressemeldung; Qualität der Führungskräfte ist entscheidender Wettbewerbsvorteil; München 13. Juli 2011, http://www.aon.com/germany/ueber-aon/ presse/best_employers_qualitaet-der-fuehrungskraefte-istentscheidender-wettbewerbsvorteil.jsp, Abruf: 25.10.2012. Capgemini (2011): HR-Barometer 2011; Bedeutung, Strategien, Trends in der Personalarbeit, Schwerpunkt: Organisationsdesign und -entwicklung. DDI (2012): Pressemeldung; Studie: Führungskräfte versagen im zwischenmenschlichen Umgang, 10. Februar 2012; http://www.ddiworld.de/ddi-weltweit/europe/germany/ germany-press-room/studie--fuhrungskrafte-versagen-imzwischenmenschl Gallup (2011): Engagement Index Deutschland 2011, http://eu.gallup.com/Berlin/153299/Praesentation-GallupEngagement-Index-2011.aspx, Abruf 25.10.2012. Gallup (2012): Erfolgreiche Führung gegen alle Regeln – Wie Sie wertvolle Mitarbeiter gewinnen, halten und fördern, 4. Aufl., Frankfurt am Main. VDI (2012): VDI-Nachrichten, 14. September 2012, Nr. 37, S. 21.
102
Entwicklung sollte dabei aber vor allen Dingen als Entwicklung während der Arbeit verstanden werden. Darüber hinaus können natürlich auch unterstützende Maßnahmen, wie Coachings, Trainings oder Ähnliches geplant werden. Diese sollten allerdings nur eine flankierende Maßnahme der Führungskräfteentwicklung bilden, wohingegen die Definition geeigneter Herausforderungen im Rahmen des Führungsalltags im Zentrum stehen sollte. All die Maßnahmen greifen nicht und führen in eine Einbahnstraße, wenn die Aktivität als einmalige Aktion und nicht als permanenter Prozess verstanden wird. Demnach ist es von grundlegender Bedeutung, dass sowohl durch die Führungskraft selbst, aber auch durch den Vorgesetzten und das Unternehmen, eine regelmäßige Überprüfung des Entwicklungsfortschrittes sowie eine bei Bedarf notwendige Anpassung der Entwicklungsmaßnahmen erfolgt. Vor diesem Hintergrund der Professionalisierung von Führung sollte in einem festgelegten Turnus eine Evaluation vorgenommen werden. Insbesondere die turnusmäßige Durchführung der 180°-Befragung hat sich in diesem Zusammenhang als sehr hilfreich erwiesen.
5. Ausblick Eine sehr gute Führungskraft unterscheidet sich von einer guten dadurch, dass sie gleichermaßen Management- als auch Leadershipkompetenzen besitzt und diese je nach Anforderung situativ gewinnbringend einsetzen kann. Dementsprechend muss es das Bestreben der Unternehmen sein, im Rahmen der Führungskräfteentwicklung beide „Pole“ zu adressieren. Es stellt sich die Frage, ob es nicht sinnvoll wäre, schon im Rahmen der Ausbildung und vor dem Eintritt ins Berufsleben mehr Augenmerk auf eine Ausgewogenheit zwischen Management und Leadership zu legen und somit potenzielle Führungskräfte besser auf eine zukünftige Führungsrolle vorzubereiten? Im Rahmen der akademischen Ausbildung an Universitäten und Fachhochschulen kommt der Vermittlung von Managementwissen, d.h. dem reinen Steuern von Unternehmen, Prozessen und Systemen, eine hohe Bedeutung zu. Sei es in der klassischen Betriebswirtschaftslehre, oder auch in spezifischen Fächern wie der Unternehmensführung oder der Managementlehre. Demgegenüber muss aber festgehalten werden, dass selbiges mit Blick auf das Thema Leadership bzw. Menschenführung nicht gilt. Hier würde sich eine große Chance für Universitäten und Fachhochschulen ergeben, durch eine „Führungslehre“ ihr Portfolio gezielt zu erweitern und somit gleichzeitig die Grundlage für sehr gute Führungskräfte zu legen.
unternehmenspraxis | update 16 | ss 2013
Religiöse Einflüsse auf die praktische Marketingarbeit: Fallbeispiel Indien Werner Heesen
Werner Heesen ist ein Touristik- und Luftfahrtexperte mit über 40-jähriger Berufserfahrung. Er war in leitender Position für die Deutsche Lufthansa AG in Deutschland und verschiedenen Auslandsmärkten tätig – davon alleine dreizehn Jahre in Indien.
1. Religion und Marketing in den Schlagzeilen Im Oktober 2012 führte die Schweizer Fluggesellschaft SWISS in ihrem Heimatmarkt eine Werbekampagne durch, bei der auf großflächigen Plakatanzeigen mit dem Slogan „Kreuz ist Trumpf“ auf die 70 Reiseziele der Airline hingewiesen wurde. Deutlich erkennbar war dabei der Logo der Gesellschaft – das Schweizer-Kreuz. Die Swiss wollte mit diesem Wortspiel, das sich auf das in der Schweiz stark verbreitete Kartenspiel Jassen bezog, ihre besondere Angebotsposition – also ihren „Trumpf“ – herausstellen. Diese Kampagne, die nur wenige Wochen nach dem amerikanischen Skandalvideo über den Propheten Mohammed lief, brachte viele der in der Schweiz lebenden Muslime erneut in Aufruhr. Sie warfen der Swiss öffentlich vor, mit dieser zur unpassenden Zeit gestarteten Werbemaßnahme ihre Gefühle verletzt zu haben. In Leserbriefen und sozialen Medien kam es daraufhin zu hitzigen und kontrovers geführten Debatten (o.V. 2012a). Die Swiss ließ schließlich durch eine Sprecherin verlauten, dass das Unternehmen den zeitlichen Ablauf dieser Aktion als unglücklich betrachte und die Inhalte nicht gegen islamische Mitbürger gerichtet gewesen wären. Das Handelsblatt schrieb am 04.06.2009 – also mitten in der Bankenkrise – „Das Geschäft mit islamkonformen Finanzprodukten wächst trotz Krise deutlich. Das Vermögen, das in den nach islamischem Recht konzipierten Fonds angelegt ist, hat sich in den vergangenen zwei Jahren nahezu verdreifacht. Weltweit wächst der Markt um etwa 20 Prozent jährlich.“ Die Deutsche Bank bietet in islamisch dominierten Ländern bereits eine eigene Produktpalette an und gilt unter westlichen Banken als Vorreiter bei diesem Nischenangebot (o.V. 2009). update 16 | ss 2013 | unternehmenspraxis
Er gründete im Jahr 2010 das Beratungsunternehmen Werner Heesen Consulting GmbH, das mittelständische Unternehmen auf einen Markteinstieg in Asien vorbereitet und unterstützt. Schwerpunkte des Dienstleistungsangebots sind die erfolgreiche Übertragung von Produkt- und Kommunikationszielen auf ausgewählte Auslandsmärkte sowie die Schulung und Einweisung von Führungskräften. Seit 2011 ist er außerdem Lehrbeauftragter an der FH Worms für den Bereich Interkulturelles Marketing. Neben seiner Tätigkeit bei Lufthansa war Werner Heesen Mitglied zahlreicher Verbände und Organisationen. Er war Vorstandsmitglied der Deutsch-Indischen Handelskammer und deren Präsident von 2007 bis 2008. Er ist ferner Autor und Herausgeber von Publikationen zum Thema Luftfahrt und Tourismus in Südasien und gilt in Expertenkreisen als ausgewiesener Indien-Spezialist. E-Mail: wh@heesen-consulting.com
Abb. 1: SWISS – Kreuz ist Trumpf, Quelle: O.V. 2012a
103
In den USA verlor der McDonalds-Konzern mehrere Prozesse im Zusammenhang mit einer Sammelklage, die von dem indischstämmigen Anwalt und Hindu-Vegetarier Harsh Bharti erfolgreich geführt wurde. McDonalds gab zu, dass das Unternehmen bis 1999 rindertalghaltiges Fett bei der Herstellung von Pommes Frites verwendet und das Produkt dennoch als vegetarisch bezeichnet hatte. McDonalds zahlte eine Strafe von zehn Millionen US-Dollar. (O.V. 2002) Diese Beispiele sind keine Einzelfälle, sondern stehen stellvertretend für eine Vielzahl von Vorfällen, die sich tagtäglich weltweit in nahezu allen Branchen ereignen. Aus diesem Grund wird die Frage untersucht, welche Einflüsse Religionen auf Bedürfnisse und Verhaltensweisen von Menschen und – eng damit verbunden – auf die Produkt- und Kommunikationspolitik eines Unternehmens haben können. Ich habe Indien aus zwei Gründen zum Schwerpunkt meiner Betrachtungen und Analysen gemacht: Erstens weil Indien neben China das bevölkerungsreichste Land der Erde und eine wichtige Industrienation geworden ist. Obwohl Indien mit seinen 960 Millionen Hindus als Hindustaat angesehen wird, ist es gleichzeitig nach Indonesien und Pakistan mit rund 140 Millionen Menschen auch der drittgrößte Muslimstaat der Welt. (O.V. 2012b). Zweitens habe ich selbst über dreizehn Jahre als Manager eines deutschen Unternehmens in Indien gelebt und gearbeitet. Die meisten Erkenntnisse, die ich beispielhaft beschreibe, habe ich in meiner eigenen Praxis erlebt.
2. Einfluss der Religionen auf das öffentliche und private Leben Obwohl Indien laut Verfassung ein säkularer Staat ist, hat die Religion einen außerordentlich starken Einfluss auf alle wesentlichen Bereiche des öffentlichen und privaten Lebens. Dies erklärt sich aus der Tatsache, dass Religion für die indische Bevölkerung in allen Teilen der Gesellschaft eine herausragende Bedeutung hat, die sich in einer tiefen Gläubigkeit ausdrückt. Diese Einstellung unterscheidet sich ganz wesentlich vom Verhalten westlicher Industriegesellschaften. Atheisten und Agnostiker sind in indischen Bevölkerungsstatistiken faktisch nicht vorhanden (o.V. 2001). Viele politische Entscheidungen und deren Umsetzung werden mit Blick auf religiöse Grundsätze und Gefühle der Menschen getroffen. Ernährungsvorschriften von Hindus und Muslims finden sich in nationalen und regionalen Entscheidungen wieder. So wird zum Beispiel im indischen Parlament mit steter Regelmäßigkeit über ein landesweites Alkoholverbot nachgedacht. Obwohl eine „flächendeckende“ Umsetzung zur Zeit eher unwahrscheinlich ist, hat der Bundesstaat Gujarat eine solche Maßnahme innerhalb seiner Grenzen durchgesetzt („Dry State“) und hält beharrlich daran fest (o.V. 2012c). 104
Das indische Rechtssystem schützt religiöse Einstellungen und die Auslegung religiöser Vorschriften gegen vermeintlichen Missbrauch viel stärker als z.B. in Deutschland. Die Religionen in Indien bestimmen auch die Wertvorstellungen in sehr hohem Masse. Kritik an einer Religion wird ebenso tabuisiert wie der respektlose Umgang mit religiösen Symbolen (vgl. Vermeer/Neumann 2008, S. 71 ff.). Als z.B. vor einigen Jahren einem indischen Sikh-Passagier bei einer Sicherheitskontrolle in München der Turban abgenommen wurde, wäre dies beinahe zu einem politischen Problem zwischen Deutschland und Indien eskaliert, wenn dieser Vorfall nicht kurzfristig einvernehmlich gelöst worden wäre. Deutsche Behörden entschuldigten sich offiziell und bestehende Kontrollverfahren mussten geändert werden. Proteste gegen ein religiöses Oberhaupt – wie anlässlich des Papstbesuchs in Deutschland geschehen – wären in Indien in dieser Form unvorstellbar. Während in westlichen Industriegesellschaften der religiöse Einfluss auf das Sozialverhalten der Menschen (Einstellung zu Homosexualität, Zusammenleben ohne Trauschein, Umgang mit Hierarchien) ständig abnimmt, finden solche Veränderungen in Südasien – einschließlich Indien – nur in einem sehr geringen Masse statt. Ich habe bei vielen indischen Familien aus der urbanen Gesellschaft festgestellt, dass auch längere Auslandsaufenthalte (z.B. Studium in den USA) und ständiger Kontakt mit westlichen Geschäftspartnern diesen sehr starken Bezug zur Religion nicht verändert haben. Obwohl das Kastensystem bereits 1949 durch die Verfassung der indischen Republik offiziell abgeschafft wurde, ist dieses in der Gesellschaft faktisch weiterhin tief verwurzelt. Es beeinflusst in vielfältiger Weise das tägliche Leben. Hinduistische Ideale bestimmen sowohl die Verbindungen und Strukturen innerhalb einer Familie, als auch die besonderen Rollen von Mann und Frau (vgl. Scheuch/Scheuch 1987, S. 95 ff.). Kastendenken hat darüber hinaus Einfluss auf Organisationsformen, Betriebsstrukturen und Führungsverhalten. Religiöse Normen und Rituale finden sich auch im Geschäftsleben wieder. In fast jedem Büro oder Betrieb sind Abbildungen oder Figuren indischer Gottheiten anzutreffen. Eine Büro eröffnung – auch einer westlichen Firma in Indien – würde ohne eine religiöse Einweihungszeremonie (Puja) durch einen Hindu-Priester aus Sicht der indischen Mitarbeiter Unglück bedeuten. Ess- und Trinkgewohnheiten werden ebenfalls durch religiöse Vorschriften bestimmt. Selbst für die Bekleidung von Frauen gelten immer noch Normen, die uns fremd oder allenfalls überholt vorkommen mögen. Dazu gehört z.B. das zu starke Betonen der Weiblichkeit. Das Thema Sexualität wird immer noch weitgehend tabuisiert. Dazu gehört auch der Austausch von Zärtlichkeiten in der Öffentlichkeit.
unternehmenspraxis | update 16 | ss 2013
3. Müssen wir umdenken? Die beschriebenen Fakten gelten nicht nur für die indische Gesellschaft, sie lassen sich auch auf Südost-Asien und große Teile der arabischen Welt übertragen. Welche Schlussfolgerungen können wir nun aus diesen Erkenntnissen ziehen? Welchen Einfluss haben diese besonderen Rahmenbedingungen auf die Planung, die Produktion und Kommunikationsstrategie eines westlichen Unternehmens, das in Indien Waren oder Dienstleistungen produzieren, anbieten und vermarkten möchte? Bei globalen Geschäftstätigkeiten wird im Allgemeinen eine Standardisierung von Produkten und Prozessen zur Verbesserung der Wirtschaftlichkeit angestrebt. Können wir an diesem Grundsatz festhalten oder müssen wir bei den beschriebenen Rahmenbedingungen von diesem Prinzip abweichen? (Vgl. Bijarpurkar 2007)
4. Beispiel verbale Kommunikation Da Sozialverhalten und Moralvorstellungen in Indien sehr eng mit religiösen Normen verbunden sind, müssen diese Rahmenbedingungen zwangsläufig auch in der gesprochenen und geschriebenen Kommunikation berücksichtigt werden (vgl. Meffert/Bolz 1998, S. 189 ff.). Wortspiele und Zweideutigkeiten mit religiösem Bezug sind absolut tabu. Die indische Gesellschaft ist sehr traditionsbewusst und konservativ – auch und gerade in Bezug auf Wertvorstellungen und Ideale. Lockere Formulierungen und Ansätze, die eine solche Haltung provozieren oder in Frage stellen können, sollten unter allen Umständen vermieden werden. Dieser Grundsatz gilt ausnahmslos für alle Texte, die für die Öffentlichkeit bestimmt sind – sei es im Rahmen von Verkaufsbriefen oder als Pressemitteilungen o.ä.
5. Beispiel visuelle Kommunikation Farben können nicht nur eine bestimmte psychologische Wirkung auf den Betrachter erzielen, sondern ein bestimmte Bedeutung haben. Gerade beim letzten Punkt gibt es große kulturelle Unterschiede. In Indien steht die Farbe grün symbolisch für Religion und Einsicht – aber auch für Kälte. In westlichen Kulturkreisen ist die gleiche Farbe mit Glück, Wachstum – aber auch mit Eifersucht verbunden. Weiß ist in Indien die Farbe des Todes und gleichzeitig des Friedens. Im westlichen Kulturkreis bedeutet weiß Himmel, Reinheit oder Leidenschaft. (Vgl. Olson 2007) Unterschiedlich ist auch die Bedeutung von Symbolen. In der Werbung werden häufig Blumen unterschiedlicher Art abgebildet, wobei mit der Darstellung immer eine bestimmte Assoziation einhergeht: So werden beispielsweise im Christentum die rote Rose als Symbol der Liebe und die weiße Lilie als Symbol update 16 | ss 2013 | unternehmenspraxis
Abb. 2: Einflüsse der Religion auf ausgesuchte Bereiche in Indien
der Reinheit gesehen. Beide Pflanzen werden durchaus auch in Indien geschätzt, allerdings nicht mit der gleichen Wertigkeit. Die Symbolblume des Hinduismus ist der Lotus. Er symbolisiert Göttlichkeit, Ewigkeit, Reinheit, Fruchtbarkeit und weibliche Schönheit. Wenn also im Rahmen einer Produktwerbung Blumen als Träger einer symbolträchtigen Nachricht verwendet werden, sind die festgestellten Unterschiede von Bedeutung. Die Abbildung von Menschen in der visuellen Kommunikation ist grundsätzlich ein komplexes und sensibles Thema – in Indien kommt eine weitere Dimension hinzu: Die Abbildung im Kontext religiöser und gesellschaftlicher Normen. Darstellungen von Menschen in bestimmten Posen, bei bestimmten Gesten oder in einer bestimmten Kleidung können die bereits enge „Grenzlinie“ zwischen Toleranz und Tabu leicht überschreiten. Oft sind uns diese Probleme aus westlicher Sicht nicht bewusst – weil unvorstellbar. Beispiel: Eine deutsche Lifestyle-Anzeige zeigt ein jugendliches Paar in einer zärtlichen Umarmung, die von uns als anmutig, emotional aber nicht übertrieben erotisch empfunden wird. In Indien, wo Liebespaare ihre Gefühle zueinander nicht öffentlich zeigen dürfen, könnten bei der gleichen Anzeige mit indischen Darstellern die Grenzen der Moralvorstellung bereits überschritten sein. Auch hier sollte jeder Anzeigenentwurf, jede geplante Kampagne sorgfältig auf solche Aspekte hin geprüft werden.
6. Beispiele Produktplanung Wie stark der Einfluss der Religion auf die Produktplanung sein kann, soll an drei Beispielen aus drei sehr unterschiedlichen Branchen dokumentiert werden. Gastronomie/Nahrungsmittel: Das bekannteste Produkt aus dem Hause McDonalds ist der Big Mac. Als es darum ging, auch den lukrativen indischen Markt zu erreichen, wurde aus dem 105
Literatur Bijapurkar, R. (2007): We are like that only, Understanding the Logic of Consumer India, Noida Indien. Buchsteiner, J. (2005): Die Stunde der Asiaten, Hamburg. Kaufmann, L. et al. (Hrsg.) (2006): Investment Guide Indien – Erfolgsstrategien deutscher Unternehmen, Stuttgart. Meffert, H., Bolz, J. (1998): Internationales MarketingManagement, 3. Aufl., Stuttgart. Müller, O. (2006): Wirtschaftsmacht Indien, München. Olson, C. (2007): The Many Colors of Hinduism, London. O.V. (2012a) Kreuz ist Trumpf, http://www.bzbasel.ch/ schweiz/kreuz-ist-trumpf-swiss-werbung-provoziertmuslime-12539034, Abruf 01.11.2012. O.V. (2012b): CIA Fact Book – China, Indien, Indonesien, Abruf 01.11.2012. O.V. (2012c): Full Stop India – List of Dry States in India 2012. O.V. (2009) Islamic Banking wächst deutlich, http://www.handelsblatt.com/unternehmen/banken/ banken-islamic-banking-waechst-deutlich/3191274.html, Abruf 01.11.2012. O.V. (2002): McDonalds pays millions to Hindus, Meldung bei: CNN vom 06.06.2002. O.V. (2001): Census 2001 – Government of India. Percheron, M. (1980): Buddha, Hamburg. Scheuch, K., Scheuch, U. (1987): China und Indien. Eine soziologische Landvermessung, Zürich. Vermeer, M., Neumann, C. (2008): Praxishandbuch Indien, Wiesbaden. Zaehner, R. C. (1986): Hinduismus, Geschichte und Lehre, München.
106
Big Mac der „Chicken Maharaja Mac“ kreiert. Aus religiösen Gründen musste Rindfleisch durch Hühnerfleisch ersetzt und durch einen neuen gängigen Produktnamen ersetzt werden. Mit dieser indischen Produktvariante konnte das Unternehmen sowohl Hindus als auch Moslems ansprechen. Die Firma Haribo verwendet seit Jahren Bindemittel für ihre berühmten Gummibärchen, die nicht aus tierischen Grundstoffen, sondern aus Substanzen hergestellt werden, die die strengen religiösen Auflagen in den Abnehmerländern erfüllen. Fluggesellschaften: Auf allen Inlandsflügen gilt seit Mitte der 1990er Jahre in Indien Alkoholverbot. Alle großen internationalen Fluggesellschaften richten auf Indiendiensten ihre Menüauswahl und -zusammensetzung nach religiösen Vorschriften aus. Die Bandbreite reicht von vegetarischem Essen über spezielle Hindu Meals bis hin zu Gerichten, die islamische Vorgaben berücksichtigen. (Vgl. Kaufmann/Panhans 2008, S. 175 ff.) Hauhaltsgeräte: Die Auswirkungen des Kastenwesens finden sich auch in indischen Familien des gehobenen Mittelstands wieder, in denen bestimmte Hausarbeiten von niedrigen Kasten oder Kastenlosen ausgeführt werden – und nicht etwa von der Hausfrau selbst. Dies betrifft z.B. auch die Bedienung bestimmter, hochwertiger Haushaltsgeräte (z.B. Waschmaschinen). Um die Gefahr von Defekten durch Fehlbedienungen bei High TechGeräten zu reduzieren, denken Hersteller solcher Produkte bereits über neue Produktvarianten für den indischen Markt nach. Diese sollten alle Grundfunktionen in gleichbleibend hoher Qualität erbringen, aber gleichzeitig robuster und einfacher zu bedienen sein.
7. Religiöse Einflüsse sind vielfältig und branchenübergreifend Die beschriebenen Beispiele stehen stellvertretend für die vielfältigen Einflüsse, die Religionen auf unsere internationale Tätigkeit haben können. Neben dem Marketing-Mix ist auch der Bereich Personalführung betroffen. Abschließend kann gesagt werden, dass es kaum eine Branche gibt, die sich solchen Einflüssen vollständig entziehen kann. Die Berücksichtigung religiöser Einflüsse auf die Marketing arbeit bedeutet nicht zwangsläufig, dass ein Unternehmen seine Zielsetzungen für einen Auslandsmarkt wie Indien grundlegend verändern muss, Änderungs- oder Anpassungspotenziale bestehen allerdings bei Umsetzungsstrategien.
unternehmenspraxis | update 16 | ss 2013
Sieben Erfolgsfaktoren für gutes Management-Reporting Joerg Schwebel
Gibt man in Google den Begriff „Information“ ein, erhält man die unglaubliche Anzahl von fast elf Milliarden Links (Stand Oktober 2012). Es gibt wohl kaum Begriffe, die mehr Ergebnisse bringen. Information. Die möglichst intelligente Kombination aus Daten. Ein extrem wichtiger Baustein in jedem Unternehmen. Tendenz steigend! In den letzten Jahren haben sich viele neue technische Möglichkeiten und Managementmethoden etabliert. Und trotzdem findet man in so vielen Unternehmen immer noch altbekannte Kritiken für die eingesetzten Reporting-Instrumente vor. Die Informationen sind zu viele, zu wenige. Die Informationen sind nicht die richtigen. Die Informationen kommen zu spät. Sie sind nicht verständlich. Die Informationen sind nicht verfügbar, wenn man sie braucht. Sie sind schlicht falsch. Die Systeme sind zu aufwändig oder einfach zu teuer. Es gibt sicher wenige Controller, die nicht ein Hobby haben: ein schönes Reporting aufzubauen. Dashboards, Grafiken, überdimensionale Armaturenbretter und vor allem viele viele Zahlen darzustellen. Leider oft eben nicht die richtigen. Entrepreneurship und den berühmten Puls am Markt haben nicht viele. Das häufig falsche Vorgehen fängt schon dort an, zu glauben, dass sich Manager (ausschließlich) über ein Controlling-Reporting performance-technisch informieren würden. Reporting ist Werkzeug, Grundlage und Unterstützung, selten alleinige Informationsquelle. Manager, die erst von Ereignissen aus dem Reporting erfahren, gibt es kaum oder wären völlig fehl am Platz. Ergänzende wichtige Informationsquellen sind: Gespräche und E-Mails mit Kollegen und Mitarbeitern, interne und externe Netzwerke, Printmedien und Social Media, Meetings, Walking Around etc. sind viel entscheidender für die Informationsbeschaffung. Ein gutes internes Performance-Reporting hat einen enorm wichtigen Stellenwert für das Erkennen der Faktenlage. In der Folge werden einige Grundregeln und Erfahrungen dargestellt, an denen bei Nichtbeachtung viele gute Ansätze schlicht scheitern können. Manches beruht auf Thesen. Alles aber beruht auf eigenen langjährigen fundierten Erfahrungen in Industrie und Handel.
update 16 | ss 2013 | unternehmenspraxis
Joerg Schwebel, Jahrgang 1962, ein Sohn, Diplom-Betriebswirt (FH), über 30 Jahre Erfahrungen in Handel, Konsum- und Pharma-Industrie. Seit 23 Jahren bei Boehringer Ingelheim in leitenden Finanzpositionen, unter anderem sechs Jahre als Geschäftsführer in Spanien und die letzten drei Jahre verantwortlich für den Aufbau einer globalen Business Service Organisation. Seit März 2013 selbständig unter anderem als Unternehmensberater. E-Mail: info@controlling-solutions.com
1. Grundstruktur vor Projektstart Der allererste Schritt für den Aufbau eines guten Reportings ist die Grundstruktur. Was soll – für wen – in welcher Form und wann zur Verfügung gestellt werden. Das kann und sollte immer und bei jedem Projekt gefragt werden. Das „Was“ umfasst einfache Umsatzreports über Monats-/Quartalsberichterstattung (Deckungsbeiträge, Gewinn- und Verlust, Liquidität, Bilanz) bis hin zu komplexen Performance Management-/Measurement-Modellen wie Balanced Scorecard oder Tableau de Bord, welche das gesamte Geschäft abbilden und die Strategieumsetzung messen soll(t)en. Dabei sollte auch die Frage beantwortet werden, wie weit in die Zukunft geschaut werden soll. Vorschaurechnungen und Budget sind wichtiger als nur die Vergangenheit darzustellen, weil nur die Zukunft vom Management gestaltet werden kann. Bei der Fragestellung „Für wen“ sollte die Empfängerstruktur klar definiert sein. Geht es nur um die Vorstandsebene/Geschäftsführung; sollen auch weitere Manager der zweiten und dritten Ebene Zugriff erhalten? Sollen Mitarbeiterinformationen erzeugt werden oder gehen Reports auch an Betriebsrat und externe Partner (Wirtschaftsprüfer, Banken, Kunden)? Im Idealfall wird später eine zentrale Datenstruktur gewählt, welche alle Anforderungen erfüllt und mit Extrakten gearbeitet werden kann. 107
Bei der Form wird zwischen Papierform, PowerPoint-Präsentation oder Online verfügbaren Systemen unterschieden, die im „Normal“-Fall auch ausgedruckt werden können. Oder noch besser: mit denen gleich alle Ergebnisse einem größeren Zuhörerkreis präsentiert werden können. Extrakte via „Apps“ auf den iPod oder das Mobiltelefon sind übrigens heute Standard. Bezüglich der Frequenz der Reports, dem „Wann“, gibt es Tagesreports (Umsatz), Wochenstati, Monatsberichten, Quartalsauswertungen bis hin zum Jahresbericht. Stark variieren Umfang und Qualität des Reports in Abhängigkeit von der Gesellschaftsform. Aktien-Gesellschaften mit quartalsweisem Publizierungszwang unterliegen naturgemäß anderen Kriterien als Einzelgesellschaften.
2. Die sieben Erfolgsfaktoren Sieben ist eine schöne Zahl. Es könnten auch neun oder dreizehn Erfolgsfaktoren sein. Sieben Informationen sind einfach eine gute Zahl. Vom Menschen gut und gleichzeitig aufnehmbar, sagen die Experten.
2.1 Top Down (Mission und Vision) Reporting folgt der Strategie des Unternehmens und sollte trotzdem die Ecken, in denen täglich zu kehren ist, nicht vernachlässigen. Ein Reporting-Projekt muss immer von oben anfangen. Nie von „unten heraus“ entwickelt werden. Die effizienteste Vorgehensweise ist sicher diejenige, ein Reporting-Projekt mit dem Vorstand/der Geschäftsführung gemeinsam zu entwickeln bzw. mit sehr enger Einbindung.
Offene W-Fragen sollten bei der Herangehensweise unbedingt vermieden werden („Was benötigen Sie für Informationen?“). Der Ausrichtung und der Strategie des Unternehmens folgend, sind zunächst die Kern-Wertefelder darzustellen: also die richtigen Produktumsätze zu selektieren, die richtigen Märkte, die sensibelsten Kostenpositionen, die entscheidenden Kundenparameter etc. Auch hängt viel davon ab, wer eine Anforderung hat bzw. welchen Erfahrungshorizont das Gegenüber (der Vorstand) mitbringt. Makro-Manager versus Mikro-Manager. Das Grundgerüst sollte stehen, bevor Stakeholder eingebunden werden. Bei der Performance-Betrachtung darf nicht nur auf Strategiezielpunkte fokussiert werden, es muss auch das Gesamtbild des Unternehmens abgelichtet werden. Und damit sind wesentliche Parameter mit darzustellen, selbst wenn diese gerade keine Rolle spielen (Grunddaten wie Gesamtumsatz und alle Geschäftsfelder, Gewinn- und Verlustrechnung, Deckungsbeiträge, Bilanz, Kapitalstruktur, Liquidität, Mitarbeiteranzahl etc.). Eine selektierte Kennzahlenübersicht ist sehr hilfreich, aber viel zu wenig zur Steuerung eines Gesamtunternehmens.
2.2 Richtiges und balanciertes Informationsangebot Im guten Management-Reporting sollte viel Zeit auf die Gestaltung der ersten Seite verwendet werden. Was soll dargestellt werden? Letztlich geht es darum herauszufinden, was die Erfolgsfaktoren für ein Unternehmen sind. Aufmerksamkeit sollte erzeugt werden, das Auge aber auch gelenkt werden. Ist alles in Ordnung, klemmt etwas? Liegt das Unternehmen auf Zielkurs; muss gegengesteuert werden? Und genau das ist komplex. Wenn der Umsatz passt, heißt es noch lange nicht, dass die Kosten und Investitionen im Griff sind. Wenn beide im Griff sind, heißt es noch lange nicht, dass die Liquidität stimmt. Und was ist mit der Qualität der Produkte, mit zahlungssäumigen Kunden, mit schlecht liefernden Lieferanten, mit steigenden Materialpreisen? In die Zukunft gerichtete Informationen, gekoppelt mit genügend Vergangenheitswerten für die Lernkurven. Denn … nur darauf kommt es an: künftige Entwicklung gestalten. Einige Modelle des Performance Management und Measurement können Anhaltspunkte geben. Das Thema des Performance Management hat viele Jahre die Literatur beherrscht. Viele Modelle wurden entwickelt. Letztlich geht es um die Messung und Darstellung von Erfolg und die unternehmerische Ausrichtung auf messbare Erfolgsfaktoren. Der Ansatz ist ja nicht neu; seit tausenden Jahren suchen wir Erfolg. In der Wirtschaft stehen nicht mehr nur monetäre Ansätze im Vordergrund, sondern auch nicht-monetäre Themen wie Kundenzufriedenheit, Mitarbeiterzufriedenheit, Innovationszustand etc. und sind für einen längerfristigen und nachhaltigen Erfolg eines Unternehmens zu betrachten.
Abb. 1: Effektivität und Effizienz Quelle: Eigene Darstellung
108
Erwähnt sei hier nur das Tableau de Bord, ein in Frankreich entwickeltes Modell zur Erfolgsmessung, welches seit über 50 Jahren im Einsatz ist. Einfach zu erstellen. Einfach zu messen. Daunternehmenspraxis | update 16 | ss 2013
Abb. 2: Grundsätze für Entscheidungen, Quelle: Gälweiler 2005, S. 111
neben hat sich auch die Balanced Scorecard durchgesetzt, welche Kundennutzen, Prozessinitiative und Innovation verbindet und den maßgeblichen Erfolg in Finanzzahlen misst. „You can‘t manage it, if you can‘t measure it“ ist der Leitsatz. Allerdings gilt auch hier, die Balance zu halten: nicht alles ist messbar oder sollte gar nicht gemessen werden. Trotz allem aber bietet die Balanced Scorecard einen gut strukturierten Ansatz.
spiel in Umsatzreports, Ergebnis- und Deckungsbeitragsreports, Kennzahlenauswertungen, Mitarbeiterdarstellungen, Bilanzanalyse. Wenn man von oben nach unten durchgeht sollten mindestens die ersten drei bis fünf Ebenen diesem standardisierten Aufbau folgen. Erst tiefer in der Hierarchie sollten Individualberichte z.B. pro Geschäft zugelassen werden. Sonst gibt es für den schnellen, nicht geneigten Leser schnell Konfusion.
In der Praxis haben sich in der Regel Mixinstrumente durchgesetzt, welche sich strukturell an vorhandene Modelle anlehnen. Dabei können weitere Erfolgsfaktoren im Unternehmen selbst definiert werden. Hier können neben den vier Quadranten der Balanced Scorecard auch Marktattraktivität, Umweltthemen und/oder spezielle wichtige Themen separat aufgegriffen werden (Liquidität zum Beispiel, welche häufig im Mittelstand ein Thema ist).
Dann folgen Visualisierungsregeln, die standardisiert werden müssen. Eindeutigkeit der Begriffe ist unbedingt vorab zu klären. Budget ist Budget. Und nicht Planung, Vorschau, Forecast. Einheiten müssen klar definiert und benannt werden. Handelt es sich um monetäre Größen (Währungsangabe, TausenderTrennung) oder Mengenangaben. Selbst bei den Farbgebungen kann es zu Konfusionen kommen. Rot-Gelb-Grün können von Farbblinden nicht eindeutig erkannt werden.
Letztlich muss Performance definiert werden anhand der Vision und Mission eines Unternehmens und ist natürlich auch abhängig von der Ausrichtung eines Unternehmens. Unternehmen der öffentlichen Hand haben andere Erfolgsmodelle als Unternehmen der Privatwirtschaft. Information und Reporting aber brauchen alle.
Ein Notationskonzept geht bis zur Regelung, wie und wo im Bericht Aktuelle Werte (z.B. in der Mitte), Vorjahreswerte (z.B. links) und/oder Budgetwerte (z.B. rechts) immer zu stehen haben.
2.3 Standardisierung und trotzdem flexibel Standardisierung ist ein Muss, aus vielerlei Gründen. Gründe der Schnelligkeit, der Wiedererkennung, aus Qualitätsgründen und vielen weiteren. Jedes Geschäftsfeld im Unternehmen sollte den gleichen visuellen Aufbau haben. Dazu sollte das Reporting in „standardisierbare Bestandteile“ zerlegt werden. Zum Beiupdate 16 | ss 2013 | unternehmenspraxis
Neben der Standardisierung und der visuellen Gestaltung steht die Flexibilität ganz vorne auf der Liste eines guten Reportings. Jedes Geschäft benötigt neben rein standardisierten Auswertungen viele Ad-hoc-Berichte. Das Informationsbedürfnis von Managern folgt keinen pyramidenförmig aufgebauten Datenstrukturen. Das gerade eingeführte neue Produkt X im Land Y kann einen hohen Informationsbedürfnischarakter haben, ebenso wie evtl. temporär zu beobachtende Unfallzahlen oder die akute Finanzsituation in Land Z. Manche solcher kritischen Kenn109
größen müssen für eine gewisse Zeit sehr prominent gemanagt werden und Transparenz darüber ist der wichtigste Schritt. Die meisten Reporting-Systeme sehen diese Flexibilität nicht oder nur sehr ungenügend vor. Dies führt dann häufig zu Schattenberichten, Zusatzauswertungen, Parallel-Reportings.
ein bis zwei Sekunden sollte nicht gewartet werden, bis sich ein Fenster, ein Bericht in einem Onlinefenster öffnet (ausgenommen komplexe Datenbankanfragen). Und 300 Seiten dicke Trainingsbroschüren oder sogar noch Schulungsangebote sind heute obsolet.
2.4 Schnell und qualitativ valide
2.5 Einfach und intuitiv
In vielen Unternehmen dauert die inhaltliche Aufbereitung der Daten immer noch viel zu lange. Mit einem entsprechend intelligenten und simplen Aufbau der Kosten- und Leistungsrechnung und entsprechender Organisation der Buchhaltung und des Monatsabschlusses lässt sich die Verfügbarkeit eines Reportings in der Tat in wenigen Augenblicken – je nach Komplexität des Geschäftes – organisieren.
Der Mensch nimmt nur ca. sieben Informationen gleichzeitig auf. Das gilt wohl selbst für Vorstandsmitglieder. Und daran hat sich auch in den letzten Revolutionsjahren der Infotechnologie nichts verändert. Gerade die Reizüberflutung sollte durch Übersichtlichkeit etwas eindämmt werden: weniger ist mehr.
In den meisten Geschäftsmodellen sind viele Ergebnispositionen direkt mit dem Mengenabverkauf verbunden. Damit liegen zeitgleich mit der Fakturierung auch Absatzwerte vor, aus denen sich kalkulatorische Deckungsbeiträge erzeugen lassen. Es spricht also überhaupt nichts dagegen, mit dem Umsatz am ersten Arbeitstag theoretisch auch Deckungsbeiträge oder Roherträge in einem Reporting mit anzuzeigen. Wichtig ist in diesem Zusammenhang immer der Fokus der Kostenrechnung. Eine gute Kosten- und Leistungsrechnung dient dazu, zu wissen, mit was (Produkte, Services) man wie viel (Deckungsbeitrag, Ergebnis) wo (Inland, Export) und am besten mit wem (Kunden) ungefähr verdient. Hier kommt es nicht auf 100 % Genauigkeit an. Lieber ungefähr richtig (z.B. 95 %) als genau falsch darzustellen. Das erzeugt gewaltige Schnelligkeit. Während eines Monatsabschlusses ist ebenfalls wichtig, eine sequentielle Bereitstellung der Daten vorzunehmen. Liegt ein logischer Datenblock vor (Umsatz, Deckungsbeitrag, Kostenstellenkosten, Werbekosten etc.), sollte er auch veröffentlicht werden. Sonst besorgen sich Manager ihre Informationen aus anderen Quellen. Für die Schnelligkeit sollte auch der Monatsabschluss „entschlackt“ werden, falls das Geschäft komplexere Strukturen hat. Entgeltabrechnung, Abschreibungsläufe, Produktionsabrechnung: all das kann auch schon ein bis zwei Tage vor dem Monatsabschluss durchgeführt werden. Die Qualität der Daten spielt eine extrem gewichtige Rolle. Umsatz ist nicht gleich Umsatz. Ein Nettoumsatz kann auch Skonti, Boni, Rabatte beinhalten und spiegelt daher nicht die Fakturierungsdaten wieder. Die Abstimmung der einzelnen Informationsblöcke nach Plausibilität und Richtigkeit mit Gesamtsummen aus Gewinn- und Verlustrechnung und Bilanz sollte unterstellt werden. Vertrauen wird erarbeitet. Durch nur ein bis zwei falsche Zahlen – selbst nach monatelanger guter Arbeit – kann viel Vertrauen in die eigene Organisation zerstört werden. Ein anderes Thema ist die technische Variante der Schnelligkeit und Einfachheit. Die Sanduhr auf dem Bildschirm bei einem Online-Report sollte einfach nicht vorkommen. Mehr als 110
Die sinnvolle Nutzung eines vorhandenen Blattes mit möglichst vielen, klaren, einfachen, verständlichen Informationen sollte genutzt werden. Überdimensionierte Tachometer mit nur einer Information, fast eine Seite einnehmend, sind schlicht Verschwendung. Einfachheit und Klarheit der Grafiken. Kurz und prägnant der Text. Ein Notationskonzept ist unbedingte Voraussetzung für gute Berichte und Reporting. Ein harmonisches Bild muss entstehen. Es gibt einfachste Regeln: Titel sollte immer und Aussagen (Messages) möglichst auf Präsentationen angegeben werden. Quellenangaben, Datum, Währungsangaben etc. sind ein Muss. Zahlen sollten mit Tausender-Trennung und rechtsbündig stehen. Farben sollten zurückhaltend eingesetzt werden. Zeilen und Spalten sollten in der Breite/Länge nicht zu unterschiedlich sein. Schriftarten sollten nicht wechseln und maximal drei verschiedene Größen haben. Wichtige Darstellungen sollten als Tabelle und Grafik vorkommen. Rot sollte möglichst nicht vorkommen, da man dies auf manchen Beamerdarstellungen (immer noch) nicht erkennt. Schriftarten sind nicht zu klein zu wählen. Dies sind nur einige Hinweise für gute Visualisierung und Verständlichkeit von Reports. Es gibt eine Fülle an guten Büchern über Notationskonzepte (siehe auch Literatur-Verzeichnis).
2.6 Mitarbeitereinbindung Viele Reportings werden von Spezialisten eingerichtet. Für sehr komplexe, globale Systeme werden auch zweifelsfrei Spezialsten benötigt. Für den evtl. notwendigen Datenbankaufbau, Navigation, Serverbereitstellung etc. Aber eben nicht nur. Gemischte Teams aus IS-Spezialisten, Vertriebsfachleuten, Finanzexperten sind viel effizienter und bieten meist die besseren Lösungsvorschläge in Richtung Effektivität (Was ist das Richtige?) und vor allem Nachhaltigkeit. Wichtig ist, dass im Unternehmen ein Wissenstransfer sichergestellt wird und allen Teammitgliedern sehr klare Aufgaben zugewiesen werden. Andernfalls besteht die Gefahr, dass das unternehmenspraxis | update 16 | ss 2013
Abb. 3: Beispiel eines nahezu kostenfreien MS-Reportings, Quelle: Joerg Schwebel, Controlling-Solutions
Reporting nicht genügend Akzeptanz im Unternehmen findet und permanent überarbeitet wird. Die Teamstruktur kann Geschäftsfeldern bzw. Funktionsbereichen folgen (Geschäftsfeld A, B, Produktion, Verwaltung etc.) und sollte die Implementierungsverantwortung abdecken. Dabei können Teams unbedingt auch mit den Erfolgsfaktoren beauftragt werden wie Standardisierung, Notationskonzept etc. In kleineren Geschäften mag die Geheimhaltung wichtiger sein. Allerdings sind die meisten Informationen doch innerhalb des Unternehmens bekannt. Gesteuerte Transparenz über Fakten ist immer besser als entstehende „Gerüchteküche“. Daher sollten gute, vertrauenswürdige Mitarbeiter eingebunden werden. In diesem Falle: je mehr, desto besser. Auch wenn es damit komplexer erscheint: hier zählt die Nachhaltigkeit eines solchen Projektes. Vor allem zeigen manche Mitarbeiter/Innen während eines solchen Projektes häufig ganz ungeahnte Talente. Für die firmeninterne Potenzialplanung ein ungeheurer Schatz.
hin zur Einhaltung von Notationskonzepten sind nur bedingt systemrelevant. Häufig besteht der Fehler einer mangelhaften Implementierung oder einer fehlenden Akzeptanz darin, dass der Fokus zu stark auf der technischen Komponente liegt. Nutzer (das Management) und Implementierer (Controller, IS-Spezialisten) liegen manchmal inhaltlich zu weit auseinander. Es wird übereinander geredet, nicht miteinander. Häufig werden aufwändigste Reports konstruiert, die für das Management nur einen einmaligen Aha-Effekt auslösen. Gutes Reporting muss sich entwickeln. Nach Lernphasen müssen weitere Informationen nach den beschriebenen Regeln adaptiert und hinzugefügt werden können. Ein gutes Reporting atmet und folgt dem jeweiligen Wissensstand der Nutzer. In vielen Großunternehmen werden darüber hinaus regelrechte Kompetenzdiskussionen zwischen Marketing und Vertrieb (Marktfokus), Finanzen und auch Produktion über die richtigen Informationen geführt.
Es gibt eine Reihe an guten neuen System-Entwicklungen auf dem Markt. Insbesondere auch Systeme, welche dem Manager erlauben, seinen Desktop mit seinen wichtigsten Berichten selbst zu konfigurieren. Bei der Auswahl des geeigneten Tools sollten Themen wie Implementierungs- und Beraterkosten ebenso in der Betrachtung stehen wie laufende Betreuungskosten, Lizenzkosten, Wartungsaufwand, Schnittstellenanbindung und letztlich der Aufwand für die Mitarbeiter im Unternehmen.
Manche Anwendungen, wie zum Beispiel MS-EXCEL oder MS SQL-Server, haben sich in den letzten Jahren enorm weiterentwickelt und lassen sich mit simplen Methoden in sehr effektive und effiziente Reporting-Systeme umwandeln. Die vor allem fast jeder Mitarbeiter im Unternehmen auch versteht und adaptieren kann. Nahezu unbegrenzt in der Datenaufnahme und Darstellung, sehr flexibel bei den Berichten. Sehr einfach in der Handhabung und dabei auch noch kostengünstig. Tiefergehende Informationsbedürfnisse lassen sich durch simple Anbindung an andere Datenquellen bewerkstelligen.
Reporting besteht allerdings – wie beschrieben – nicht nur aus System. Schnelligkeit, Validität und Integration der Daten, Standardisierung und die Bereitstellung von Ad-hoc-Reports bis
Bevor ein System ausgewählt wird, sollten zunächst unbedingt die Grundfragen (Punkte 1) geklärt werden und eine Kosten-/ Nutzenanalyse durchgeführt werden.
2.7 Einfache Systeme, überschaubare Kosten
update 16 | ss 2013 | unternehmenspraxis
111
Literatur Dörner, D. (1992): Die Logik des Misslingens – Strategisches Denken in komplexen Situationen, Hamburg. Gälweiler, A. (2005): Strategische Unternehmensführung, 3. Aufl., Frankfurt am Main. Gerths, H., Hichert, R. (2011): Professionelle Geschäftsdiagramme nach den SUCCESS Regeln gestalten, München. Kaplan, R., Norton D. (1997): Balanced Scorecard, Stuttgart. Malik, F. (2001): Führen, Leisten, Leben, München. Ossola-Haring, C. (2003): Das große Handbuch Kennzahlen zur Unternehmensführung, 2. Aufl., München.
112
3. Schlussbetrachtung Gutes Reporting ist nicht (nur) durch IS-Systeme gekennzeichnet, sondern vor allem durch seine Inhalte. Was sind die Strategie und der Hauptzweck des Unternehmens? Was sind wichtige Messpunkte im Unternehmen? Unabdingbar ist die Einbindung und häufige Interaktion und Testphase mit den richtigen Stakeholdern (Inhaber, Geschäftsleitung). Das Pareto-Prinzip (80/20-Regel) muss bei der Auswahl der Informationen zwingend eingehalten werden und strategische wie operative Komponenten auf der einen Seite als auch vergangenheitsorientierte und künftige Entwicklungen sind zu berücksichtigen. Standardisierung bei gleichzeitig hoher Flexibilität für Ad-hoc-Reports, Schnelligkeit und Validität sind ebenso entscheidend wie die intuitive, leicht verständliche Aufbereitung der Informationen. Technisch einfache Handhabbarkeit und die permanente Verfügbarkeit der Informationen, wenn benötigt, sind ebenfalls entscheidende Kriterien. Die richtige Mitarbeitereinbindung hat einen hohen Stellenwert wegen des Wissenstransfers und damit auch der Nachhaltigkeit. Die Balance macht es. Es ist möglich! „Man kann es einfach machen. Man kann es einfach machen. Viel Erfolg!“
unternehmenspraxis | update 16 | ss 2013
Beiratsgremien im Mittelstand: Zusammensetzung des Beirats und Anzahl der Mitglieder Christoph Achenbach, Frederik Gottschalck
Dr. Christoph Achenbach
Dr. Frederik Gottschalck
Jahrgang 1958, verheiratet, 3 Kinder
Jahrgang 1977, verheiratet, 1 Kind
Dr. Christoph Achenbach verfügt über 20 Jahre operative Berufserfahrung aus verschiedenen Führungspositionen. So gehörte er seit 1997 dem Vorstand der Quelle AG an, ab 2001 als dessen Vorsitzender. Nach dem Zusammenschluss mit Karstadt war er bis 2005 Vorsitzender des Vorstands der KarstadtQuelle AG. Danach war Achenbach Sprecher der Geschäftsführung der Familienunternehmensgruppe Klingel. Nach seiner Zeit als Partner der Intes Beratung gründete er Anfang 2011 als geschäftsführender Gesellschafter die BfUN GmbH mit Sitz in Köln. Daneben ist er seit vielen Jahren als Mitglied und Vorsitzender in verschiedenen Beiräten und Aufsichtsräten aktiv.
Dr. Frederik Gottschalck ist Partner bei der BfUN – Beratungsgesellschaft für Unternehmensführung und -nachfolge. Der Fokus seiner Tätigkeit liegt in der Konzeption und Einrichtung von Beiratsgremien insbesondere für mittelständische Unternehmen sowie der personellen Besetzung von Beirats-, Aufsichtsrats- und Stiftungsratsgremien. Gottschalck studierte Politikwissenschaft, Wirtschaft und Öffentliches Recht. Nach seiner Promotion mit dem Prädikat summa cum laude an der Westfälischen Wilhelms-Universität in Münster war er bei einer auf Familienunternehmen spezialisierten Beratung tätig.
Seine Arbeitsschwerpunkte sind die Beratung zu allen Fragen der familieninternen Nachfolge sowie die Bereiche Corporate Governance, Beirat und Aufsichtsrat.
Neben seinen Beratungsaktivitäten ist Gottschalck als Redner und als Autor von Publikation, Studien und Fachbeiträgen aktiv, zuletzt als Mitherausgeber des Buchs „Der Beirat im Mittelstand – Erfahrungsberichte aus der Praxis“.
E-Mail: achenbach@bfun.de
E-Mail: gottschalck@bfun.de
1. Einleitung Hinsichtlich der Zusammensetzung des Beirats und der Anzahl der Beiratsmitglieder haben mittelständische Familienunternehmen weitgehende Gestaltungsfreiheit. Nur bei großen GmbHs gibt es eine gesetzliche Vorschrift, die zu beachten ist. Für diese Unternehmen muss der Beirat mindestens drei Mitglieder umfassen. In allen anderen, und damit der weit überwiegenden Anzahl von Fällen, können die Gesellschafter selbst entscheiden, wie viele Mitglieder sie berufen wollen. Diese Entscheidung, so einfach das zunächst klingen mag, ist abhängig von einer Vielzahl von Variablen, die im Wesentlichen von den Motiven für die Installation eines Beirats und den zu übernehmenden Aufgaben abhängen. In der Praxis treffen wir immer wieder auf Gesellschafter und Unternehmer, die bereits vor den update 16 | ss 2013 | unternehmenspraxis
konzeptionellen Überlegungen zum Beirat die Personalauswahl entschieden haben. Richtig ist jedoch die umgekehrte Reihenfolge. Zunächst ist festzulegen, welcher Beiratstypus eingerichtet werden soll. Die wichtigsten Fragen hierbei sind: Soll der Beirat rein beratend, mitentscheidend oder aufsichtsratsähnlich aktiv sein? Welche Aufgaben soll der Beirat im Einzelnen übernehmen? Welche fachlichen Qualifikationen sollen im Beirat vorhanden sein? Welche persönlichen Eigenschaften sollen die Beiratsmitglieder mitbringen? Und nicht zuletzt: Wie viel zeitlicher Einsatz wird für die Beiratsarbeit nötig sein? Erst wenn diese Fragen beantwortet sind, kann man sich im Detail mit der Zusammensetzung und mit der Anzahl der Beiratsmitglieder beschäftigen. 113
2. Zusammensetzung des Beirats 2.1 Die Tabu-Liste Vorab eine der wichtigsten Grundregeln für eine langfristig erfolgreiche Beiratsarbeit: Ein Beiratsmitglied sollte niemals in einem persönlichen oder wirtschaftlichen Abhängigkeitsverhältnis zum Unternehmen stehen. Damit kommen z.B. Lieferanten, Vertreter der Hausbank, der Wirtschaftsprüfer oder der Hausjurist des Familienunternehmens für ein Beiratsmandat nicht infrage. Aber auch Personen, die eng mit einem Wettbewerber verbunden sind, eignen sich in aller Regel nicht als Beiratsmitglieder. Und: Man sollte keine Freunde in den Beirat berufen. Auf lange Sicht leidet darunter entweder die Freundschaft oder die Qualität der Beiratsarbeit. Die Realität sieht jedoch leider anders aus. Immer noch finden sich viele solcher Fehlbesetzungen in Beiratsgremien. Zunächst ist es ja auch naheliegend, bei der Besetzung des Beirats z.B. an den eigenen Wirtschaftsprüfer oder Hausjuristen zu denken. Solche Berater sind üblicherweise seit Jahren oder gar Jahrzehnten mit dem Unternehmen und der Familie vertraut und haben berechtigterweise eine besondere Vertrauensstellung – alles gute Gründe, sie in den Beirat zu berufen. Ein einziges Gegenargument macht die Vorteile jedoch zunichte: Alle im Unternehmen engagierten Berater haben letztlich ein Interesse daran, die Geschäftsbeziehungen zum Unternehmen und dessen Gesellschaftern zu bewahren, da sie einen oft beträchtlichen Anteil ihres Honorarvolumens über diese Verbindung erzielen. Damit erhöht sich das Risiko, dass sie bei Diskussionen und Entscheidungen im Beirat nicht ausschließlich ihrer fachlichen Überzeugung und ihrem Gewissen folgen, sondern möglicherweise wider besseren Wissens bestimmten Entscheidungen zustimmen, um ihr Beratungsmandat zu sichern. Ähnlich gelagert ist der Fall bei Vertretern der Hausbank, die immer auch eine Treuepflicht der Bank gegenüber haben. Damit erhöht sich zwar nicht zwangsläufig die Anzahl, aber zumindest die Gefahr von Fehlentscheidungen.
2.2 Die geeigneten Kandidaten Grundsätzlich sollte dem Beirat auf jeden Fall ein ausgewiesener Finanzexperte angehören. Uns sind in der Praxis nur sehr wenige Fälle bekannt, in denen auf den „Controller“ im Beirat verzichtet werden kann. Dies hängt schlicht damit zusammen, dass die Anforderungen an die Themen Finanzierung und Bilanzierung für alle Unternehmen immer höher werden, damit aber auch gleichzeitig die Chancen und Gestaltungsoptionen zunehmen. Für ein mittelständisches Unternehmen ist es heute sehr schwer, innerhalb der eigenen operativen Struktur Personal mit allumfassendem Know-how vorzuhalten (und zu bezahlen). Umso dringlicher ist es, wenigstens einen Sparringspartner und Impulsgeber zu diesem Thema als Beiratsmitglied einzubinden.
114
2.3 Auf die Mischung kommt es an Hinsichtlich der weiteren Abdeckung der fachlichen Qualifikation ist eine allgemeingültige Empfehlung schlicht unmöglich. Die Verschiedenheit der Unternehmen, Branchen, Märkte und Produkte bedingt, dass jedes Beiratsgremium individuell besetzt sein muss. Am Ende zählt die Mischung, die ausgewogene, möglichst viele (zumindest jedoch die relevanten) Fachbereiche abdeckende interdisziplinäre Zusammensetzung des Beiratsgremiums. In vielen produzierenden Unternehmen wird sicherlich ein Mitglied mit technischem Background wichtig sein, in Handelsfirmen stehen schwerpunktmäßig Vertriebs- und Marketingthemen auf der Agenda. Eher in den Bereich der persönlichen Kompetenz der Beiräte fällt die „Unternehmerdenke“, die von den meisten Gesellschaftern und Unternehmern für alle ihre Beiratsmitglieder gewünscht wird. Als Unternehmer und Gesellschafter sollte man sich die Frage stellen, in welchen Bereichen man Beratung und eventuell sogar Kontrolle wünscht. Hat man den Eindruck, dass das Marketing zwar gut in der Umsetzung, aber nicht im Entwickeln von Konzepten ist, kann ein ausgewiesener Marketing-Experte im Beirat mit wenig Einsatz viel Positives leisten. Gleiches gilt analog für viele andere Themen. Letztlich hängt der Erfolg der Beiratsarbeit insbesondere auch von der Teambesetzung des Beirats ab. Wenn man z.B. in einem Dreier-Gremium bereits über zwei Mitglieder mit exzellenten Markt- und Branchenkenntnissen verfügt, so kann es für die Diskussionen und die strategische Zukunft des Unternehmens durchaus sehr befruchtend sein, einen Branchenfremden mit ins Gremium aufzunehmen. Solche Persönlichkeiten haben den Vorteil, dass sie ungehemmt frei und quer denken – und fragen – können.
2.4 Chance Internationalisierung Ein Aspekt hat in den letzten Jahren immer größere Bedeutung erlangt – und sollte daher bei der Zusammensetzung des Beirats entsprechend berücksichtigt werden. Es geht um das Thema Internationalisierung. Große Familienunternehmen sind oft schon seit Jahrzehnten international engagiert. Dieser Trend weitet sich zunehmend in Richtung mittelgroßer und kleiner Familienunternehmen aus. In vielen Branchen ist ein Verzicht auf grenzüberschreitende Aktivitäten heutzutage schon undenkbar. Oft entwickelt sich aus reinen Lieferbeziehungen mit ausländischen Firmen ein direktes Engagement vor Ort in Form von Niederlassungen, Joint Ventures oder eigenen Fertigungsstätten. Spätestens dann, wenn ein Unternehmen in diese Dimensionen der Internationalisierung vorgedrungen ist, benötigt es einschlägige Kompetenz in seinem Beirat. Dann gilt es, nicht nur die Aktivitäten im Heimatland kritisch zu beobachten und zu kontrollieren, dann muss der Beirat – oder zumindest eines seiner Mitglieder – so viel vom internationalen Geschäft und dessen Fußangeln verstehen, dass er der Geschäftsführung ein ebenbürtiger Sparringspartner sein kann. Und wenn dieses unternehmenspraxis | update 16 | ss 2013
§§ Mit zunehmendem Alter verliert man an Marktnähe.
Know-how aus eigener Tätigkeit im Ausland herrührt, mit einschlägigen Kenntnissen fremder Sprachen, Kulturen und Geschäftspraktiken – umso besser für die Kompetenz des Beirats.
§§ Die Netzwerke und Kontakte nehmen ab. §§ D ie Aktualisierung von Know-how und Wissen findet nur noch in geringem Maße statt, insbesondere durch die fehlende operative Tätigkeit.
Ein Aspekt ist an dieser Stelle allerdings zu betonen: Beiräte müssen nicht auf allen Gebieten gleich gut ausgebildet und kompetent sein. In der Regel wird ein Unternehmen seinen Beirat aus mindestens zwei, eher drei bis vier Personen bilden, sodass sich die Mitglieder gegenseitig ergänzen („Komplementarität der Kompetenzen“). Dies trägt dazu bei, dass man bei Diskussionen und der Suche nach Lösungen nicht in einheitlichen Denk- und Verhaltensmustern verharrt, sondern mehrdimensional denkt und diskutiert. Das erhöht die Chance, zu ausgewogenen, im Idealfall sogar zu optimalen Lösungen und Entscheidungen zu kommen. Gerade in Krisensituationen oder bei Sanierungsfällen dürfte sich diese Konstellation bewähren. Notwendig und gesucht ist letztlich eine Idealmischung aus Persönlichkeit, Fachkenntnis und Erfahrung.
§§ Die physische und psychische Belastbarkeitsgrenze sinkt. §§ M it zunehmendem Alter schrumpft die Bereitschaft, Tätigkeiten oder Aufgaben niederzulegen. Der ehemalige Bundespräsident Gustav Heinemann wird mit folgendem Satz zitiert: „Ja, so ist das eben mit der Senilität. Erst merkt man es nur selber, dann merken es auch die anderen und schließlich nur noch die anderen.“ Spätestens bevor der letzte Halbsatz eintritt, sollte also eine Altersgrenze – auch hier wieder im Sinne der Risikominimierung – greifen. Denn ohne vordefinierte Altersgrenze ist ein notwendiger personeller Wechsel nur schwer zu vollziehen. In der Praxis am häufigsten vorzufinden ist die Altersgrenze von 70 Jahren.
2.5 Das ideale Alter Dies gilt im Übrigen auch für die Alterszusammensetzung: Jüngere, dynamische Beiratsmitglieder sollten die älteren, erfahreneren ergänzen. In der Praxis findet man daher für Beiratsmitglieder, die Expertenwissen aus Bereichen wie Vertrieb, Marketing oder Einkauf mitbringen sollen, häufig die Anforderung, dass sie noch aktiv im Berufsleben stehen und daher jünger sein sollten (gewünschtes Alter häufig zwischen 40 und 55 Jahren). Für Beiräte mit speziellem Fachwissen zu Finanzierung, Controlling und Bilanzierung gilt dies eher nicht. Hier werden in der Praxis gerne auch Beiratsmitglieder berufen, die durchaus älter als 60 Jahre sein dürfen. Das mag damit zu tun haben, dass auf diesen letztgenannten kaufmännischen Gebieten wirkliche Marktnähe und aktuellstes Wissen über Branche, Wettbewerb oder Lieferanten nicht unbedingt erforderlich sind. Aus der Praxis sind uns nur sehr wenige Beiräte unter 40 Jahren bekannt. Dennoch ist es falsch, Beiräte grundsätzlich erst ab einem gewissen Alter zu berufen. Es kann durchaus Situationen geben, in denen mangelnde Erfahrung durch besondere Kenntnisse und Fähigkeiten kompensiert wird. Wir denken hier vor allem an die Themen Trend-/Lifestyleprodukte sowie IT-nahe Bereiche wie zum Beispiel soziale Netzwerke. Naturgemäß fällt der älteren Generation das Einarbeiten hier deutlich schwerer als den so genannten „Digital Natives“, also denjenigen, die von klein auf mit der modernen Technik gearbeitet haben. In der Praxis taucht immer wieder die Frage auf, ob eine Altersgrenze für Beiratsmitglieder verankert werden soll. Zumeist ist dies eines der umstrittensten Themen, vor allem, wenn sich zwei Gesellschafter-Generationen über die Konzeption des Beirats einigen müssen. Zunächst ist festzuhalten, dass es keine gesetzlichen Altersgrenzen für Beiräte gibt. Dennoch ist es aus verschiedenen Gründen sicherlich empfehlenswert, im Gesellschaftsvertrag eine Altersgrenze für Beiratsmitglieder einzuziehen. Hier die wesentlichen Argumente: update 16 | ss 2013 | unternehmenspraxis
Die Gefahr, dass sich altgediente und verdiente Mitglieder an ihre Position klammern, ist nicht zu unterschätzen. Eine Auseinandersetzung um den richtigen Zeitpunkt des Ausstiegs lässt meistens auf beiden Seiten einen Schaden entstehen, der vermeidbar ist. Gerade Beiratsmitgliedern, die über Jahre oder sogar Jahrzehnte ihr Herzblut für das Unternehmen gegeben und erfolgreich gearbeitet haben, ist ein von den Gesellschaftern erzwungener Ausstieg kaum zu vermitteln. Eine vordefinierte und allen Beteiligten kommunizierte Altersgrenze jedoch bietet die Möglichkeit eines ehrenvollen Ausstiegs, z.B. im Rahmen einer würdigen Abschiedsfeier.
2.6 Anzahl der Beiratsmitglieder Die Frage nach der üblichen Anzahl der Beiratsmitglieder beantwortet die BfUN-Studie von Anfang 2012. In vier von fünf Beiratsgremien sind es zwischen drei und fünf Mitgliedern. Der Mittelwert liegt nahezu exakt bei vier Beiratsmitgliedern je Gremium. In knapp jedem zweiten Gremium (48 %) sind drei Mitglieder aktiv. Nur in drei Prozent der Fälle gibt es ein oder zwei Mitglieder, und nur fünf Prozent der Gremien sind mit mehr als sechs Beiräten besetzt. 48%
50 40 30
18%
20 10
17% 9%
3%
5%
0 <3 3 4 5 6 >6 Abb. 1: Anzahl der Beiratsmitglieder, Quelle: BfUN-Studie 2012
115
Überwiegend Familienmitglieder 7%
Ausgeglichenes Verhältnis 7%
Ausschließlich Familienmitglieder 5%
Überwiegend NichtFamilienmitglieder 48%
Ausschließlich NichtFamilienmitglieder 33%
Abb. 2: Anteil familieninterner und externer Beiratsmitglieder Quelle: BfUN-Studie 2012
2.7 Interne oder externe Beiratsmitglieder? Prüft man anhand der vorliegenden Daten die Struktur der Besetzung, so zeigt sich, dass nur noch wenige Beiratsgremien personell von der Unternehmerfamilie dominiert werden. Über 80 % bestehen völlig oder überwiegend aus Nicht-Familienmitgliedern. Daran ist die seit einigen Jahren zu beobachtende Emanzipierung des Beirats von der Familie deutlich zu erkennen. Nur noch in sehr wenigen Fällen besteht im Beirat rein personell eine Familiendominanz. Aus unserer Sicht ist das auch gut so. Ein Beirat soll gerade Input von außen geben, er soll Kompetenzen mitbringen, die bisher so nicht in der Familie
vorhanden sind. Er soll frei von familiären Belangen entscheiden können, was – aus zwar subjektiver, aber zumindest neutraler Perspektive – das Beste für das Unternehmen ist. Natürlich bedeutet das nicht, dass in 80 % der Fälle das Wohl des Unternehmens von den externen Beiratsmitgliedern allein abhängt. In vielen Fällen ist der Beirat rein beratend, die Gesellschafter treffen also ohnehin die letzte Entscheidung. Und außerdem – was ebenfalls recht häufig vorkommt – lassen sich Sonderrechte, Vetos oder ähnliches für Familienmitglieder natürlich auch für entscheidungsbefugte Beiräte einrichten. Dies kann unseres Erachtens durchaus Sinn machen. Letztlich ist es das Vermögen der Familie, über das entschieden wird. Aber die Sinnhaftigkeit solcher Sonderregelungen hängt wiederum mit der individuellen, vor allem der familiären Situation zusammen. Besteht ein großer Gesellschafterkreis mit verschiedenen Stämmen und wurde der Beirat explizit zur Beschleunigung, Vereinfachung und Verbesserung der Entscheidungen berufen, führen Vetorechte den Sinn des Beirats ad absurdum. Sucht dagegen ein selbst nicht tätiger Alleingesellschafter Unterstützung bei der Kontrolle der Geschäftsführung über zwei externe Beiratsmitglieder, können Sonderrechte sehr sinnvoll sein. Grundsätzlich gilt die Regel: Je kleiner das Gremium ist, umso effizienter kann es im Zweifel arbeiten, da die notwendigen Abstimmungsprozesse (Terminfindung, Diskussion in der Gruppe) mit weniger Personen stattfinden. Das bedeutet aber auch: Die Auswahl sollten die Verantwortlichen mit großer Sorgfalt vornehmen. Denn wenn der Beirat wirklichen Nutzen stiften soll, muss er kompetent besetzt sein. Entpuppt sich in einem dreiköpfigen Gremium ein Mitglied als schwach, ist dies nur schwer zu verkraften. Ein großer Beirat hingegen kann das Problem überspielen.
3. Fazit
Unternehmen auf einen Blick Die Beratung für Unternehmensführung und -nachfolge GmbH mit Sitz in Köln berät mittelständische Unternehmen. Die Schwerpunkte der Beratungsaktivitäten liegen zum einen auf der Beratung zur familieninternen Nachfolge einschließlich Übergabe und erfolgreicher Integration des Nachfolgers und zum anderen auf der Beratung bei der erstmaligen Einrichtung eines Beirats- oder Aufsichtsratsgremiums sowie der Suche, Vorauswahl und Kontaktherstellung zu hochqualifizierter Persönlichkeiten zur Besetzung von Beiratsgremien.
116
Chancen und Risiken – unter diesen Titel kann man das Thema Beirat als solches stellen. Aufgrund der großen Offenheit und nicht vorhandenen Regelungen ergibt sich eine Vielzahl von Gestaltungsmöglichkeiten und Chancen. Gleichzeitig geht damit eine ebenso große Zahl von Risiken einher, da jede nicht oder falsch genutzte Gestaltungsmöglichkeit letztlich negative Auswirkungen haben wird. Diese Folgerung gilt analog auch für die Themen Zusammensetzung des Beirats und Anzahl der Beiratsmitglieder. Man kann Gremien mit einem Familienmitglied oder mit zwanzig externen Mitgliedern einrichten. Es gibt nur wenige Grundregeln, die gleichermaßen für alle Unternehmen und Beiräte zutreffen. Eine davon ist, keine Beiratsmitglieder mit existierenden oder potenziellen Interessenkonflikten zu berufen.
unternehmenspraxis | update 16 | ss 2013
Wirtschaftsmediation: Konflikte lösen und gleichzeitig Kosten senken Nicole Musäus-Rausch
Wo auch immer Menschen zusammen kommen, entstehen Konflikte. Jeder hat bestimmte Interessen, Ziele und Vorstellungen, die mit dem Gegenüber nicht immer vereinbar sind. Das gilt ganz besonders im Wirtschaftsleben, wo Menschen und Arbeitsgruppen, die unterschiedlich denken und fühlen, zusammen arbeiten müssen. Schwierigkeiten mit Lieferanten und Kunden, Verletzungen von Schutzrechten, Probleme zwischen Mitarbeitern und Vorgesetzten, gegenseitige Blockaden der Arbeitergeber und Arbeitnehmervertretungen oder Auseinandersetzungen internationaler Partnerunternehmen, die Konstellationen könnten gar nicht vielfältiger sein. Schnell wird eine vormals sachliche Diskussion von Emotionen geprägt. Neben den wirtschaftlichen und unternehmerischen Interessen auf der Sachebene treten nicht selten persönliche Aspekte hinzu. Hinter jedem Konflikt steht immer auch ein Beziehungsproblem, das unter der sichtbaren Oberfläche liegt. Eine konstruktive Auseinandersetzung und somit auch die Fähigkeit des Konsens und der Kooperation sind nicht mehr ohne weiteres möglich. Vermeintlich verhärtete Positionen lassen oftmals nur eine Konfliktlösung zu: der Gang zum Richter oder zur Einigungsstelle. Mit den Möglichkeiten der Wirtschaftsmediation hingegen lassen sich solche Konflikte frühzeitig analysieren und lösen.
1. Betrachtung der Konfliktkosten So unterschiedlich Konflikte auch sein mögen, eines haben alle gemein: Sie kosten die Unternehmen wichtige Ressourcen, nämlich Zeit und Geld. Und nicht zuletzt belasten sie das psychologische Gleichgewicht der Betroffenen, eine Ressource, die gerne unterschätzt wird. Untersuchungen machen deutlich, dass in den entstehenden Konfliktkosten ein erhebliches Einsparpotenzial schlummert. Laut einer Studie der Unternehmensberatung KPMG entsteht der deutschen Wirtschaft jährlich ein Schaden von über 30 Mrd. Euro allein durch Fehlzeiten der Mitarbeiter wegen Angstsymptomen und Mobbing – eine nicht zu unterschätzende volkswirtschaftliche Größe. 10–15 % der Arbeitszeit soll für die Konfliktbewältigung eingesetzt werden. Führungskräfte geben sogar an, dass sie 30–50 % ihrer wöchentlichen Arbeitzeit direkt oder indirekt mit Reibungsverlusten, Konflikten und Konfliktfolgen verbringen. (Vgl. KPMG AG Wirtschaftsprüfungsgesellschaft 2009, S. 7 ff.) update 16 | ss 2013 | unternehmenspraxis
Nicole Musäus-Rausch Die studierte Betriebswirtin begann ihre berufliche Laufbahn als Projektleiterin für internationale Konferenzen für Finanzinstitute und Industrie. Im Jahre 2000 wechselte sie in den Commerzbank-Konzern, wo sie die interne und externe Kommunikation einer ausgegliederten Tochter gesellschaft gestaltete. Anschließend verantwortete sie sechs Jahre die Interne Kommunikation in der Eurohypo. In dieser Position begleitete sie kommunikativ zahlreiche Change-Prozesse. Heute ist Nicole Musäus-Rausch Seniorberaterin bei Internal Relations GmbH und betreut Kunden aus unterschiedlichsten Branchen in allen Belangen der Internen Kommunikation, Change Kommunikation und HR Kommunikation. Darüber hinaus berät und begleitet die zertifizierte Wirtschaftsmediatorin (IHK) Unternehmen bei der Implementierung von Konfliktmanagementsystemen. E-Mail: n.musaeus-rausch@internal-relations.com
Doch, was zählt alles zu den Konfliktkosten und wie können sie beziffert werden? Es lassen sich sieben mögliche Kostenblöcke unterscheiden: §§ M itarbeiterfluktuation: Dazu zählen die Aufwendungen der Personalbeschaffung (Rekrutierungskosten, Zeitaufwendungen für die Personalauswahl) genauso wie entstehende Kosten für die Einarbeitungszeiten der neuen Mitarbeiter und Produktivitätseinbußen der Mitarbeiter, die das Unternehmen in absehbarer Zeit verlassen. §§ F ehlzeiten durch Krankheit: Streitigkeiten am Arbeitsplatz können so weit eskalieren, dass sie die physische und psychische Gesundheit belasten, bis hin zur Arbeitsunfähigkeit. §§ K ontraproduktives Verhalten: Widerstände und Blockaden wirken sich unweigerlich auf die Arbeitsergebnisse aus. §§ K undenfluktuation und entgangene Aufträge: Konflikte mit Kunden wie auch interne Konflikte können sich schmerzhaft auf Kundenaufträge auswirken. Jede Neukundengewinnung verursacht höhere Kosten als die Kundenbindung. 117
Team derart eskalierten, dass dieser nicht nur das Unternehmen gegen eine Abfindung verlassen musste, sondern auch die Zusammenarbeit im Team empfindlich beeinträchtigt war. Umgekehrt entstanden dem Unternehmen Kosten für mediative Intervention, die ein produktives Arbeitsklima des Teams erst wiederherstellten. Wären diese Kosten von Anfang an in ein Mediationsverfahren geflossen, wäre der Konflikt nicht derart eskaliert und das Unternehmen hätte erhebliche Ausgaben gespart. (Vgl. KPMG AG Wirtschaftsprüfungsgesellschaft 2012, S. 12)
2. Konfliktlösung durch Wirtschaftsmediation Abb. 1: Kosten von unternehmensinternen Konflikten Quelle: Kirchhoff/Loebel 2012
§ Mängel in der Projektarbeit: Konflikte in Projektteams können die Projektarbeit erheblich belasten sowie das Projektziel empfindlich gefährden und zeitlich hinauszögern. § Über- und Unterregulierung von Organisationen: Konflikte, die struktureller Natur sind, verursachen oftmals Mehrarbeit und machen Restrukturierungen notwendig. § Arbeitsrechtliche Kosten: Dazu zählen rechtliche Beratungskosten bis hin zu den Kosten der Arbeitsgerichte. Meist ist die Summe der Kosten nicht auf den ersten Blick ersichtlich. Die untenstehende Grafik zeigt die Verteilung der sichtbaren und der verdeckten Kosten im Hinblick auf innerbetriebliche Konflikte. Eine umfassende Analyse ist daher unabdingbar. Die Höhe der Kosten lässt sich einerseits über den Zeitfaktor berechnen, d.h. die unproduktiv eingesetzte Arbeitszeit multipliziert mit dem Zeitentgelt. Andererseits kann auch die nicht realisierte Wertschöpfung, also der zu erwartende Umsatz, den Kostenberechnungen zu Grunde gelegt werden. Aus Controllingsicht kommt die österreichische Wirtschaftskammer zu dem Ergebnis, dass in kleinen und mittelständigen Unternehmen die Konfliktkosten 19 % der Gesamtkosten ausmachen. Laut der oben erwähnten Studie der KPMG lassen sich diese Kosten durch die Einführung eines Konfliktmanagementsystems um Prozent reduzieren. (Vgl. KPMG AG Wirtschaftsprüfungsgesellschaft 2009, S. 20) In der Wirtschaft angewandt, gibt die Deutsche Bank an, dass sich durch dort eingeführte Konfliktlösungswege, wie z.B. die Wirtschaftsmediation, 15 % der durch interne Konflikte entstandenen Kosten reduzieren lassen. (Vgl. Thiesen 2012, S. 18) Als Praxisbeispiel veranschaulicht die untenstehende Konfliktkostenberechnung die Kosten eines Mobbingfalles, bei dem Mobbingvorwürfe gegen einen Abteilungsleiter in einem 118
Der Begriff der Mediation stammt aus dem Lateinischen, das lateinische Adjektiv „medius“ bedeutet sinngemäß „zwischen zwei Ansichten oder Parteien die Mitte haltend, einen Mittelweg einschlagend, sich neutral bzw. unparteiisch verhaltend. Die Mediation als solches ist zunächst nichts Neues und blickt auf eine lange Geschichte zurück. Bereits der Grieche Solon wurde im 6. Jahrhundert v. Chr. als Vermittler betitelt, da er zwischen den Aristokraten des attischen Reiches und dem Bürgertum vermittelnd tätig war. Die „moderne Mediation“ hat ihren Ursprung in den USA. Bereits in den 1940er-Jahren haben Mediatoren Tarifverhandlungen durchgeführt und auch kleinere gerichtliche Schlichtungsprogramme übernommen. Aus den 1970er-Jahren resultiert die „Alternative Dispute Resolution“ die beispielsweise ganze Schiedsgerichtverhandlungen für Nachbarschaften involviert. Seit den 1980er und 1990er Jahren hält die Mediation ihren Einzug in die amerikanische Geschäftswelt. In Deutschland findet das Mediationsverfahren seit etwa fünfzehn Jahren vermehrt Anwendung – zunächst auf familien- bzw. scheidungspolitischer Ebene sowie bei Umweltverfahren, später auch im Schul- und Bauwesen. (Vgl. Pöpping 2008, S. 11) Die Wirtschaftsmediation als solches ist in Deutschland ein noch relativ junges Verfahren zur Konfliktlösung. Mitte 2012 wurde das Mediationsgesetz im Bundesrat verabschiedet, das die Mediation in Deutschland regelt und die Ausbildung der tätigen Mediatoren vorschreibt. In einem oben erwähnten Konfliktmanagementsystem bildet die Wirtschaftsmediation mit Blick auf die Hebung von Kostensenkungspotenzialen den Nukleus. Unter einem Konfliktmanagementsystem versteht man den Einsatz aller strukturellen und personellen Maßnahmen im Unternehmen zur Behandlung, Prävention und Evaluierung von inner- und außerbetrieblichen Konflikten. Das Konfliktmanagementsystem verfolgt das Ziel, die Konfliktkosten zu senken und Impulse für die Verbesserung der Aufbau- und Ablauforganisation zu liefern. Gleichwohl verändern die Einführung und die Praxis eines solchen Systems die Unternehmenskultur hin zur positiven Besetzung des Konfliktbegriffes. unternehmenspraxis | update 16 | ss 2013
3. Grundzüge der Mediation Schon der römische Philosoph Seneca war der Meinung, dass in einem Konflikt immer auch die andere Seite zu hören sei. Die Wirtschaftsmediation ist dabei ein Ansatz, diesen Antagonismus auf Unternehmensebene zu übertragen. (Vgl. Pöpping 2008, S. 1) Die Mediation ist ein strukturiertes Verfahren, in dem die Konfliktbeteiligten unter Vermittlung des Mediators selbstbestimmt eine nachhaltige Lösung erarbeiten. Im Unterschied zu gerichtlichen Verfahren liegt die Entscheidungsmacht bei den Konfliktparteien – nicht beim Richter. Auch der Mediator wird keine Entscheidungen für die Parteien treffen. Im Vergleich zu anwaltlichen und gerichtlichen Kostenstrukturen ist die Mediation ein sehr ressourcenschonendes Verfahren, gibt Planungssicherheit und minimiert Rechtsunsicherheiten. Hinter dem Mediationsverfahren ist das so genannte HarvardKonzept, ein Leitfaden zum sachbezogenen Verhandeln, hinterlegt. Es basiert auf vier Grundpfeilern: Menschen und Probleme voneinander trennen, Interessen statt Positionen vertreten, Optionen entwickeln, neutrale Kriterien vereinbaren und die beste Alternative finden. Folgende Grundsätze charakterisieren danach auch die Mediation: § Bei der Mediation wird neben der Sachebene immer auch die Beziehungsebene betrachtet. Die Konfliktbeteiligten mit all’ ihren Sorgen und Nöten werden sehr ernst genommen, wobei die Medianten eine sehr große Wertschätzung, erfahren. Gerade die, ist bei der Konfliktentstehung und dem „Konflikt-Weiter-Halten“ zu kurz gekommen. Die Mediation strebt den Erhalt der Beziehung an. § Das Mediationsverfahren beruht auf der Freiwilligkeit der Konfliktparteien. Nur wer sich aus Eigeninitiative und freiwillig für das Verfahren entscheidet, wird eine nachhaltige Lösung erarbeiten können. § Die Mediation findet in einem geschützten, vertraulichen Rahmen statt. Die Medianten sichern sich gegenseitig Vertraulichkeit zu, so dass die unternehmensinterne wie auch die unternehmensexterne Öffentlichkeit ausgeschlossen bleibt. Etwaige Rufschädigungen können somit ausgeschlossen werden. § Der Mediator verkörpert die Neutralität und Allparteilichkeit. Er sorgt für Ausgewogenheit zwischen den Parteien. Seine Aufgabe ist es, unterschiedliche Machtverhältnisse, wie z.B. bei innerbetrieblichen Mediationen zwischen Vorgesetzten und Mitarbeitern, auszugleichen.
update 16 | ss 2013 | unternehmenspraxis
Abb. 2: Konfliktkostenberechnung Quelle: KPMG AG Wirtschaftsprüfungsgesellschaft 2012, S. 12
§ Die Mediation ist zukunftsorientiert. Eine gemeinsame Reflexion des Konfliktes und die gemeinsame Erarbeitung einer Lösung, die für alle annehmbar ist und als fair bewertet wird, ist nicht nur nachhaltig, sondern lässt sich schnell umsetzen und kann neue Perspektiven der Zusammenarbeit eröffnen. § Die Mediation charakterisiert zudem die Ergebnisoffenheit. Der Mediator nimmt eine neutrale Haltung ein und hat am Inhalt der Lösung selbst kein Eigeninteresse. Er wird natürlich alles dafür einsetzen, dass es zu einer Lösung kommt. Aber wie diese konkret aussieht, ist für den Mediator unerheblich. Wichtig ist, dass die erarbeitete Lösung für alle Konfliktpartner stimmig ist. Dieser Aspekt ist besonders in der innerbetrieblichen Mediation von großer Bedeutung, da der Eindruck entstehen könnte, dass der Mediator vom Arbeitgeber Vorgaben bekäme. In einem solchen Falle hätte die Mediation intern Akzeptanzprobleme. Bei der Lösungsfindung können kreative Wege bestritten werden. Die Konfliktpartner haben die Lösungsentwicklung selbst in der Hand. 119
4. Eignung der Wirtschaftsmediation Die Mediation ist neben einer Vielzahl anderer Möglichkeiten nur ein Konfliktlösungsinstrument. Je nach Art und Eskalationsgrad des Konfliktes können andere Verfahren, wie z.B. innerbetrieblich: das Konfliktgespräch, die Teammoderation oder das Coaching bzw. außerbetrieblich: die Verhandlung unter Anwälten, die Schlichtung oder das Schiedsgutachten, eher geeignet sein, den Konflikt zu lösen. Die richtige Auswahl des Verfahrens ist hierbei ein wichtiger Erfolgsfaktor. Die Mediation wird jedoch als einziges Instrument intern wie auch extern angewandt. (Vgl. Troja/Stubbe 2006, S. 125) Erfahrungsgemäß sind acht von zehn Mediationen erfolgreich. Bei der Konfliktanalyse und Entscheidung darüber, welches Verfahren angewandt werden soll, ist die Wirtschaftsmediation immer dann besonders geeignet, wenn: §§ d ie Konfliktparteien eine zügige, individuelle und kosten sparende Lösung anstreben. §§ d ie Situation sehr festgefahren ist und ein Ausweg alles andere als offensichtlich ist.
Literatur Kirchhoff, L., Loebel, A. (2012): Schulungsunterlagen IHK Ausbildung „Wirtschaftsmediator (IHK), Modul VII, Frankfurt am Main.
§§ d ie Parteien eine aus ihrer Sicht faire Lösung anstreben und eigenverantwortlich handeln wollen, anstatt einen Richter entscheiden zu lassen. §§ d as Interesse an der Aufrechterhaltung oder der Wiederherstellung guter Arbeits- und Geschäftsbeziehungen besteht. Innerbetrieblich können dies Fälle sein, bei denen Schlüsselpositionen betroffen sind und dem Unternehmen ein großer Schaden entstehen würde, wenn die in den Konflikt involvierte Person das Unternehmen verlässt. Außerbetrieblich sind hier langfristige Kunden-Lieferantenbeziehungen, wie das in der IT-Branche der Fall ist, denkbar.
5. Ausblick Der unternehmerische Nutzen der Wirtschaftsmediation wird zunehmend erkannt, im B2B-Kontext und ganz besonders auch im innerbetrieblichen Kontext. Immer mehr Unternehmen erkennen die Chancen, die sich mit dem Einsatz der Mediation ergeben. Einige Unternehmen gehen sogar noch einen Schritt weiter und entwickeln ein systematisches Konfliktmanagementsystem. Vor diesem Hintergrund hat sich vor einigen Jahren der Round Table der Deutschen Wirtschaft gegründet, dem neben den beiden Gründerunternehmen, E.ON und SAP, Großunternehmen wie die Deutsche Telekom, Deutsche Bahn, Deutsche Bank, Audi, Siemens, Bombardier und zahlreiche Unternehmen des deutschen Mittelstandes angehören. Wissenschaftlich begleitet wird der Round Table durch das Institut für Konfliktmanagement der Europa-Universität Viadrina, Frankfurt (Oder).
KPMG AG Wirtschaftsprüfungsgesellschaft (Hrsg.) (2012): Best Practice Konflikt(kosten) Management 2012 – Der wahre Wert der Mediation, Frankfurt am Main. KPMG AG Wirtschaftsprüfungsgesellschaft (Hrsg.) (2009): Konfliktkostenstudie: Die Kosten von Reibungs verlusten in Industrieunternehmen, Frankfurt am Main. Pöpping, W. (2008): Wirtschaftsmediation als Verfahren des empirischen Konfliktmanagements. Bedarf und Nachfrage – Eine empirische Untersuchung, München. Thiesen, U. (2012): db fairness@work – von der Mobbingberatung zum Konfliktmanagement in der Deutschen Bank, in: Konfliktdynamik, Heft 1, S. 16–23. Troja, M., Stubbe, C. (2006): Lehrmodul 5: Konflikt managementsysteme, in: ZKM – Zeitschrift für Konflikt management, Heft 4, S. 121–126.
120
unternehmenspraxis | update 16 | ss 2013
LEHRE UND STUDIUM Unternehmens praxis unternehmens Profile
121 update 16
| ss 2013 | unternehmensprofile
121 unternehmensprofile | update 14 | ss 2012
Verlagsgruppe Rhein Main — Den Menschen in der Region verpflichtet Hans Georg Schnücker
Hans Georg Schnücker Sprecher der Geschäftsführung der Verlagsgruppe Rhein Main
Die Verlagsgruppe Rhein Main (VRM) ist ein Unternehmen, das viele Gesichter besitzt und das sich in der langen Unternehmenshistorie immer wieder gewandelt hat. Seit der Gründung im Jahr 1850 hat sich das Haus zu einem modernen Medienunternehmen des 21. Jahrhunderts entwickelt. Heute gehören zur VRM eine Vielzahl von Tochterunternehmen und Beteiligungen. Das Leistungsspektrum reicht von Print über digitale Produkte bis hin zu verschiedensten Dienstleistungen. Das Kerngeschäft bildet traditionell der Geschäftsbereich der Tageszeitungen. Neben der Allgemeinen Zeitung, dem Wiesbadener
Kurier und dem Gießener Anzeiger gehören zehn weitere Tageszeitungen mit ihren Online-Auftritten zur Verlagsgruppe. Insgesamt publiziert die VRM 27 Lokalausgaben mit einer verbreiteten Auflage von rund 239.000 Exemplaren. Darüber hinaus gehört mit dem Wochenblatt das größte Anzeigenblatt im westlichen Rhein-Main-Gebiet zum Portfolio des Hauses. Die zwölf Lokalausgaben haben eine Gesamtauflage von nahezu 650.000 Exemplaren und werden einmal pro Woche kostenlos an alle Haushalte im Verbreitungsgebiet verteilt. Weitere bedeutende Geschäftsbereiche sind die sublokalen Anzeigenblätter wie der „Neue Lokalbote“, die Stadtmagazine „sensor“ in Mainz und Wiesbaden sowie die Logistiksparte, die als Dienstleister agiert und die Verteilung von Kundenaufträgen und Verlagsprodukten organisiert. Die Verlagsgruppe Rhein Main hat 2010 in einem Gemeinschaftsunternehmen mit dem Medienhaus Südhessen (u.a. „Darmstädter Echo“) das Druckzentrum Rhein Main in Rüsselsheim errichtet – eine der modernsten Druckereien in Deutschland. Zudem ist die VRM Mitgesellschafter der Hörfunksender RPR1. (Rheinland-Pfalz) und Hit Radio FFH (Hessen). Beide erreichen mit ihren Programmen, zu denen unter anderem bigFM (RPR1.), planet radio und harmony.fm (beide Hit Radio FFH) gehören, höchste Reichweiten in der jeweiligen Landesbevölkerung.
Abb. 1: Der Hauptsitz der VRM in Mainz-Marienborn
122
unternehmensprofile | update 16 | ss 2013
Abb. 2: Das Druckzentrum Rhein Main in Rüsselsheim
Tageszeitungen und Zukunft Print
„Alles ist Lokal“
Mit den unter den Dachmarken „Rhein Main Presse“ und „Zeitungsgruppe Zentralhessen“ zusammengefassten Tageszeitungen werden täglich knapp 700.000 Leser erreicht. Damit zählt die VRM in ihrem Verbreitungsgebiet als der wichtigste Informationsdienstleister auf lokaler und regionaler Ebene. Ihre Produkte stellen eine bedeutende Klammer für das Leben der Menschen in der Region dar.
Mit der ständig wachsenden Informationsflut wird die Verlässlichkeit der Informationsquelle immer bedeutender und damit die seriösen journalistischen Inhalte immer relevanter. Die rund 190 Journalisten der VRM orientieren sich grundsätzlich am Leitsatz: „Alles ist lokal“. Dies gilt es, täglich konsequent und kompetent umzusetzen. Nur so kann die VRM in ihrer Region erfolgreich sein und bleiben. Konsequent regionale und lokale Berichterstattung baut Nähe auf und ist damit ein fester Bestandteil des alltäglichen Lebens der Leser. Themen werden deshalb auf ihre lokalen Wurzeln überprüft; Bezüge zum Umfeld der Kunden hergestellt. Nachrichten aus dem Verbreitungsgebiet haben stets Vorrang, überregionale Themen werden auf ihre Lokalisierbarkeit geprüft und entsprechend aufbereitet.
Die Veränderungen unserer Gesellschaft im Hinblick auf Demografie, Konsum- und Mediennutzungsverhalten stellen die deutschen Tageszeitungen vor besondere Herausforderungen. Die stark technologisch getriebene Konvergenz der Medien hat dazu geführt, dass die Marken und Produkte der VRM nicht mehr nur als gedruckte Objekte, sondern auch Online mit eigenen Webseiten, mit Social Media-Auftritten und als mobile Anwendungen präsent sind. Entgegen der landläufigen Meinung, neue Entwicklungen würden den klassischen Medien schaden, kann man zu Recht behaupten, dass sie diese beeinflussen, ergänzen und dass eine Wechselwirkung besteht. Langfristig am Markt behaupten werden sich die Akteure, die dieses Wechselspiel am besten beherrschen und somit den Kunden das beste Angebot unterbreiten können.
update 16 | ss 2013 | unternehmensprofile
Dem Informationsbedürfnis begegnet die VRM mit einer klaren, übersichtlichen Ordnung in ihren Produkten. Die Kunden verlangen heute nach einer mehrdimensionalen Präsentation der Nachrichten – in Text, Bild, Audio und Video. Daher kümmern sich die Journalisten des Hauses täglich auch um die Bewegtbild-Berichterstattung, zeichnen O-Töne auf und verdichten diese im Schnitt. Bei der VRM sind visuelle Elemente und Audio kein simples Beiwerk, sondern essentieller Bestandteil der Information. 123
Alsfeld
Gießen Lauterbach
Fulda Nidda
Zeitungsgruppe Zentralhessen
ZEITUNG FÜR DIE LANDESHAUPTSTADT
Usingen
DIE STADTZEITUNG
WIESBADENER TAGBLATT
Büdingen
UNTERTAUNUS-KURIER
Gelnhausen
WIESBADENER TAGBLATT
Idstein Bad Schwalbach
RHEINGAU-KURIER
WIESBADENER KURIER RHEINGAUER BÜRGERFREUND
Frankfurt Hofheim
Wiesbaden
INGELHEIM
RHEIN-MAIN-ANZEIGER
Eltville IN
Ingelheim BAD KREUZNACH
IN
MA
Mainz
RÜSSELSHEIM · RAUNHEIM
Rüsselsheim
Bingen
Darmstadt
Bad Kreuznach Kirn
Hochheim
RHE
Rüdesheim
BINGEN
Oppenheim
MAINZ
Bad Sobernheim NAHE
Alzey
LANDSKRONE
Bürstadt
KIRN
ALZEY
Worms
Bürstädter Zeitung
Lampertheim
Abb. 3: Verbreitungsgebietskarte der Tageszeitungen der VRM
BAD SOBERNHEIM
ALLGEMEINE ZEITUNG
Unternehmen auf einen Blick Verlagsgruppe Rhein Main GmbH & Co. KG 1850 erschien zum ersten Mal der „Tägliche StraßenAnzeiger“ (später „Mainzer Anzeiger“), aus dem 1946 die Allgemeine Zeitung hervorging Verbreitete Gesamtauflage Tageszeitungen: 239.000 Exemplare (Quelle: IVW, 2. Quartal 2012) Täglich 690.000 Leser (Quelle: MA 2012, deutschsprachige Bevölkerung ab 14 Jahren) Durchschnittlich 660.000 Unique User pro Monat (Quelle: AGOF internet facts 2012-11, deutschsprachige Bevölkerung ab 14 Jahren) Mitarbeiter: 1.100 Angestellte sowie ca. 2.500 Zusteller im Konzern
KONTAKT Verlagsgruppe Rhein Main GmbH & Co. KG Erich-Dombrowski-Straße 2 55127 Mainz Telefon: 06131 – 48-30 Fax: 06131 – 48-5033 E-Mail: marketing@vrm.de www.vrm.de 124
Der Werbemarkt Die Tageszeitung – in gedruckter wie in digitaler Form – ist seit jeher nicht nur kompetenter Informationsvermittler, sondern auch Plattform für den Werbemarkt: Den Werbekunden stellen die Produkte der VRM ein breit gefächertes Angebot mit einer Vielfalt von Formaten und Werbemöglichkeiten zur Verfügung. Alleine in den Tageszeitungen der „Rhein Main Presse“ erscheinen pro Jahr rund 18.000 Anzeigenseiten sowie 126 Millionen Prospektbeilagen. Etwa 40 Mitarbeiter betreuen werbungtreibende Unternehmen. Sie unterstützen die Unternehmen nicht nur bei der Wahl der einzusetzenden Medien, sondern auch bei der Kreation von Werbemitteln, bei der Realisierung von Anzeigen-, Prospekt-, und Online-Aufträgen, bei der Konzeption von Events und bei vielen anderen Themenbereichen – immer mit dem Ziel, die individuellen Kommunikationsziele des Kunden zu erreichen. Die Voraussetzungen dafür sind sehr gut, denn mit den Produkten der VRM werden mehr Menschen zwischen Idstein im Norden und Worms im Süden, zwischen Bad Kreuznach im Westen und Rüsselsheim im Osten erreicht, als mit jedem anderen Werbeträger. Die Verlagsgruppe Rhein Main versteht sich als das führende Medien- und Service-Unternehmen im westlichen Rhein-MainGebiet. Diesem hohen Anspruch fühlen sich alle Mitarbeiterinnen und Mitarbeiter des Hauses jeden Tag aufs Neue verpflichtet. Das Kapital der VRM ist das in sie gesetzte Vertrauen, das täglich gerechtfertigt werden muss. Sie baut auf ihre Tradition und die Erfahrung ihrer Mitarbeiter und ist „Den Menschen in der Region verpflichtet“. unternehmensprofile | update 16 | ss 2013
update 16 | ss 2013 | unternehmensprofile
125
MpM CoRpoRatE CoMMUnICatIon SolUtIonS SpEzIalagEntUR füR CRoSSMEDIalE konzEptE UnD pUBlIShIng-toolS frank Bockius
Frank Bockius ist der Gründer von mpm Corporate Communication Solutions und gemeinsam mit Philipp Mann geschäftsführender Gesellschafter des Unternehmens. Die Basis seines Know-hows als ausgewiesener Spezialist für Prozessoptimierung und crossmediale Kommunikation sind Abschlüsse als staatlich geprüfter Drucktechniker und Master of Marketing. Vor mpm sammelte Frank Bockius langjährige Erfahrung in der Medienproduktion sowohl im Print- als auch im Onlinebereich. In dieser Zeit arbeitete er in leitender Funktion bei führenden Mediendienstleistern und Agenturen.
Die Mainzer Agentur mpm Corporate Communication Solutions steht für die Verbindung aus Kreativität, Kompetenz und Effizienz. Dazu bietet sie Lösungen für Investor und Corporate Publishing sowie die zugehörigen digitalen Publishing-Systeme zur Umsetzung. Das Unternehmen wurde im Jahr 2000 von Frank Bockius gegründet, der es mit Philipp Mann als geschäftsführender Gesellschafter leitet. Heute ist mpm eine Full-Service-Agentur mit über 50 Mitarbeitern, die das gesamte Spektrum von Beratung, Konzeption, Redaktion und Grafik bis hin zum fertigen Produkt abdeckt. Dabei entwickelt und setzt das Team verschiedenste Projekte wie Geschäftsberichte, Kunden- und Mitarbeiterzeitschriften oder Onlinelösungen um. Das Spezialgebiet von mpm liegt auf der crossmedialen Umsetzung von Publikationen in Print-, Online- und Tablet-PC-Versionen, was vor allem bei Geschäftsberichten ein zukunftsweisendes Thema ist. Zusätzlich bietet die Agentur ihren Kunden Systeme zur MarketingprozessOptimierung, die Prozesse im Marketing und Corporate Publishing beim Kunden effizienter und schlanker machen.
financial Communications
Corporate Communications
Investor Relations, Online-IR, Geschäftsberichte, Jahresberichte, Finanzmarketing
Corporate Publishing, Interne Kommunikation, Vertriebskommunikation, Corporate Design, Online-Kommunikation
126
unternehmensprofile | update 16 | ss 2013
Leistungsspektrum aus drei Geschäftsfeldern mpm deckt mit den Bereichen Online, Medien, Redaktion, Layout und Beratung die drei Geschäftsfelder Corporate Communications, Financial Communications und Digital Publishing Solutions ab. In allen Bereichen bietet mpm Studierenden mit Interesse an der Medienbranche auch interessante Praktikumsmöglichkeiten. In den Bereichen Corporate Communications und Financial Communications fungiert mpm als kreativer Ideengeber und effizienter Umsetzer von Print- und Mobil-Lösungen. Diese werden für Mitarbeiter- und Kundenmagazine, Verkaufsprospekte und Broschüren sowie für Jahres- und Geschäftsberichte börsennotierter Gesellschaften oder Finanzdienstleister eingesetzt. Bei den meisten Publishing-Projekten kommt das hauseigene Redaktionssystem mpm Online Publisher zum Einsatz. Das System erhöht die Effizienz im Produktionsprozess, da es mit Änderungsverfolgung und Versionsübersicht ganz neue Formen der redaktionellen Zusammenarbeit ermöglicht. Grafiker und Redakteure können jetzt parallel an Dokumenten arbeiten und Text kann direkt ins fertige Layout einfließen. Dies spart viel Zeit und Korrekturvorgänge und so letztendlich auch Kosten. Außerdem dient das System als Content-Zentrale, über die verschiedene Ausgabekanäle bedient werden können. So lassen sich aus einer Vorlage heraus crossmediale Publikationen umsetzen.
Digital publishing Solutions
mpm Digital Marketing Center 3.0, DMC 3.0 Portal, Mediendatenbank, Online Print Center, eMarketing, PowerPoint-Manager, Online Publisher, Publishing Consulting
update 16 | ss 2013 | unternehmensprofile
kontakt mpm media process management GmbH Corporate Communication Solutions Untere Zahlbacher Straße 13 55131 Mainz Telefon: 06131 – 9569-0 Fax: 06131 – 9569-77 E-Mail: info@digitalagentur-mpm.de
Crossmediale Kompetenz Bestes Beispiel für das Leistungsspektrum von mpm sind umgesetzte Projekte wie der Unternehmensbericht des Pharmaunternehmens Boehringer Ingelheim, der in drei Ausgaben als Print-, Online- und Tablet-PC-Version erscheint. Für den Bericht wurde ein klares Kommunikationskonzept entwickelt, das in der Online-Version über eine eigene Microsite kommuniziert wird. Die dazugehörige App-Version wurde mit weiterführenden Inhalten und interaktiven Elementen aufgewertet. Für Europas größte Direktbank, die ING-DiBa, betreut mpm die gestalterische Umsetzung und Konzeptionierung des Mitarbeitermagazins „intern“. Das Unternehmen beschreitet dabei einen innovativen Weg, da das Magazin neben der Print-Version auch als iPad-App für die Mitarbeiter bereitsteht. Die App bildet die Struktur des Printmagazins nach, die Usability wurde aber an das iPad angepasst und Video- und Audio-Elemente wurden integriert.
Software als Basis der Effizienzsteigerung Das Redaktionssystem mpm Online Publisher ist eines von sechs Modulen des mpm Digital Marketing Centers 3.0, dem Medien- und Publishing-Portal von mpm. Dieses kann durch seinen flexiblen Aufbau auf die individuellen Bedürfnisse der Kunden zugeschnitten werden. Die Agentur sorgt dabei auch für die Einbindung und die reibungslose Funktion des Systems. Zu den Modulen gehört unter anderem auch eine Mediendatenbank, die es Unternehmen ermöglicht, ihre gesamten Medien wie Bilder, Texte, Grafiken oder PowerPoint-Vorlagen zentral und übersichtlich zu verwalten. Das mpm Online Print Center stellt als ein weiteres Modul des Systems eine fortschrittliche Web-to-Print-Lösung dar. Nutzer können hier aktuelle und personalisierte Marketingmaterialien unkompliziert selbst erstellen, personalisieren und bestellen. Dieses Modul lässt sich zudem mit einem eShop verknüpfen. Es eignet sich daher ideal für Unternehmen wie Versicherungen, die über einen großen Außendienst verfügen, der sich selbst mit Marketingmaterial versorgen soll. 127
Impressum
Herausgeber: Fachhochschule Mainz University of Applied Sciences Fachbereich Wirtschaft School of Business Lucy-Hillebrand-Str. 2 55128 Mainz Telefon: 06131/628-0 E-Mail: pr-wiwi@fh-mainz.de www.fh-mainz.de V.i.S.d.P.: Prof. Dr. Anett Mehler-Bicher Redaktion: Prof. Dr. Andrea Beyer Diplom-Volkswirtin Petra Carl Prof. Dr. Heinrich Holland Prof. Dr. Kurt W. Koeder Prof. Dr. Arno Peppmeier Prof. Dr. Lothar Rolke Prof. Dr. Ulrich Schüle Kontakt Redaktion: a.beyer@wiwi.fh-mainz.de Gestaltung: www.grafikbuero.com Druck: Printec, Kaiserslautern Auflage: 2500 Erscheinungsweise: jeweils zu Beginn des Semesters ISSN 1861-3152 Heft 16 Mainz, 2013 Die Zeitschrift ist auch abrufbar unter update.fh-mainz.de Jegliche Verwendung – auch auszugsweise – nur mit Quellenangabe; für gewerbliche Zwecke und Nutzung nur mit schriftlicher Genehmigung des Herausgebers. Die Meinung der Verfasser spiegelt nicht die Meinung der Redaktion wider.
Fachhochschule Mainz University of Applied Sciences Fachbereich Wirtschaft School of Business Lucy-Hillebrand-Str. 2 55128 Mainz
ISSN 1861-3152